【教你写爬虫】用Java爬虫爬取百度搜索结果!可爬10w+条!

一、爬取目标

大家好,我是盆子。今天这篇文章来讲解一下:使用Java爬虫爬取百度搜索结果。

首先,展示爬取的数据,如下图。

爬取结果1:

1

爬取结果2:

2

代码爬取展示:

3

可以看到,上面爬取了五个字段,包括

标题,原文链接地址,链接来源,简介信息,发布时间。

二、爬取分析

用到的技术栈,主要有这些

Puppeteer 网页自动化工具
Jsoup 浏览器元素解析器
Mybatis-Plus 数据库存储

2.1 网页结构分析

打开百度搜索,搜索“手机”二字,可以看到下面这样的搜索结果,我们需要爬的信息都在上面。

爬取网页元素分析1:*

*尝试去分析它的网页结构:

爬取网页元素分析2:

5

打开控制台F12,可以看到这个 class =“result c-container xpath-log new-pmd” 所在的 div 标签就包含我们要爬取的所有信息。

那就很简单了,我们只需要去这个div里面,将需要的元素 (字段) 信息挨个的获取即可。

同理,这个结构也就是百度搜索结果的通用结构,其他的搜索结果中,也可以通过该 class 去定位。

2.2 爬虫代码分析

首先,这是我们代码的核心依赖:

    <dependency>
        <groupId>org.jsoup</groupId>
        <artifactId>jsoup</artifactId>
        <version>1.16.2</version>
    </dependency>

    <dependency>
        <groupId>io.github.fanyong920</groupId>
        <artifactId>jvppeteer</artifactId>
        <version>1.1.5</version>
    </dependency>

    <dependency>
        <groupId>com.baomidou</groupId>
        <artifactId>mybatis-plus-boot-starter</artifactId>
        <version>${mybaits.plus.version}</version>
    </dependency>

初始化浏览器,并且打开百度搜索页

        // 初始化浏览器相关
        BrowserFetcher.downloadIfNotExist(null);
        ArrayList<String> argList = new ArrayList<>();
        LaunchOptions options = new LaunchOptionsBuilder().withArgs(argList).withHeadless(false).build();
        argList.add("--no-sandbox");
        argList.add("--disable-setuid-sandbox");
        System.out.println("==1=");
        Browser browser = Puppeteer.launch(options);

        // 打开页面,开爬
        Page page = browser.newPage();
        page.goTo("https://www.baidu.com/");

运行上述代码,就会弹出一个浏览器(受我们代码控制),并且打开百度搜索页面

找出页面元素,并且模拟人工搜索关键字、点击搜索按钮的操作

        // 模拟人工搜索关键字
        ElementHandle inputField = page.$("#kw");
        inputField.type("手机");
        // 模拟人工点击搜索按钮
        ElementHandle confirmSearch = page.$("#su");
        confirmSearch.click();

此时,浏览器页面已经按照你的搜索关键词开始搜索了。

用代码解析页面

    // 获取页面所有内容(HTML格式)
    String content = page.content();
    // 解析页面元素,方便后面定位
    Document document = Jsoup.parse(content);
    // 找出我们上面说的那个class所在的div标签
    Elements elements = document.getElementsByClass("result c-container xpath-log new-pmd");

    // 去 class所在的div标签中找出需要的 字段信息
    for (int i = 0; i < elements.size(); i++) {
        Element element = elements.get(i);
        String title = element.getElementsByTag("a").text();
        String keyword = StrUtil.sub(title, 0, 7);
        // 将关键词存储到队列中,后续可使用
        keyWordsQueue.offer(keyword);
        String href = element.getElementsByTag("a").attr("href");
        // ...找出其他字段
        System.out.println(dataInfo);
    }

至此,一个关键词的爬取就已经完成,如果想要继续爬取关键词,我们继续搜索其他关键词,并且重复上述操作即可。

完整代码中,还包随机等待时长、解析其他字段、保存数据、多个关键字同时爬取等关键逻辑,详见文末。

三、总结

在爬虫中,无非就是模拟人的操作过程,去做相关操作,获取数据。

通过上文介绍的方式,我们是使用一种更具有通用型的方式去爬取数据。因为Puppeteer只是代理人手工点击的方式,而拿到数据。

上述完整代码,可以留言私信我获取。

本文由博客一文多发平台 OpenWrite 发布!

posted @ 2023-11-09 15:02  pzistart  阅读(622)  评论(2编辑  收藏  举报