jsoup爬虫简书首页数据做个小Demo
昨天LZ去面试,遇到一个大牛,被血虐一番,发现自己基础还是很薄弱,对java一些原理掌握的还是不够稳固,比如java反射注解,知道一点就是说不出来,很尴尬... 生命不止,学习不止啊
之前那个项目 QNews 用的是的第三方的数据平台,所以访问次数会有限制,这就很无奈。。。
每天只能请求100次....但是LZ这个穷屌丝也买不起服务器,所以就上网查,有什么别的方法可以获取数据,意外之间发现了jsoup这个强大的框架,就花了上午时间学习了一下,然后下午做了一个小Demo,功能比较单一,请见谅。
其实一开始的时候是想 爬今日头条的数据,但是发现数据总是为空,我估计是上锁了... 然后就把矛头转向了 简书,哈哈哈...果然简书就是好,数据直接就可以爬到了, 好开心啊!!
先演示一波动态图:
话说这个布局就花了我半个小时...
一些基础的我就不说了,就简单说明一下我的数据是如何爬到的。可以直接去看一下我的源码,写的比较仓促,一些细节没有处理好,多多指教。
1. 准备
1. 相关资料
2. 添加依赖
compile 'org.jsoup:jsoup:1.9.2'
3. 打开简书首页
在单个部分上 右击,然后点击检查选项(我用的是QQ浏览器,其他未尝试),底部就会跳出网页的源码,并且会跟踪到这个item对应的源码。
从上图可以大概了解到每个<li></li>
标签里的内容就是我们每个item的信息。
2. 爬数据
1. 获取 Document
对象
Document document = Jsoup.connect("http://www.jianshu.com/")
.timeout(10000)
.get();
这里通过建立与服务器的链接,并设置10s的超时连接来获取
Document
对象
2. 获取跟标签的 Elements
对象
Elements noteList = document.select("ul.note-list");
Elements li = noteList.select("li");
找到文章列表模块,发现
<ul class="note-list></ul>
是我们需要信息的跟标签。通过select
方法查询节点所有信息。
for (Element element : li) {
...
}
下面全部都是
li
标签的列表,里面的内容大致相似,我们就可以通过循环来遍历里面的信息。
3. 获取每个部分所有信息
因为信息比较多,我就选择比较有代表性的来将一下。
有个非常简单的方式:直接在你需要获取内容的部分右击,点击 检查,就可以直接追踪到要查询的位置。
1. 标题
就拿标题而言,直接在标题右击-->检查,即可,一目了然。然后我把数据截图一下。
String title = element.select("a.title").text()
通过
select
查询节点信息,然后.text
获取里面文本内容。
2. 头像:
String avatar = element.select("a.avatar").select("img").attr("src")
这个就是先找到头像 节点,然后图片节点,最后通过
attr
获取图片url
3. 首页链接
String authorLink = element.select("a.blue-link").attr("abs:href")
这里注意
href
元素,他存放的就是跳转链接,不过是相对路径,这个时候就需要通过attr("abs:href")
获取绝对路径。
其他 就 大同小异,其实我知道也就这么多,也是不断尝试通过打印得出来的,还是比较心酸的,比较没学过 js
,不过对 js
挺有兴趣的。
3. 封装
剩下的就是将获取到的数据加载到bean对象中
1. 创建 bean 对象
public class JianshuBean {
private String authorName; // 作者
private String authorLink; // 作者链接
private String time; // 更新时间
private String primaryImg; // 主图
private String avatarImg; // 头像
private String title; // 标题
private String titleLink; // 标题链接
private String content; // 内容
private String collectionTagLink; // 专题链接
private String readNum; // 阅读量
private String talkNum; // 评论
private String likeNum; // 喜欢
private String collectionTag; // 专题
// ... get set
}
2. 将获取到的数据添加到集合中
for (Element element : li) {
JianshuBean bean = new JianshuBean();
bean.setAuthorName(element.select("div.name").text()); // 作者姓名
bean.setAuthorLink(element.select("a.blue-link").attr("abs:href")); // 作者首页链接
bean.setTime(element.select("span.time").attr("data-shared-at")); // 发表时间
bean.setPrimaryImg(element.select("img").attr("src")); // 主图
bean.setAvatarImg(element.select("a.avatar").select("img").attr("src")); // 头像
bean.setTitle(element.select("a.title").text()); // 标题
bean.setTitleLink(element.select("a.title").attr("abs:href")); // 标题链接
bean.setContent(element.select("p.abstract").text()); // 内容
bean.setCollectionTagLink(element.select("a.collection-tag").attr("abs:href")); // 专题链接
String[] text = element.select("div.meta").text().split(" ");
if (text[0].matches("[0-9]+")) {
bean.setReadNum(text[0]);
bean.setTalkNum(text[1]);
bean.setLikeNum(text[2]);
} else {
bean.setCollectionTag(text[0]);
bean.setReadNum(text[1]);
bean.setTalkNum(text[2]);
bean.setLikeNum(text[3]);
}
mBeans.add(bean);
}
再来看一下效果:
项目文件截图:
- 点击头像查看作者信息
- 点击图片或文字查看文章内容
- 点击专题查看专题内容
- 下拉刷新获取最新内容
希望大家多多支持我,谢谢!
jsoup爬虫简书首页数据做个小Demo
注:本文著作权归作者,由demo大师代发,拒绝转载,转载需要作者授权