摘要: 上次我们介绍了scrapy的安装和加入debug的main文件,这次重要介绍创建的爬虫的基本爬取有用信息 通过命令(这篇博文)创建了jobbole这个爬虫,并且生成了jobbole.py这个文件,又写了xpath和css的基本用法的博文 首先分析网页的结构和抓取流程: 1,下载start_urls, 阅读全文
posted @ 2017-05-19 15:37 若鸟 阅读(2538) 评论(0) 推荐(0) 编辑