摘要: 通过scrapy.Request实现翻页请求: 这里以爬取腾讯招聘网站的岗位信息为例制作一个爬虫进行翻页请求的实现 阅读全文
posted @ 2018-11-22 21:46 飘在天上的云 阅读(988) 评论(0) 推荐(0) 编辑
摘要: 通过scrapy.Request实现翻页请求: 这里一爬取腾讯招聘网站的岗位信息为例制作一个爬虫进行翻页请求的实现 阅读全文
posted @ 2018-11-22 21:44 飘在天上的云 阅读(6132) 评论(0) 推荐(0) 编辑
摘要: 一、在scrapy中的应用: 1、在settings中的设置: 2、在spider.py或pipelines.py文件中import logging,实例化logger的方式,使用logger输出内容: 二、在普通项目中的应用: 阅读全文
posted @ 2018-11-22 20:44 飘在天上的云 阅读(272) 评论(0) 推荐(0) 编辑
摘要: 问题描述:在一个爬虫项目里有多个爬虫进行数据的爬取,如何在pipeline中识别数据是来自哪个爬虫的, 方法: 方法一:在 爬虫的parse函数下,对爬取的数据添加一个标识字段: 方法二:在pipelines.py中的process_item函数里的spider的属性来判断: 阅读全文
posted @ 2018-11-22 20:01 飘在天上的云 阅读(614) 评论(0) 推荐(0) 编辑
摘要: 步骤: 一,新建一个工程 二,在工程中中新建一个爬虫项目,scrapy startproject myspider 三,切入到项目目录下,然后在项目中,新建一个爬虫spider。 四,在itcast.py中,编写爬取程序 五,开启MyspiderPipeline之前需要在settings.py中开启 阅读全文
posted @ 2018-11-22 17:07 飘在天上的云 阅读(237) 评论(0) 推荐(0) 编辑