.Tang

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

2019年4月27日

摘要: 1.scrapy中间件 下载中间件Downloader Middlewares 下载器中间件处理请求与响应,对应两个方法 process_request(self, request, spider) 每个request通过下载器中间件时,该方法被调用 process_response(self, r 阅读全文
posted @ 2019-04-27 19:01 .Tang 阅读(580) 评论(0) 推荐(0) 编辑

摘要: 两种方法模拟登陆 1.直接携带cookie 2.找到发送post请求的url地址,带上信息,发送请求 。 scrapy.FormRequest 阅读全文
posted @ 2019-04-27 17:34 .Tang 阅读(304) 评论(0) 推荐(0) 编辑

摘要: crawlspider提取url 创建一个crawlspider爬虫 scrapy genspider --t crawl baidu baidu.com py脚本启动多个spider from scrapy.utils.project import get_project_settings fro 阅读全文
posted @ 2019-04-27 14:40 .Tang 阅读(105) 评论(0) 推荐(0) 编辑