2018年2月28日

Redis

该文被密码保护。 阅读全文

posted @ 2018-02-28 12:33 flyoss 阅读(4) 评论(0) 推荐(0) 编辑

第七篇:分布式爬虫

摘要: 一 介绍 原来scrapy的Scheduler维护的是本机的任务队列(存放Request对象及其回调函数等信息)+本机的去重队列(存放访问过的url地址) 所以实现分布式爬取的关键就是,找一台专门的主机上运行一个共享的队列比如Redis,然后重写Scrapy的Scheduler,让新的Schedul 阅读全文

posted @ 2018-02-28 11:46 flyoss 阅读(426) 评论(0) 推荐(0) 编辑

第六篇:Scrapy框架

摘要: 一 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon As 阅读全文

posted @ 2018-02-28 11:27 flyoss 阅读(331) 评论(0) 推荐(0) 编辑

第五篇:爬虫高性能相关

摘要: 一 背景知识 爬虫的本质就是一个socket客户端与服务端的通信过程,如果我们有多个url待爬取,只用一个线程且采用串行的方式执行,那只能等待爬取一个结束后才能继续下一个,效率会非常低。 需要强调的是:对于单线程下串行N个任务,并不完全等同于低效,如果这N个任务都是纯计算的任务,那么该线程对cpu的 阅读全文

posted @ 2018-02-28 10:59 flyoss 阅读(124) 评论(0) 推荐(0) 编辑

导航