摘要: 单机爬虫,在通过优先级队列合并下载队列和访问队列,通过统一的下载器去合并下载器以及访问器之后,其机构就变的非常简单。 其启动代码也特别简单。 中间还需要加入对访问失败的URL的处理单元,比如建立一个逻辑,访问失败的URL放回任务池中等待重新访问,当访问失败3次就保存到本地。 然而,单台计算机当作爬虫 阅读全文
posted @ 2018-08-23 19:41 calll_me_gaga 阅读(549) 评论(0) 推荐(0) 编辑