摘要: 1.配置环境 实验环境:Ubuntu 18.04 需要的文件:GeekOS[http://geekos.sourceforge.net/]、nasm-2.00(低版本的,高版本的会报错)[https://www.nasm.us/pub/nasm/releasebuilds/?C=M;O=D] 2.编 阅读全文
posted @ 2020-07-23 13:51 |Thresh| 阅读(2088) 评论(2) 推荐(0) 编辑
摘要:  依赖安装 在安装和配置Cuckoo之前,需要安装依赖的一些软件和库。首先创建一个文件夹存放cuckoo所需要的文件。 这里是需要的库和需要安装的文件。 安装 Python 库 (Ubuntu/Debian-based) Cuckoo的管理组件完全由Python脚本编写,所以就需要适合的Pytho 阅读全文
posted @ 2020-07-23 08:57 |Thresh| 阅读(4559) 评论(0) 推荐(1) 编辑
摘要: 1. 介绍scrapy-redis框架 scrapy-redis 一个三方的基于redis的分布式爬虫框架,配合scrapy使用,让爬虫具有了分布式爬取的功能。 github地址: https://github.com/darkrho/scrapy-redis 2. 分布式原理 scrapy-red 阅读全文
posted @ 2020-07-21 11:30 |Thresh| 阅读(173) 评论(0) 推荐(0) 编辑
摘要: 问题 有的页面的很多部分都是用JS生成的,而对于用scrapy爬虫来说就是一个很大的问题,因为scrapy没有JS engine,所以爬取的都是静态页面,对于JS生成的动态页面都无法获得 官网http://splash.readthedocs.io/en/stable/ 解决方案 利用第三方中间件来 阅读全文
posted @ 2020-07-21 11:28 |Thresh| 阅读(924) 评论(0) 推荐(0) 编辑
摘要: 1. Splash介绍 Splash是一个JavaScript渲染服务,是一个带有HTTP API的轻量级浏览器,同时它对接了Python中的Twisted和QT库。利用它,我们同样可以实现动态渲染页面的抓取 2. 安装 2.1 安装docker 2.2 拉取镜像 docker pull scrap 阅读全文
posted @ 2020-07-21 11:27 |Thresh| 阅读(653) 评论(0) 推荐(0) 编辑
摘要: 1. Scrapy-Request和Response(请求和响应) Scrapy的Request和Response对象用于爬网网站。 通常,Request对象在爬虫程序中生成并传递到系统,直到它们到达下载程序,后者执行请求并返回一个Response对象,该对象返回到发出请求的爬虫程序。 sequen 阅读全文
posted @ 2020-07-21 11:26 |Thresh| 阅读(173) 评论(0) 推荐(0) 编辑
摘要: 1. Spider 下载中间件(Middleware) Spider 中间件(Middleware) 下载器中间件是介入到 Scrapy 的 spider 处理机制的钩子框架,您可以添加代码来处理发送给 Spiders 的 response 及 spider 产生的 item 和 request 2 阅读全文
posted @ 2020-07-21 11:25 |Thresh| 阅读(190) 评论(0) 推荐(0) 编辑
摘要: 1. 介绍 Scrapy提供了一个 item pipeline ,来下载属于某个特定项目的图片,比如,当你抓取产品时,也想把它们的图片下载到本地。 这条管道,被称作图片管道,在 ImagesPipeline 类中实现,提供了一个方便并具有额外特性的方法,来下载并本地存储图片: 将所有下载的图片转换成 阅读全文
posted @ 2020-07-21 11:24 |Thresh| 阅读(362) 评论(0) 推荐(0) 编辑
摘要: 1. CrawlSpiders 原理图 sequenceDiagram start_urls ->>调度器: 初始化url 调度器->>下载器: request 下载器->>rules: response rules->>数据提取: response rules->>调度器: 新的url 通过下面的 阅读全文
posted @ 2020-07-21 11:23 |Thresh| 阅读(213) 评论(0) 推荐(0) 编辑
摘要: 爬取小说 spider import scrapy from xiaoshuo.items import XiaoshuoItem class XiaoshuoSpiderSpider(scrapy.Spider): name = 'xiaoshuo_spider' allowed_domains 阅读全文
posted @ 2020-07-21 11:22 |Thresh| 阅读(171) 评论(0) 推荐(0) 编辑