摘要: 当我们需要大量的爬取网站信息时,除了切换User Agent之外,另外一个重要的方式就是设置IP代理,以防止我们的爬虫被拒绝,下面我们就来演示scrapy如何设置随机IPProxy。 设置随机IPProxy 同样的你想要设置IPProxy ,首先需要找到可用的IPProxy ,通常情况下,一些代理网 阅读全文
posted @ 2017-08-20 21:29 cnkai 阅读(15979) 评论(0) 推荐(2) 编辑
摘要: 大多数情况下,网站都会根据我们的请求头信息来区分你是不是一个爬虫程序,如果一旦识别出这是一个爬虫程序,很容易就会拒绝我们的请求,因此我们需要给我们的爬虫手动添加请求头信息,来模拟浏览器的行为,但是当我们需要大量的爬取某一个网站的时候,一直使用同一个User Agent显然也是不够的,因此,我们本节的 阅读全文
posted @ 2017-08-20 20:49 cnkai 阅读(20713) 评论(2) 推荐(3) 编辑
摘要: 下载器中间件是介于Scrapy的request/response处理的钩子框架,是用于全局修改Scrapy request和response的一个轻量、底层的系统。 激活Downloader Middleware 要激活下载器中间件组件,将其加入到 DOWNLOADER_MIDDLEWARES 设置 阅读全文
posted @ 2017-08-20 19:39 cnkai 阅读(3556) 评论(0) 推荐(0) 编辑
摘要: Media Pipeline Scrapy为下载item中包含的文件(比如在爬取到产品时,同时也想保存对应的图片)提供了一个可重用的 item pipelines . 这些pipeline有些共同的方法和结构(称之为media pipeline)。我们可以使用FilesPipeline和Images 阅读全文
posted @ 2017-08-20 16:37 cnkai 阅读(4592) 评论(1) 推荐(3) 编辑
摘要: Scrapy设定(settings)提供了定制Scrapy组件的方法。你可以控制包括核心(core),插件(extension),pipeline及spider组件。设定为代码提供了提取以key value映射的配置值的的全局命名空间(namespace)。 Scrapy内置设置 下面给出scrap 阅读全文
posted @ 2017-08-20 12:30 cnkai 阅读(6352) 评论(0) 推荐(1) 编辑
摘要: 在之前的 "Scrapy学习篇(四)之数据的存储" 的章节中,我们其实已经使用了Item Pipeline,那一章节主要的目的是形成一个笼统的认识,知道scrapy能干些什么,但是,为了形成一个更加全面的体系,我们在这一章节中,将会单独介绍Item Pipeline,方便以后你自定义你的item p 阅读全文
posted @ 2017-08-20 10:44 cnkai 阅读(2251) 评论(0) 推荐(0) 编辑
摘要: 当我们取得了网页的response之后,最关键的就是如何从繁杂的网页中把我们需要的数据提取出来,python从网页中提取数据的包很多,常用的有下面的几个: BeautifulSoup 它基于HTML代码的结构来构造一个Python对象, 对不良标记的处理也非常合理,但是速度上有所欠缺。 lxml 是 阅读全文
posted @ 2017-08-20 09:57 cnkai 阅读(10311) 评论(0) 推荐(2) 编辑