Your browser does not support the Canvas element.

爬虫框架之scrapy

一、介绍

二、安装

三、命令行工具

四、项目结构以及爬虫应用简介

五、Spiders

六、Selectors

七、Items

八、Item Pipelin

九、 Dowloader Middeware

十、Sider Middlewear

十一、自定义扩展

十二、setitings.py

十三、获取亚马逊商品信息

十四、获取樱花动漫剧场版的作品名称和链接

 一、介绍

    Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。

    Scrapy 是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架。因此Scrapy使用了一种非阻塞(又名异步)的代码来实现并发。整体架构大致如下

 

在Scrapy的数据流是由执行引擎控制,具体流程如下:

  • 1、spiders产生request请求,将请求交给引擎
  • 2、引擎(EGINE)吧刚刚处理好的请求交给了调度器,以一个队列或者堆栈的形式吧这些请求保存起来,调度一个出来再传给引擎
  • 3、调度器(SCHEDULER)返回给引擎一个要爬取的url
  • 4、引擎把调度好的请求发送给download,通过中间件发送(这个中间件至少有 两个方法,一个请求的,一个返回的),
  • 5、一旦完成下载就返回一个response,通过下载器中间件,返回给引擎
  • 6、引擎从下载器中收到response对象,从spider器中间件传给了spiders(spiders里面做两件事,1、产生request请求,2、为request请求绑定一个回调函数),spiders只负责解析爬取的任务。不做存储,
  • 7、解析完成之后返回一个解析之后的结果items对象及(跟进的)新的Request给引擎
  • 就被ITEM PIPELUMES处理了
  • 8、引擎将(Spider返回的)爬取到的Item给Item Pipeline,存入数据库,持久化,如果数据不对,可重新封装成一个request请求,传给调度器
  • 9、(从第二步)重复直到调度器中没有更多地request,引擎关闭该网站

 scrapy框架分为七大部分核心的组件

1、引擎(EGINE)

引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。

2、调度器(SCHEDULER)

用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址

3、下载器(DOWLOADER)

用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的

4、爬虫(SPIDERS)

SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求

5、项目管道(ITEM PIPLINES)

在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作

6、下载器中间件(Downloader Middlewares)

 下载器中间件是在引擎及下载器之间的特定钩子(specific hook),处理Downloader传递给引擎的response。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 下载器中间件(Downloader Middleware) 。

7、爬虫中间件(Spider Middlewares)

 Spider中间件是在引擎及Spider之间的特定钩子(specific hook),处理spider的输入(response)和输出(items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 Spider中间件(Middleware) 。

二、安装

#Windows平台
    1、pip3 install wheel #安装后,便支持通过wheel文件安装软件,wheel文件官网:https://www.lfd.uci.edu/~gohlke/pythonlibs
    3、pip3 install lxml
    4、pip3 install pyopenssl
    5、下载并安装pywin32:https://sourceforge.net/projects/pywin32/files/pywin32/
    6、下载twisted的wheel文件:http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
    7、执行pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl
    8、pip3 install scrapy
  
#Linux平台
    1、pip3 install scrapy

 

三、命令行工具

#1 查看帮助
    scrapy -h
    scrapy <command> -h

#2 有两种命令:其中Project-only必须切到项目文件夹下才能执行,而Global的命令则不需要
    Global commands:
        startproject #创建项目
        genspider    #创建爬虫程序
        settings     #如果是在项目目录下,则得到的是该项目的配置
        runspider    #运行一个独立的python文件,不必创建项目
        shell        #scrapy shell url地址  在交互式调试,如选择器规则正确与否
        fetch        #独立于程单纯地爬取一个页面,可以拿到请求头
        view         #下载完毕后直接弹出浏览器,以此可以分辨出哪些数据是ajax请求
        version      #scrapy version 查看scrapy的版本,scrapy version -v查看scrapy依赖库的版本
    Project-only commands:
        crawl        #运行爬虫,必须创建项目才行,确保配置文件中ROBOTSTXT_OBEY = False
        check        #检测项目中有无语法错误
        list         #列出项目中所包含的爬虫名
        edit         #编辑器,一般不用
        parse        #scrapy parse url地址 --callback 回调函数  #以此可以验证我们的回调函数是否正确
        bench        #scrapy bentch压力测试

#3 官网链接
    https://docs.scrapy.org/en/latest/topics/commands.html
 1 全局命令:所有文件夹都使用的命令,可以不依赖与项目文件也可以执行
 2 项目的文件夹下执行的命令
 3 1、scrapy startproject Myproject #创建项目
 4    cd Myproject
 5 2、scrapy genspider baidu www.baidu.com  #创建爬虫程序,baidu是爬虫名,定位爬虫的名字
 6 #写完域名以后默认会有一个url,
 7 3、scrapy settings --get BOT_NAME  #获取配置文件
 8 #全局:4、scrapy runspider budui.py
 9 5、scrapy runspider AMAZON\spiders\amazon.py  #执行爬虫程序
10    在项目下:scrapy crawl amazon  #指定爬虫名,定位爬虫程序来运行程序
11     #robots.txt 反爬协议:在目标站点建一个文件,里面规定了哪些能爬,哪些不能爬
12     # 有的国家觉得是合法的,有的是不合法的,这就产生了反爬协议
13     # 默认是ROBOTSTXT_OBEY = True
14     # 修改为ROBOTSTXT_OBEY = False  #默认不遵循反扒协议
15 6、scrapy shell https://www.baidu.com  #直接超目标站点发请求
16      response
17      response.status
18      response.body
19      view(response)
20 7、scrapy view https://www.taobao.com #如果页面显示内容不全,不全的内容则是ajax请求实现的,以此快速定位问题
21 8、scrapy version  #查看版本
22 9、scrapy version -v #查看scrapy依赖库锁依赖的版本
23 10、scrapy fetch --nolog http://www.logou.com    #获取响应的内容
24 11、scrapy fetch --nolog --headers http://www.logou.com  #获取响应的请求头
25     (venv3_spider) E:\twisted\scrapy框架\AMAZON>scrapy fetch --nolog --headers http://www.logou.com
26     > Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
27     > Accept-Language: en
28     > User-Agent: Scrapy/1.5.0 (+https://scrapy.org)
29     > Accept-Encoding: gzip,deflate
30     >
31     < Content-Type: text/html; charset=UTF-8
32     < Date: Tue, 23 Jan 2018 15:51:32 GMT
33     < Server: Apache
34     >代表请求
35     <代表返回
36 10、scrapy shell http://www.logou.com #直接朝目标站点发请求
37 11、scrapy check  #检测爬虫有没有错误
38 12、scrapy list  #所有的爬虫名
39 13、scrapy parse http://quotes.toscrape.com/ --callback parse #验证回调函函数是否成功执行
40 14、scrapy bench #压力测试
示例用法

四、项目结构以及爬虫应用简介

project_name/
   scrapy.cfg
   project_name/
       __init__.py
       items.py
       pipelines.py
       settings.py
       spiders/
           __init__.py
           爬虫1.py
           爬虫2.py
           爬虫3.py

注意:一般创建爬虫文件时,以网站域名命名

默认只能在cmd中执行爬虫,如果想在pycharm中执行需要做:

#在项目目录下新建:entrypoint.py
from scrapy.cmdline import execute
# execute(['scrapy', 'crawl', 'amazon','--nolog'])  #不要日志打印
# execute(['scrapy', 'crawl', 'amazon'])

#我们可能需要在命令行为爬虫程序传递参数,就用下面这样的命令
#acrapy crawl amzaon -a keyword=iphone8
execute(['scrapy', 'crawl', 'amazon1','-a','keyword=iphone8','--nolog'])  #不要日志打印

# execute(['scrapy', 'crawl', 'amazon1'])
1 import sys,os
2 sys.stdout=io.TextIOWrapper(sys.stdout.buffer,encoding='gb18030')
关于windows编码

五、Spiders

1、介绍

#1、Spiders是由一系列类(定义了一个网址或一组网址将被爬取)组成,具体包括如何执行爬取任务并且如何从页面中提取结构化的数据。

#2、换句话说,Spiders是你为了一个特定的网址或一组网址自定义爬取和解析页面行为的地方

2、Spiders会循环做如下事情

#1、生成初始的Requests来爬取第一个URLS,并且标识一个回调函数
第一个请求定义在start_requests()方法内默认从start_urls列表中获得url地址来生成Request请求,默认的回调函数是parse方法。回调函数在下载完成返回response时自动触发

#2、在回调函数中,解析response并且返回值
返回值可以4种:
        包含解析数据的字典
        Item对象
        新的Request对象(新的Requests也需要指定一个回调函数)
        或者是可迭代对象(包含Items或Request)

#3、在回调函数中解析页面内容
通常使用Scrapy自带的Selectors,但很明显你也可以使用Beutifulsoup,lxml或其他你爱用啥用啥。

#4、最后,针对返回的Items对象将会被持久化到数据库
通过Item Pipeline组件存到数据库:https://docs.scrapy.org/en/latest/topics/item-pipeline.html#topics-item-pipeline)
或者导出到不同的文件(通过Feed exports:https://docs.scrapy.org/en/latest/topics/feed-exports.html#topics-feed-exports)

3、Spiders总共提供了五种类:

#1、scrapy.spiders.Spider #scrapy.Spider等同于scrapy.spiders.Spider
#2、scrapy.spiders.CrawlSpider
#3、scrapy.spiders.XMLFeedSpider
#4、scrapy.spiders.CSVFeedSpider
#5、scrapy.spiders.SitemapSpider

4、导入使用

import scrapy
class AmazonSpider(scrapy.Spider):

    name = 'amazon'  # 必须唯一
    allowed_domains = ['www.amazon.cn']  # 允许域
    start_urls = ['http://www.amazon.cn/']  # 如果你没有指定发送的请求地址,会默认使用只一个

    def parse(self,response):
          pass

 

5、class scrapy.spiders.Spider

这是最简单的spider类,任何其他的spider类都需要继承它(包含你自己定义的)。

该类不提供任何特殊的功能,它仅提供了一个默认的start_requests方法默认从start_urls中读取url地址发送requests请求,并且默认parse作为回调函数

import scrapy
class AmazonSpider(scrapy.Spider):
    def __init__(self,keyword=None,*args,**kwargs):  #在entrypoint文件里面传进来的keyword,在这里接收了
        super(AmazonSpider,self).__init__(*args,**kwargs)
        self.keyword = keyword

    name = 'amazon'  # 必须唯一
    allowed_domains = ['www.amazon.cn']  # 允许域
    start_urls = ['http://www.amazon.cn/']  # 如果你没有指定发送的请求地址,会默认使用只一个

    custom_settings = {  # 自定制配置文件,自己设置了用自己的,没有就找父类的
        "BOT_NAME": 'HAIYAN_AMAZON',
        'REQUSET_HEADERS': {},
    }

    def start_requests(self):
        url = 'https://www.amazon.cn/s/ref=nb_sb_noss_1/461-4093573-7508641?'
        url+=urlencode({"field-keywords":self.keyword})
        print(url)
        yield  scrapy.Request(
            url,
            callback = self.parse_index,  #指定回调函数
            dont_filter = True,  #不去重,这个也可以自己定制
            # dont_filter = False,  #去重,这个也可以自己定制
            # meta={'a':1}  #meta代理的时候会用
        )
        #如果要想测试自定义的dont_filter,可多返回结果重复的即可

在settings中

DEFAULT_REQUEST_HEADERS = {
  # 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
  # 'Accept-Language': 'en',
    "User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36"
}
 1 #1、name = 'amazon' 
 2 定义爬虫名,scrapy会根据该值定位爬虫程序
 3 所以它必须要有且必须唯一(In Python 2 this must be ASCII only.)
 4 
 5 #2、allowed_domains = ['www.amazon.cn'] 
 6 定义允许爬取的域名,如果OffsiteMiddleware启动(默认就启动),
 7 那么不属于该列表的域名及其子域名都不允许爬取
 8 如果爬取的网址为:https://www.example.com/1.html,那就添加'example.com'到列表.
 9 
10 #3、start_urls = ['http://www.amazon.cn/']
11 如果没有指定url,就从该列表中读取url来生成第一个请求
12 
13 #4、custom_settings
14 值为一个字典,定义一些配置信息,在运行爬虫程序时,这些配置会覆盖项目级别的配置
15 所以custom_settings必须被定义成一个类属性,由于settings会在类实例化前被加载
16 
17 #5、settings
18 通过self.settings['配置项的名字']可以访问settings.py中的配置,如果自己定义了custom_settings还是以自己的为准
19 
20 #6、logger
21 日志名默认为spider的名字
22 self.logger.debug('=============>%s' %self.settings['BOT_NAME'])
23 
24 #5、crawler:了解
25 该属性必须被定义到类方法from_crawler中
26 
27 #6、from_crawler(crawler, *args, **kwargs):了解
28 You probably won’t need to override this directly  because the default implementation acts as a proxy to the __init__() method, calling it with the given arguments args and named arguments kwargs.
29 
30 #7、start_requests()
31 该方法用来发起第一个Requests请求,且必须返回一个可迭代的对象。它在爬虫程序打开时就被Scrapy调用,Scrapy只调用它一次。
32 默认从start_urls里取出每个url来生成Request(url, dont_filter=True)
33 
34 #针对参数dont_filter,请看自定义去重规则
35 
36 如果你想要改变起始爬取的Requests,你就需要覆盖这个方法,例如你想要起始发送一个POST请求,如下
37 class MySpider(scrapy.Spider):
38     name = 'myspider'
39 
40     def start_requests(self):
41         return [scrapy.FormRequest("http://www.example.com/login",
42                                    formdata={'user': 'john', 'pass': 'secret'},
43                                    callback=self.logged_in)]
44 
45     def logged_in(self, response):
46         # here you would extract links to follow and return Requests for
47         # each of them, with another callback
48         pass
49         
50 #8、parse(response)
51 这是默认的回调函数,所有的回调函数必须返回an iterable of Request and/or dicts or Item objects.
52 
53 #9、log(message[, level, component]):了解
54 Wrapper that sends a log message through the Spider’s logger, kept for backwards compatibility. For more information see Logging from Spiders.
55 
56 #10、closed(reason)
57 爬虫程序结束时自动触发
定制scrapy.spider属性与方法详解
 1 去重规则应该多个爬虫共享的,但凡一个爬虫爬取了,其他都不要爬了,实现方式如下
 2 
 3 #方法一:
 4 1、新增类属性
 5 visited=set() #类属性
 6 
 7 2、回调函数parse方法内:
 8 def parse(self, response):
 9     if response.url in self.visited:
10         return None
11     .......
12 
13     self.visited.add(response.url) 
14 
15 #方法一改进:针对url可能过长,所以我们存放url的hash值
16 def parse(self, response):
17         url=md5(response.request.url)
18     if url in self.visited:
19         return None
20     .......
21 
22     self.visited.add(url) 
23 
24 #方法二:Scrapy自带去重功能
25 配置文件:
26 DUPEFILTER_CLASS = 'scrapy.dupefilter.RFPDupeFilter' #默认的去重规则帮我们去重,去重规则在内存中
27 DUPEFILTER_DEBUG = False
28 JOBDIR = "保存范文记录的日志路径,如:/root/"  # 最终路径为 /root/requests.seen,去重规则放文件中
29 
30 scrapy自带去重规则默认为RFPDupeFilter,只需要我们指定
31 Request(...,dont_filter=False) ,如果dont_filter=True则告诉Scrapy这个URL不参与去重。
32 
33 #方法三:
34 我们也可以仿照RFPDupeFilter自定义去重规则,
35 
36 from scrapy.dupefilter import RFPDupeFilter,看源码,仿照BaseDupeFilter
37 
38 #步骤一:在项目目录下自定义去重文件cumstomdupefilter.py
39 '''
40 if hasattr("MyDupeFilter",from_settings):
41      func = getattr("MyDupeFilter",from_settings)
42         obj = func()
43      else:
44         return MyDupeFilter()
45 '''
46 class MyDupeFilter(object):
47     def __init__(self):
48         self.visited = set()
49 
50     @classmethod
51     def from_settings(cls, settings):
52         '''读取配置文件'''
53         return cls()
54 
55     def request_seen(self, request):
56         '''请求看过没有,这个才是去重规则该调用的方法'''
57         if request.url in  self.visited:
58             return True
59         self.visited.add(request.url)
60 
61     def open(self):  # can return deferred
62         '''打开的时候执行'''
63         pass
64 
65     def close(self, reason):  # can return a deferred
66         pass
67 
68     def log(self, request, spider):  # log that a request has been filtered
69         '''日志记录'''
70         pass
71 
72 #步骤二:配置文件settings.py
73 # DUPEFILTER_CLASS = 'scrapy.dupefilter.RFPDupeFilter'  #默认会去找这个类实现去重
74 #自定义去重规则
75 DUPEFILTER_CLASS = 'AMAZON.cumstomdupefilter.MyDupeFilter'
76 
77 # 源码分析:
78 from scrapy.core.scheduler import Scheduler
79 见Scheduler下的enqueue_request方法:self.df.request_seen(request)
去重规则:去除重复的url
  1 #例一:
  2 import scrapy
  3 
  4 class MySpider(scrapy.Spider):
  5     name = 'example.com'
  6     allowed_domains = ['example.com']
  7     start_urls = [
  8         'http://www.example.com/1.html',
  9         'http://www.example.com/2.html',
 10         'http://www.example.com/3.html',
 11     ]
 12 
 13     def parse(self, response):
 14         self.logger.info('A response from %s just arrived!', response.url)
 15         
 16     
 17 #例二:一个回调函数返回多个Requests和Items
 18 import scrapy
 19 
 20 class MySpider(scrapy.Spider):
 21     name = 'example.com'
 22     allowed_domains = ['example.com']
 23     start_urls = [
 24         'http://www.example.com/1.html',
 25         'http://www.example.com/2.html',
 26         'http://www.example.com/3.html',
 27     ]
 28 
 29     def parse(self, response):
 30         for h3 in response.xpath('//h3').extract():
 31             yield {"title": h3}
 32 
 33         for url in response.xpath('//a/@href').extract():
 34             yield scrapy.Request(url, callback=self.parse)
 35             
 36             
 37 #例三:在start_requests()内直接指定起始爬取的urls,start_urls就没有用了,
 38 
 39 import scrapy
 40 from myproject.items import MyItem
 41 
 42 class MySpider(scrapy.Spider):
 43     name = 'example.com'
 44     allowed_domains = ['example.com']
 45 
 46     def start_requests(self):
 47         yield scrapy.Request('http://www.example.com/1.html', self.parse)
 48         yield scrapy.Request('http://www.example.com/2.html', self.parse)
 49         yield scrapy.Request('http://www.example.com/3.html', self.parse)
 50 
 51     def parse(self, response):
 52         for h3 in response.xpath('//h3').extract():
 53             yield MyItem(title=h3)
 54 
 55         for url in response.xpath('//a/@href').extract():
 56             yield scrapy.Request(url, callback=self.parse)
 57 
 58 
 59 #例四:
 60 # -*- coding: utf-8 -*-
 61 from urllib.parse import urlencode
 62 # from scrapy.dupefilter import RFPDupeFilter
 63 # from AMAZON.items import AmazonItem
 64 from AMAZON.items import AmazonItem
 65 '''
 66 
 67 spiders会循环做下面几件事
 68 1、生成初始请求来爬取第一个urls,并且绑定一个回调函数
 69 2、在回调函数中,解析response并且返回值
 70 3、在回调函数中,解析页面内容(可通过Scrapy自带的Seletors或者BeautifuSoup等)
 71 4、最后、针对返回的Items对象(就是你从返回结果中筛选出来自己想要的数据)将会被持久化到数据库
 72 Spiders总共提供了五种类:
 73     #1、scrapy.spiders.Spider #scrapy.Spider等同于scrapy.spiders.Spider
 74     #2、scrapy.spiders.CrawlSpider
 75     #3、scrapy.spiders.XMLFeedSpider
 76     #4、scrapy.spiders.CSVFeedSpider
 77     #5、scrapy.spiders.SitemapSpider
 78 '''
 79 import scrapy
 80 class AmazonSpider(scrapy.Spider):
 81     def __init__(self,keyword=None,*args,**kwargs):  #在entrypoint文件里面传进来的keyword,在这里接收了
 82         super(AmazonSpider,self).__init__(*args,**kwargs)
 83         self.keyword = keyword
 84 
 85     name = 'amazon'  # 必须唯一
 86     allowed_domains = ['www.amazon.cn']  # 允许域
 87     start_urls = ['http://www.amazon.cn/']  # 如果你没有指定发送的请求地址,会默认使用只一个
 88 
 89     custom_settings = {  # 自定制配置文件,自己设置了用自己的,没有就找父类的
 90         "BOT_NAME": 'HAIYAN_AMAZON',
 91         'REQUSET_HEADERS': {},
 92     }
 93 
 94     def start_requests(self):
 95         url = 'https://www.amazon.cn/s/ref=nb_sb_noss_1/461-4093573-7508641?'
 96         url+=urlencode({"field-keywords":self.keyword})
 97         print(url)
 98         yield  scrapy.Request(
 99             url,
100             callback = self.parse_index,  #指定回调函数
101             dont_filter = True,  #不去重,这个也可以自己定制
102             # dont_filter = False,  #去重,这个也可以自己定制
103             # meta={'a':1}  #meta代理的时候会用
104         )
105         #如果要想测试自定义的dont_filter,可多返回结果重复的即可
106 
107 
108 
109     def parse_index(self, response):
110         '''获取详情页和下一页的链接'''
111         detail_urls = response.xpath('//*[contains(@id,"result_")]/div/div[3]/div[1]/a/@href').extract()
112         print(detail_urls)
113         # print("%s 解析 %s",(response.url,(len(response.body))))
114         for detail_url in detail_urls:
115             yield scrapy.Request(
116                 url=detail_url,
117                 callback=self.parse_detail  #记得每次返回response的时候记得绑定一个回调函数
118             )
119         next_url = response.urljoin(response.xpath(response.xpath('//*[@id="pagnNextLink"]/@href').extract_first()))
120         # 因为下一页的url是不完整的,用urljoin就可以吧路径前缀拿到并且拼接
121         # print(next_url)
122         yield scrapy.Request(
123             url=next_url,
124             callback=self.parse_index   #因为下一页也属于是索引页,让去解析索引页
125         )
126     def parse_detail(self,response):
127         '''详情页解析'''
128         name = response.xpath('//*[@id="productTitle"]/text()').extract_first().strip()#获取name
129         price = response.xpath('//*[@id="price"]//*[@class="a-size-medium a-color-price"]/text()').extract_first()#获取价格
130         delivery_method=''.join(response.xpath('//*[@id="ddmMerchantMessage"]//text()').extract()) #获取配送方式
131         print(name)
132         print(price)
133         print(delivery_method)
134         #上面是筛选出自己想要的项
135         #必须返回一个Item对象,那么这个item对象,是从item.py中来,和django中的model类似,
136         # 但是这里的item对象也可当做是一个字典,和字典的操作一样
137         item = AmazonItem()# 实例化
138         item["name"] = name
139         item["price"] = price
140         item["delivery_method"] = delivery_method
141         return item
142 
143     def close(spider, reason):
144         print("结束啦")
sprider例子
 1 我们可能需要在命令行为爬虫程序传递参数,比如传递初始的url,像这样
 2 #命令行执行
 3 scrapy crawl myspider -a category=electronics
 4 
 5 #在__init__方法中可以接收外部传进来的参数
 6 import scrapy
 7 
 8 class MySpider(scrapy.Spider):
 9     name = 'myspider'
10 
11     def __init__(self, category=None, *args, **kwargs):
12         super(MySpider, self).__init__(*args, **kwargs)
13         self.start_urls = ['http://www.example.com/categories/%s' % category]
14         #...
15 
16         
17 #注意接收的参数全都是字符串,如果想要结构化的数据,你需要用类似json.loads的方法
参数传递

6、其他通用Spiders:https://docs.scrapy.org/en/latest/topics/spiders.html#generic-spiders

六、Selectors

#1 //与/
#2 text
#3、extract与extract_first:从selector对象中解出内容
#4、属性:xpath的属性加前缀@
#4、嵌套查找
#5、设置默认值
#4、按照属性查找
#5、按照属性模糊查找
#6、正则表达式
#7、xpath相对路径
#8、带变量的xpath
 1 response.selector.css()
 2 response.selector.xpath()
 3 可简写为
 4 response.css()
 5 response.xpath()
 6 
 7 #1 //与/
 8 response.xpath('//body/a/')#
 9 response.css('div a::text')
10 
11 >>> response.xpath('//body/a') #开头的//代表从整篇文档中寻找,body之后的/代表body的儿子
12 []
13 >>> response.xpath('//body//a') #开头的//代表从整篇文档中寻找,body之后的//代表body的子子孙孙
14 [<Selector xpath='//body//a' data='<a href="image1.html">Name: My image 1 <'>, <Selector xpath='//body//a' data='<a href="image2.html">Name: My image 2 <'>, <Selector xpath='//body//a' data='<a href="
15 image3.html">Name: My image 3 <'>, <Selector xpath='//body//a' data='<a href="image4.html">Name: My image 4 <'>, <Selector xpath='//body//a' data='<a href="image5.html">Name: My image 5 <'>]
16 
17 #2 text
18 >>> response.xpath('//body//a/text()')
19 >>> response.css('body a::text')
20 
21 #3、extract与extract_first:从selector对象中解出内容
22 >>> response.xpath('//div/a/text()').extract()
23 ['Name: My image 1 ', 'Name: My image 2 ', 'Name: My image 3 ', 'Name: My image 4 ', 'Name: My image 5 ']
24 >>> response.css('div a::text').extract()
25 ['Name: My image 1 ', 'Name: My image 2 ', 'Name: My image 3 ', 'Name: My image 4 ', 'Name: My image 5 ']
26 
27 >>> response.xpath('//div/a/text()').extract_first()
28 'Name: My image 1 '
29 >>> response.css('div a::text').extract_first()
30 'Name: My image 1 '
31 
32 #4、属性:xpath的属性加前缀@
33 >>> response.xpath('//div/a/@href').extract_first()
34 'image1.html'
35 >>> response.css('div a::attr(href)').extract_first()
36 'image1.html'
37 
38 #4、嵌套查找
39 >>> response.xpath('//div').css('a').xpath('@href').extract_first()
40 'image1.html'
41 
42 #5、设置默认值
43 >>> response.xpath('//div[@id="xxx"]').extract_first(default="not found")
44 'not found'
45 
46 #4、按照属性查找
47 response.xpath('//div[@id="images"]/a[@href="image3.html"]/text()').extract()
48 response.css('#images a[@href="image3.html"]/text()').extract()
49 
50 #5、按照属性模糊查找
51 response.xpath('//a[contains(@href,"image")]/@href').extract()
52 response.css('a[href*="image"]::attr(href)').extract()
53 
54 response.xpath('//a[contains(@href,"image")]/img/@src').extract()
55 response.css('a[href*="imag"] img::attr(src)').extract()
56 
57 response.xpath('//*[@href="image1.html"]')
58 response.css('*[href="image1.html"]')
59 
60 #6、正则表达式
61 response.xpath('//a/text()').re(r'Name: (.*)')
62 response.xpath('//a/text()').re_first(r'Name: (.*)')
63 
64 #7、xpath相对路径
65 >>> res=response.xpath('//a[contains(@href,"3")]')[0]
66 >>> res.xpath('img')
67 [<Selector xpath='img' data='<img src="image3_thumb.jpg">'>]
68 >>> res.xpath('./img')
69 [<Selector xpath='./img' data='<img src="image3_thumb.jpg">'>]
70 >>> res.xpath('.//img')
71 [<Selector xpath='.//img' data='<img src="image3_thumb.jpg">'>]
72 >>> res.xpath('//img') #这就是从头开始扫描
73 [<Selector xpath='//img' data='<img src="image1_thumb.jpg">'>, <Selector xpath='//img' data='<img src="image2_thumb.jpg">'>, <Selector xpath='//img' data='<img src="image3_thumb.jpg">'>, <Selector xpa
74 th='//img' data='<img src="image4_thumb.jpg">'>, <Selector xpath='//img' data='<img src="image5_thumb.jpg">'>]
75 
76 #8、带变量的xpath
77 >>> response.xpath('//div[@id=$xxx]/a/text()',xxx='images').extract_first()
78 'Name: My image 1 '
79 >>> response.xpath('//div[count(a)=$yyy]/@id',yyy=5).extract_first() #求有5个a标签的div的id
80 'images'
详细

https://docs.scrapy.org/en/latest/topics/selectors.html

七、Items

https://docs.scrapy.org/en/latest/topics/items.html

八、Item Pipelin

 1 #一:可以写多个Pipeline类
 2 #1、如果优先级高的Pipeline的process_item返回一个值或者None,会自动传给下一个pipline的process_item,
 3 #2、如果只想让第一个Pipeline执行,那得让第一个pipline的process_item抛出异常raise DropItem()
 4 
 5 #3、可以用spider.name == '爬虫名' 来控制哪些爬虫用哪些pipeline
 6 
 7 二:示范
 8 from scrapy.exceptions import DropItem
 9 
10 class CustomPipeline(object):
11     def __init__(self,v):
12         self.value = v
13 
14     @classmethod
15     def from_crawler(cls, crawler):
16         """
17         Scrapy会先通过getattr判断我们是否自定义了from_crawler,有则调它来完
18         成实例化
19         """
20         val = crawler.settings.getint('MMMM')
21         return cls(val)
22 
23     def open_spider(self,spider):
24         """
25         爬虫刚启动时执行一次
26         """
27         print('000000')
28 
29     def close_spider(self,spider):
30         """
31         爬虫关闭时执行一次
32         """
33         print('111111')
34 
35 
36     def process_item(self, item, spider):
37         # 操作并进行持久化
38 
39         # return表示会被后续的pipeline继续处理
40         return item
41 
42         # 表示将item丢弃,不会被后续pipeline处理
43         # raise DropItem()
自定义pipeline
  1 '''
  2 #1、settings.py
  3 HOST="127.0.0.1"
  4 PORT=27017
  5 USER="root"
  6 PWD="123"
  7 DB="amazon"
  8 TABLE="goods"
  9 
 10 '''
 11 from scrapy.exceptions import DropItem
 12 from pymongo import MongoClient
 13 
 14 class MongoPipeline(object):
 15     '''2、把解析好的item对象做一个持久化,保存到数据库中'''
 16     def __init__(self,db,collection,host,port,user,pwd):
 17         self.db = db
 18         self.collection = collection  #文档(表)
 19         self.host = host
 20         self.port = port
 21         self.user = user
 22         self.pwd = pwd
 23 
 24     @classmethod
 25     def from_crawler(cls,crawler):
 26         '''1、Scrapy会先通过getattr判断我们是否自定义了from_crawler,有则调它来完
 27         成实例化'''
 28         db = crawler.settings.get("DB")
 29         collection = crawler.settings.get("COLLECTION")
 30         host = crawler.settings.get("HOST")
 31         port = crawler.settings.get("PORT")
 32         user = crawler.settings.get("USER")
 33         pwd = crawler.settings.get("PWD")
 34         return cls(db,collection,host,port,user,pwd)   #cls是当前的类,类加括号执行__init__方法
 35 
 36     def open_spider(self,spider):
 37         '''3、爬虫刚启动时执行一次'''
 38         print('==============>爬虫程序刚刚启动')
 39         self.client = MongoClient('mongodb://%s:%s@%s:%s'%(
 40             self.user,
 41             self.pwd,
 42             self.host,
 43             self.port
 44         ))
 45 
 46     def close_spider(self,spider):
 47         '''5、关闭爬虫程序'''
 48         print('==============>爬虫程序运行完毕')
 49         self.client.close()
 50 
 51     def process_item(self, item, spider):
 52         '''4、操作并执行持久化'''
 53         # return表示会被后续的pipeline继续处理
 54         d = dict(item)
 55         if all(d.values()):
 56             self.client[self.db][self.collection].save(d)   #保存到数据库
 57         return item
 58         # 表示将item丢弃,不会被后续pipeline处理
 59         # raise DropItem()
 60 
 61 
 62 
 63 class FilePipeline(object):
 64     def __init__(self, file_path):
 65         self.file_path=file_path
 66 
 67     @classmethod
 68     def from_crawler(cls, crawler):
 69         """
 70         Scrapy会先通过getattr判断我们是否自定义了from_crawler,有则调它来完
 71         成实例化
 72         """
 73         file_path = crawler.settings.get('FILE_PATH')
 74 
 75 
 76         return cls(file_path)
 77 
 78     def open_spider(self, spider):
 79         """
 80         爬虫刚启动时执行一次
 81         """
 82         print('==============>爬虫程序刚刚启动')
 83         self.fileobj=open(self.file_path,'w',encoding='utf-8')
 84 
 85     def close_spider(self, spider):
 86         """
 87         爬虫关闭时执行一次
 88         """
 89         print('==============>爬虫程序运行完毕')
 90         self.fileobj.close()
 91 
 92     def process_item(self, item, spider):
 93         # 操作并进行持久化
 94 
 95         # return表示会被后续的pipeline继续处理
 96         d = dict(item)
 97         if all(d.values()):
 98             self.fileobj.write(r"%s\n" %str(d))
 99 
100         return item
101 
102         # 表示将item丢弃,不会被后续pipeline处理
103         # raise DropItem()
示范

https://docs.scrapy.org/en/latest/topics/item-pipeline.html

九、 Dowloader Middeware

下载中间件的用途
    1、在process——request内,自定义下载,不用scrapy的下载
    2、对请求进行二次加工,比如
        设置请求头
        设置cookie
        添加代理
            scrapy自带的代理组件:
                from scrapy.downloadermiddlewares.httpproxy import HttpProxyMiddleware
                from urllib.request import getproxies
 1 class DownMiddleware1(object):
 2     def process_request(self, request, spider):
 3         """
 4         请求需要被下载时,经过所有下载器中间件的process_request调用
 5         :param request: 
 6         :param spider: 
 7         :return:  
 8             None,继续后续中间件去下载;
 9             Response对象,停止process_request的执行,开始执行process_response
10             Request对象,停止中间件的执行,将Request重新调度器
11             raise IgnoreRequest异常,停止process_request的执行,开始执行process_exception
12         """
13         pass
14 
15 
16 
17     def process_response(self, request, response, spider):
18         """
19         spider处理完成,返回时调用
20         :param response:
21         :param result:
22         :param spider:
23         :return: 
24             Response 对象:转交给其他中间件process_response
25             Request 对象:停止中间件,request会被重新调度下载
26             raise IgnoreRequest 异常:调用Request.errback
27         """
28         print('response1')
29         return response
30 
31     def process_exception(self, request, exception, spider):
32         """
33         当下载处理器(download handler)或 process_request() (下载中间件)抛出异常
34         :param response:
35         :param exception:
36         :param spider:
37         :return: 
38             None:继续交给后续中间件处理异常;
39             Response对象:停止后续process_exception方法
40             Request对象:停止中间件,request将会被重新调用下载
41         """
42         return None
下载器中间件
  1 from scrapy import signals
  2 from scrapy.http import Response
  3 from scrapy.exceptions import IgnoreRequest
  4 from AMAZON.proxy_handle import get_proxy,delete_proxy
  5 class AmazonSpiderMiddleware(object):
  6     # Not all methods need to be defined. If a method is not defined,
  7     # scrapy acts as if the spider middleware does not modify the
  8     # passed objects.
  9 
 10     @classmethod
 11     def from_crawler(cls, crawler):
 12         # This method is used by Scrapy to create your spiders.
 13         s = cls()
 14         crawler.signals.connect(s.spider_opened, signal=signals.spider_opened)
 15         return s
 16 
 17     def process_spider_input(self, response, spider):
 18         # Called for each response that goes through the spider
 19         # middleware and into the spider.
 20 
 21         # Should return None or raise an exception.
 22         return None
 23 
 24     def process_spider_output(self, response, result, spider):
 25         # Called with the results returned from the Spider, after
 26         # it has processed the response.
 27 
 28         # Must return an iterable of Request, dict or Item objects.
 29         for i in result:
 30             yield i
 31 
 32     def process_spider_exception(self, response, exception, spider):
 33         # Called when a spider or process_spider_input() method
 34         # (from other spider middleware) raises an exception.
 35 
 36         # Should return either None or an iterable of Response, dict
 37         # or Item objects.
 38         pass
 39 
 40     def process_start_requests(self, start_requests, spider):
 41         # Called with the start requests of the spider, and works
 42         # similarly to the process_spider_output() method, except
 43         # that it doesn’t have a response associated.
 44 
 45         # Must return only requests (not items).
 46         for r in start_requests:
 47             yield r
 48 
 49     def spider_opened(self, spider):
 50         spider.logger.info('Spider opened: %s' % spider.name)
 51 
 52 
 53 class AmazonDownloaderMiddleware(object):
 54     # Not all methods need to be defined. If a method is not defined,
 55     # scrapy acts as if the downloader middleware does not modify the
 56     # passed objects.
 57 
 58     @classmethod
 59     def from_crawler(cls, crawler):
 60         # This method is used by Scrapy to create your spiders.
 61         s = cls()
 62         crawler.signals.connect(s.spider_opened, signal=signals.spider_opened)
 63         return s
 64 
 65     def process_request(self, request, spider):
 66         # Called for each request that goes through the downloader
 67         # middleware.
 68 
 69         # Must either:
 70         # - return None: continue processing this request
 71         # - or return a Response object
 72         # - or return a Request object
 73         # - or raise IgnoreRequest: process_exception() methods of
 74         #   installed downloader middleware will be called
 75         return None
 76 
 77     def process_response(self, request, response, spider):
 78         # Called with the response returned from the downloader.
 79 
 80         # Must either;
 81         # - return a Response object
 82         # - return a Request object
 83         # - or raise IgnoreRequest
 84         return response
 85 
 86     def process_exception(self, request, exception, spider):
 87         # Called when a download handler or a process_request()
 88         # (from other downloader middleware) raises an exception.
 89 
 90         # Must either:
 91         # - return None: continue processing this exception
 92         # - return a Response object: stops process_exception() chain
 93         # - return a Request object: stops process_exception() chain
 94         pass
 95 
 96     def spider_opened(self, spider):
 97         spider.logger.info('Spider opened: %s' % spider.name)
 98 
 99 class DownMiddleware1(object):
100     def process_request(self, request, spider):
101         """
102         请求需要被下载时,经过所有下载器中间件的process_request调用
103         :param request:
104         :param spider:
105         :return:
106             None,继续后续中间件去下载;
107             Response对象,停止process_request的执行,开始执行process_response,会先打印response2,后打印response1
108             Request对象,停止中间件的执行,将Request重新调度器(无论在那个阶段,只要返回request,就丢给引擎了。)
109             raise IgnoreRequest异常,停止process_request的执行,开始执行process_exception
110         """
111         # spider.name
112         print('下载中间件1')
113         # request.meta['proxy']='http://user:pwd@ip:port'
114         request.meta['download_timeout']=10  #设置超时时间
115         request.meta['proxy']='http://'+get_proxy()  #request.meta加代理,注意这里的key必须叫proxy
116         print(request.meta)
117         # return Response('http://www.xxx.com')
118         # print(request.dont_filter)
119         # return request
120         # raise IgnoreRequest
121         # raise TimeoutError
122 
123     def process_response(self, request, response, spider):
124         """
125         spider处理完成,返回时调用
126         :param response:
127         :param result:
128         :param spider:
129         :return:
130             Response 对象:转交给其他中间件process_response
131             Request 对象:停止中间件,request会被重新调度下载
132             raise IgnoreRequest 异常:调用Request.errback
133         """
134         print('response1')
135         return response
136 
137     def process_exception(self, request, exception, spider):
138         """
139         当下载处理器(download handler)或 process_request() (下载中间件)抛出异常
140         :param response:
141         :param exception:
142         :param spider:
143         :return:
144             None:继续交给后续中间件处理异常;
145             Response对象:停止后续process_exception方法
146             Request对象:停止中间件,request将会被重新调用下载
147         """
148         print('异常1')
149         # return None
150 
151         # 删旧代理 delelte request.meta['proxy']
152         old_proxy=request.meta['proxy'].split("//")[-1]
153         delete_proxy(old_proxy)  #删除就代理,
154 
155         request.meta['proxy']='http://'+get_proxy()  #换新代理
156         return request
配置代理

十、Sider Middlewear

 1 class SpiderMiddleware(object):
 2 
 3     def process_spider_input(self,response, spider):
 4         """
 5         下载完成,执行,然后交给parse处理
 6         :param response: 
 7         :param spider: 
 8         :return: 
 9         """
10         pass
11 
12     def process_spider_output(self,response, result, spider):
13         """
14         spider处理完成,返回时调用
15         :param response:
16         :param result:
17         :param spider:
18         :return: 必须返回包含 Request 或 Item 对象的可迭代对象(iterable)
19         """
20         return result
21 
22     def process_spider_exception(self,response, exception, spider):
23         """
24         异常调用
25         :param response:
26         :param exception:
27         :param spider:
28         :return: None,继续交给后续中间件处理异常;含 Response 或 Item 的可迭代对象(iterable),交给调度器或pipeline
29         """
30         return None
31 
32 
33     def process_start_requests(self,start_requests, spider):
34         """
35         爬虫启动时调用
36         :param start_requests:
37         :param spider:
38         :return: 包含 Request 对象的可迭代对象
39         """
40         return start_requests
爬虫中间件

十一、自定义扩展

自定义扩展(与django的信号类似)
    1、django的信号是django是预留的扩展,信号一旦被触发,相应的功能就会执行
    2、scrapy自定义扩展的好处是可以在任意我们想要的位置添加功能,而其他组件中提供的功能只能在规定的位置执行
 1 #1、在与settings同级目录下新建一个文件,文件名可以为extentions.py,内容如下
 2 from scrapy import signals
 3 
 4 
 5 class MyExtension(object):
 6     def __init__(self, value):
 7         self.value = value
 8 
 9     @classmethod
10     def from_crawler(cls, crawler):
11         val = crawler.settings.getint('MMMM')
12         obj = cls(val)
13 
14         crawler.signals.connect(obj.spider_opened, signal=signals.spider_opened)
15         crawler.signals.connect(obj.spider_closed, signal=signals.spider_closed)
16 
17         return obj
18 
19     def spider_opened(self, spider):
20         print('=============>open')
21 
22     def spider_closed(self, spider):
23         print('=============>close')
24 
25 #2、配置生效
26 EXTENSIONS = {
27     "Amazon.extentions.MyExtension":200
28 }
View Code

十二、setitings.py

  1 #==>第一部分:基本配置<===
  2 #1、项目名称,默认的USER_AGENT由它来构成,也作为日志记录的日志名
  3 BOT_NAME = 'Amazon'
  4 
  5 #2、爬虫应用路径
  6 SPIDER_MODULES = ['Amazon.spiders']
  7 NEWSPIDER_MODULE = 'Amazon.spiders'
  8 
  9 #3、客户端User-Agent请求头
 10 #USER_AGENT = 'Amazon (+http://www.yourdomain.com)'
 11 
 12 #4、是否遵循爬虫协议
 13 # Obey robots.txt rules
 14 ROBOTSTXT_OBEY = False
 15 
 16 #5、是否支持cookie,cookiejar进行操作cookie,默认开启
 17 #COOKIES_ENABLED = False
 18 
 19 #6、Telnet用于查看当前爬虫的信息,操作爬虫等...使用telnet ip port ,然后通过命令操作
 20 #TELNETCONSOLE_ENABLED = False
 21 #TELNETCONSOLE_HOST = '127.0.0.1'
 22 #TELNETCONSOLE_PORT = [6023,]
 23 
 24 #7、Scrapy发送HTTP请求默认使用的请求头
 25 #DEFAULT_REQUEST_HEADERS = {
 26 #   'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
 27 #   'Accept-Language': 'en',
 28 #}
 29 
 30 
 31 
 32 #===>第二部分:并发与延迟<===
 33 #1、下载器总共最大处理的并发请求数,默认值16
 34 #CONCURRENT_REQUESTS = 32
 35 
 36 #2、每个域名能够被执行的最大并发请求数目,默认值8
 37 #CONCURRENT_REQUESTS_PER_DOMAIN = 16
 38 
 39 #3、能够被单个IP处理的并发请求数,默认值0,代表无限制,需要注意两点
 40 #I、如果不为零,那CONCURRENT_REQUESTS_PER_DOMAIN将被忽略,即并发数的限制是按照每个IP来计算,而不是每个域名
 41 #II、该设置也影响DOWNLOAD_DELAY,如果该值不为零,那么DOWNLOAD_DELAY下载延迟是限制每个IP而不是每个域
 42 #CONCURRENT_REQUESTS_PER_IP = 16
 43 
 44 #4、如果没有开启智能限速,这个值就代表一个规定死的值,代表对同一网址延迟请求的秒数
 45 #DOWNLOAD_DELAY = 3
 46 
 47 
 48 
 49 #===>第三部分:智能限速/自动节流:AutoThrottle extension<===
 50 #一:介绍
 51 from scrapy.contrib.throttle import AutoThrottle #http://scrapy.readthedocs.io/en/latest/topics/autothrottle.html#topics-autothrottle
 52 设置目标:
 53 1、比使用默认的下载延迟对站点更好
 54 2、自动调整scrapy到最佳的爬取速度,所以用户无需自己调整下载延迟到最佳状态。用户只需要定义允许最大并发的请求,剩下的事情由该扩展组件自动完成
 55 
 56 
 57 #二:如何实现?
 58 在Scrapy中,下载延迟是通过计算建立TCP连接到接收到HTTP包头(header)之间的时间来测量的。
 59 注意,由于Scrapy可能在忙着处理spider的回调函数或者无法下载,因此在合作的多任务环境下准确测量这些延迟是十分苦难的。 不过,这些延迟仍然是对Scrapy(甚至是服务器)繁忙程度的合理测量,而这扩展就是以此为前提进行编写的。
 60 
 61 
 62 #三:限速算法
 63 自动限速算法基于以下规则调整下载延迟
 64 #1、spiders开始时的下载延迟是基于AUTOTHROTTLE_START_DELAY的值
 65 #2、当收到一个response,对目标站点的下载延迟=收到响应的延迟时间/AUTOTHROTTLE_TARGET_CONCURRENCY
 66 #3、下一次请求的下载延迟就被设置成:对目标站点下载延迟时间和过去的下载延迟时间的平均值
 67 #4、没有达到200个response则不允许降低延迟
 68 #5、下载延迟不能变的比DOWNLOAD_DELAY更低或者比AUTOTHROTTLE_MAX_DELAY更高
 69 
 70 #四:配置使用
 71 #开启True,默认False
 72 AUTOTHROTTLE_ENABLED = True
 73 #起始的延迟
 74 AUTOTHROTTLE_START_DELAY = 5
 75 #最小延迟
 76 DOWNLOAD_DELAY = 3
 77 #最大延迟
 78 AUTOTHROTTLE_MAX_DELAY = 10
 79 #每秒并发请求数的平均值,不能高于 CONCURRENT_REQUESTS_PER_DOMAIN或CONCURRENT_REQUESTS_PER_IP,调高了则吞吐量增大强奸目标站点,调低了则对目标站点更加”礼貌“
 80 #每个特定的时间点,scrapy并发请求的数目都可能高于或低于该值,这是爬虫视图达到的建议值而不是硬限制
 81 AUTOTHROTTLE_TARGET_CONCURRENCY = 16.0
 82 #调试
 83 AUTOTHROTTLE_DEBUG = True
 84 CONCURRENT_REQUESTS_PER_DOMAIN = 16
 85 CONCURRENT_REQUESTS_PER_IP = 16
 86 
 87 
 88 
 89 #===>第四部分:爬取深度与爬取方式<===
 90 #1、爬虫允许的最大深度,可以通过meta查看当前深度;0表示无深度
 91 # DEPTH_LIMIT = 3
 92 
 93 #2、爬取时,0表示深度优先Lifo(默认);1表示广度优先FiFo
 94 
 95 # 后进先出,深度优先
 96 # DEPTH_PRIORITY = 0
 97 # SCHEDULER_DISK_QUEUE = 'scrapy.squeue.PickleLifoDiskQueue'
 98 # SCHEDULER_MEMORY_QUEUE = 'scrapy.squeue.LifoMemoryQueue'
 99 # 先进先出,广度优先
100 
101 # DEPTH_PRIORITY = 1
102 # SCHEDULER_DISK_QUEUE = 'scrapy.squeue.PickleFifoDiskQueue'
103 # SCHEDULER_MEMORY_QUEUE = 'scrapy.squeue.FifoMemoryQueue'
104 
105 
106 #3、调度器队列
107 # SCHEDULER = 'scrapy.core.scheduler.Scheduler'
108 # from scrapy.core.scheduler import Scheduler
109 
110 #4、访问URL去重
111 # DUPEFILTER_CLASS = 'step8_king.duplication.RepeatUrl'
112 
113 
114 
115 #===>第五部分:中间件、Pipelines、扩展<===
116 #1、Enable or disable spider middlewares
117 # See http://scrapy.readthedocs.org/en/latest/topics/spider-middleware.html
118 #SPIDER_MIDDLEWARES = {
119 #    'Amazon.middlewares.AmazonSpiderMiddleware': 543,
120 #}
121 
122 #2、Enable or disable downloader middlewares
123 # See http://scrapy.readthedocs.org/en/latest/topics/downloader-middleware.html
124 DOWNLOADER_MIDDLEWARES = {
125    # 'Amazon.middlewares.DownMiddleware1': 543,
126 }
127 
128 #3、Enable or disable extensions
129 # See http://scrapy.readthedocs.org/en/latest/topics/extensions.html
130 #EXTENSIONS = {
131 #    'scrapy.extensions.telnet.TelnetConsole': None,
132 #}
133 
134 #4、Configure item pipelines
135 # See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html
136 ITEM_PIPELINES = {
137    # 'Amazon.pipelines.CustomPipeline': 200,
138 }
139 
140 
141 
142 #===>第六部分:缓存<===
143 """
144 1. 启用缓存
145     目的用于将已经发送的请求或相应缓存下来,以便以后使用
146     
147     from scrapy.downloadermiddlewares.httpcache import HttpCacheMiddleware
148     from scrapy.extensions.httpcache import DummyPolicy
149     from scrapy.extensions.httpcache import FilesystemCacheStorage
150 """
151 # 是否启用缓存策略
152 # HTTPCACHE_ENABLED = True
153 
154 # 缓存策略:所有请求均缓存,下次在请求直接访问原来的缓存即可
155 # HTTPCACHE_POLICY = "scrapy.extensions.httpcache.DummyPolicy"
156 # 缓存策略:根据Http响应头:Cache-Control、Last-Modified 等进行缓存的策略
157 # HTTPCACHE_POLICY = "scrapy.extensions.httpcache.RFC2616Policy"
158 
159 # 缓存超时时间
160 # HTTPCACHE_EXPIRATION_SECS = 0
161 
162 # 缓存保存路径
163 # HTTPCACHE_DIR = 'httpcache'
164 
165 # 缓存忽略的Http状态码
166 # HTTPCACHE_IGNORE_HTTP_CODES = []
167 
168 # 缓存存储的插件
169 # HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'
settings.py

十四、setitings.py

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from redis import Redis
from ..items import YinghuaComicItem
import hashlib


class ComicSpider(CrawlSpider):
    name = 'comic'
    # allowed_domains = ['www.xxx.com']   这行要注释掉
    start_urls = ['http://www.imomoe.tv/search.asp?page=1&searchword=%BE%E7%B3%A1&searchtype=-1']
    # LinkExtractor 是链接提取器,作用是用来提取起始url对应页面中的符合要求的链接。
    # Link 中写的是正则表达式,来匹配当前页面中的显示的所有页码中的数据,举个例子:当前页是首页,但是下边
    # 有分页,每页都能展示8页,此时就会定位到这8页(前提是follow=False),然后再根据对应的xpath解析来爬取自己需要的数据。
    Link1 = r'.*page=\d+&searchword=%BE%E7%B3%A1&searchtype=-1$'
    Link2 = r'/.*?search.asp?searchword=%be%e7%b3%a1$'
    rules = (
        # Rule 是规则解析器,是将链接提取器提取到的链接对应的页码数据源根据需求进行解析
        Rule(LinkExtractor(allow=Link1), callback='parse_item',
             # follow = True 就会爬取从当前页到之后所有页码中的数据
             follow=True),
        Rule(LinkExtractor(allow=Link2), callback='parse_item',
             # follow = False 就会爬去到当前页中所展示的那些页码中的数据。
             follow=False),

    )
    # 我们要将数据存到redis,创建一个Redis链接对象
    conn = Redis(host='127.0.0.1', port=6379)

    def parse_item(self, response):
        # print(response)
        li_list = response.xpath('//*[@id="contrainer"]/div[3]/div[3]/ul/li')
        for li in li_list:
            # 实例化一个item对象,目的是为了使用管道做持久化存储,因为管道只能解析item的对象。
            # item的对象是一个字典
            item = YinghuaComicItem()
            # 对item中的字段进行解析
            item['title'] = li.xpath('./h2/a/@title').extract_first()
            item['link'] = li.xpath('./h2/a/@href').extract_first()

            # 将解析到的数据值生成一个唯一的标识进行redis存储,用来进行增量式爬取时做判断。
            source = item['title'] + item['link']
            source_id = hashlib.sha256(source.encode()).hexdigest()

            # 将解析内容的唯一标识存到redis的data_id中
            ex = self.conn.sadd('data_id', source_id)

            # 因为在redis中通过sadd添加时,如果该数据没在redis中存过就会返回一个1,如果在redis中有就会返回0,这样就能
            # 通过此方法来实现去重效果,实现增量式爬取。
            if ex == 1:
                print('该数据是新数据,可以啪啪啪')
                # 将新爬取到的数据提交到管道pipelines,进行持久化存储
                yield item
            else:
                print('该数据已经被爬过了')
spider文件中的代码
import scrapy


class YinghuaComicItem(scrapy.Item):
    # define the fields for your item here like:
    title = scrapy.Field()
    link = scrapy.Field()
item.py
from redis import Redis
import json


class YinghuaComicPipeline(object):
    conn = None

    # open_spider 是用来与数据库进行连接的,我们这里连接的是redis。
    def open_spider(self, spider):
        # 指明要连接的redis的地址和端口号.
        self.conn = Redis(host='127.0.0.1', port=6379)

    # 接收spider文件传送过来的数据,设置一种存储格式
    def process_item(self, item, spider):
        dic = {
            'title': item['title'],
            'link': item['link']
        }
        # 通过lpush 将设置好的数据结构存入YingHua_Comic。lpush(key,value),
        # redis 中只能存5种数据类型,str  list   set  hash  zset(有序集合)
        self.conn.lpush('YingHua_Comic', json.dumps(dic))

        return item
pipelines.py 管道文件

 

posted @ 2019-01-15 21:42  一根小菜  阅读(451)  评论(0编辑  收藏  举报
Your browser does not support the Canvas element.