crawlSpider

crawlSpider 作用于网站上有下一页和上一页的标签的内容,然后规则相同的网站进行爬取的效果

  启动命令 :

    1、创建项目文件

      scrapy startproject 项目名称

    2、cd 项目文件

    3、创建爬虫

      scrapy genspider -t crawl 爬虫名称 域名

  语句作用:

    1、link = LinkExtractor(allow=r'Items/')

    link是链接提取器,根据一定规则提取某类链接

    allow:表示的就是链接提取器提取链接的规则(这里面的规则是正则表达式)

    2、

    rules = (
      Rule(link, callback='parse_item', follow=False),
        )
   Rule是规则解析器,将链接提取器提取到的链接对应的页面数据进行指定形式的解析
   follow 是让链接提取器 继续作用到链接提取器提取到的链接所对应的页面中
      参数:
        False 不作用
        True 作用
  callback 回调函数,里面写link携带的内容的解析

 其余内容:
  与scrapy内容一致,因为crawlSpider就是Spider的一个子类,所以很多功能都是与Spider是一样的,所以大家熟练使用Spider,上手crawlSpider就很容易了

 

posted on 2019-10-29 08:58  请叫我山楂熊°  阅读(97)  评论(0编辑  收藏  举报

导航