上一页 1 ··· 24 25 26 27 28 29 30 31 32 ··· 96 下一页
摘要: - 分布式 - 概念:需要搭建一个分布式的机群,然后在机群的每一台电脑中执行同一组程序,让其对某一个网站的数据进行联合分布爬取。 - 原生的scrapy框架是不可以实现分布式? - 因为调度器不可以被共享 - 管道不可以被共享 - 如何实现分布式? - scrapy+scrapy_redis实现分布 阅读全文
posted @ 2020-03-08 12:33 干it的小张 阅读(198) 评论(0) 推荐(0) 编辑
摘要: - 图片懒加载 - 应用到标签的伪属性,数据捕获的时候一定是基于伪属性进行!!!- ImagePileline:专门用作于二进制数据下载和持久化存储的管道类- CrawlSpider - 一种基于scrapy进行全站数据爬取的一种新的技术手段。 - CrawlSpider就是Spider的一个子类 阅读全文
posted @ 2020-03-07 17:26 干it的小张 阅读(308) 评论(1) 推荐(0) 编辑
摘要: 1、创建项目scrapy startproject 爬虫项目名字2、创建虫子scrapy genspider 虫名字3、setting里面加UA伪装4、加LOG_LEVEL级别、ROBOTSTXT_OBEY = False5、虫名字里面爬取网站和解析数据6、item里面增加爬取的数据7、settin 阅读全文
posted @ 2020-03-07 11:39 干it的小张 阅读(329) 评论(1) 推荐(0) 编辑
摘要: huya.py # -*- coding: utf-8 -*-import scrapyfrom huyaPro1.items import Huyapro1Itemclass HuyaSpider(scrapy.Spider): name = 'huya' # allowed_domains = 阅读全文
posted @ 2020-03-07 01:34 干it的小张 阅读(159) 评论(0) 推荐(0) 编辑
摘要: # -*- coding: utf-8 -*-import scrapyfrom huyaAll1.items import Huyaall1Itemclass HuyaSpider(scrapy.Spider): name = 'huya' # allowed_domains = ['www.xx 阅读全文
posted @ 2020-03-07 01:30 干it的小张 阅读(271) 评论(0) 推荐(0) 编辑
上一页 1 ··· 24 25 26 27 28 29 30 31 32 ··· 96 下一页