[Python] Scrapy爬虫框架入门
说明:
本文主要学习Scrapy框架入门,介绍如何使用Scrapy框架爬取页面信息。
项目案例:爬取腾讯招聘页面 https://hr.tencent.com/position.php?&start=
开发环境:win10、Python3.5、Scrapy1.5
一、安装
》pip install scrapy
//如果安装不成功,可以参考 https://blog.csdn.net/dapenghehe/article/details/51548079
//或下载安装twisted
二、创建项目(scrapy startproject)
1、在开始爬取之前,必须创建一个新的Scrapy项目。进入相应目录,运行下列命令(tencent为项目名称):
》scrapy startproject tencentSpider
2、进入项目目录(tencentSpider)
项目目录结构如下:
scrapy.cfg:项目的配置文件。
tencentSpider/:项目的Python模块,将会从这里引用代码。
tencentSpider/spiders/:存储爬虫代码目录(爬虫文件主要在此编辑)。
tencentSpider/items.py:项目的目标文件。
tencentSpider/middlewares.py:项目中间件。
tencentSpider/pipelines.py:项目管道文件。
tencentSpider/setting:项目的设置文件。
到此,项目基本创建完成,接下来就是编写爬虫代码了。
三、明确目标(tencentSpider/items.py)
明确需要爬取的网址以及需要的信息,在 items.py 中定义需要爬取的信息字段。
本项目主要爬取:https://hr.tencent.com/position.php?&start= 网站里的职称、详情地址、类别、人数、地点和发布时间。
1、打开 tencentSpider 目录下的 items.py。
2、Item 定义结构化数据字段,用来保存爬取到的数据,类似于Python的字典,但是提供一些额外的的保护减少错误。
3、可以通过创建一个 scrapy.Item 类,并且定义类型为 scrapy.Field 的类属性来定义一个Item(可以理解成类似于ORM的映射关系)。
4、接下来,创建一个 TencentspiderItem 类,和构建item模型(model)。
items.py代码如下:
1 # -*- coding: utf-8 -*- 2 3 # Define here the models for your scraped items 4 # 5 # See documentation in: 6 # https://doc.scrapy.org/en/latest/topics/items.html 7 8 import scrapy 9 10 11 class TencentspiderItem(scrapy.Item): 12 # define the fields for your item here like: 13 # name = scrapy.Field() 14 15 # 职称 16 title = scrapy.Field() 17 # 详情地址 18 link = scrapy.Field() 19 # 类别 20 cate = scrapy.Field() 21 # 人数 22 num = scrapy.Field() 23 # 地点 24 address = scrapy.Field() 25 # 发布时间 26 date = scrapy.Field()
四、制作爬虫(spiders/tencentSpider.py)
1、爬取数据
① 在 与 scrapy.cfg 同级目录下执行如下命令,将会在 tencentSpider/spiders 目录下创建一个名为 tencent 的爬虫,并制定爬取的域范围(或手动创建文件,基本代码格式如下所示):
》scrapy genspider tencent "hr.tencent.com"
② 打开 tencentSpider/spiders 目录下的 tencent.py ,默认的代码如下:
1 # -*- coding: utf-8 -*- 2 import scrapy 3 4 5 class TencentSpider(scrapy.Spider): 6 name = 'tencent' 7 allowed_domains = ['hr.tencent.com'] 8 start_urls = ['http://hr.tencent.com/'] 9 10 def parse(self, response): 11 pass
③ 编写爬虫文件,基本思路:构造分页url,解析内容(xpath),管道文件处理:
1 # -*- coding: utf-8 -*- 2 import scrapy 3 from tencentSpider.items import TencentspiderItem 4 5 6 class TencentSpider(scrapy.Spider): 7 # 爬虫的名字 8 name = 'tencent' 9 allowed_domains = ["hr.tencent.com"] 10 11 # 拼接 URL 12 url = "https://hr.tencent.com/position.php?&start=" 13 offset = 0 14 15 # 首次爬取入口URL 16 start_urls = [url + str(offset)] 17 18 def parse(self, response): 19 info_ls = response.xpath('//tr[contains(@class, "odd")] | //tr[contains(@class, "even")]') 20 21 # 原始地址 22 origin_url = "https://hr.tencent.com/" 23 24 for each in info_ls: 25 # 初始化模型对象 26 item = TencentspiderItem() 27 28 # 职称 29 title = each.xpath("./td/a/text()")[0].extract() 30 # 详情地址 31 link = origin_url + each.xpath("./td/a/@href")[0].extract() 32 # 职位分类 33 cate = each.xpath('./td[2]/text()')[0].extract() 34 # 人数 35 num = each.xpath('./td[3]/text()')[0].extract() 36 # 所在地址 37 address = each.xpath('./td[4]/text()')[0].extract() 38 # 发布时间 39 date = each.xpath('./td[5]/text()')[0].extract() 40 41 item['title'] = title 42 item['link'] = link 43 item['cate'] = cate 44 item['num'] = num 45 item['address'] = address 46 item['date'] = date 47 48 # 交给管道 pipelines 处理 49 yield item 50 51 # 循环遍历分页,这里只爬取 100 条 52 if self.offset < 100: 53 self.offset += 10 54 55 # 每次处理完一页的数据之后, 重新发送下一页的页面请求 56 yield scrapy.Request(self.url + str(self.offset), callback=self.parse) 57 else: 58 print("[ALL_END:爬虫结束]")
④ 修改配置文件(settings.py),部分:
需要修改的主要有如下三处:
1 # 是否遵守 robot 协议,本项目为False 2 ROBOTSTXT_OBEY = False 3 4 5 # 请求头 6 DEFAULT_REQUEST_HEADERS = { 7 'User-Agent': 'Mozilla/5.0 (compatible; MSIE 9.0; Window NT 6.1; Trident/5.0;)', 8 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', 9 # 'Accept-Language': 'en', 10 } 11 12 # 配置管道文件 13 ITEM_PIPELINES = { 14 'tencentSpider.pipelines.TencentspiderPipeline': 300, 15 }
⑤ 编写管道文件 pipelines.py:
这里的管道文件主要把数据以json格式保存在文件中:
1 # -*- coding: utf-8 -*- 2 3 # Define your item pipelines here 4 # 5 # Don't forget to add your pipeline to the ITEM_PIPELINES setting 6 # See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html 7 import json 8 9 class TencentspiderPipeline(object): 10 def __init__(self): 11 self.save_path = open("res_info.json", "w", encoding="utf8") 12 self.save_path.write("[") 13 14 def process_item(self, item, spider): 15 # 处理每页的数据,并写入文件 16 json_text = json.dumps(dict(item), ensure_ascii=False) + ", \n" 17 self.save_path.write(json_text) 18 19 return item 20 21 def close_spider(self, spider): 22 self.save_path.write("{}]") 23 self.save_path.close()
⑥ 运行爬虫:
》scrapy crawl tencent
⑦ 查看结果,打开数据文件 res_info.json: