(十五) scrapy中selenium的应用
引入
在通过scrapy框架进行某些网站数据爬取的时候,往往会碰到页面动态数据加载的情况发生,如果直接使用scrapy对其url发请求,是绝对获取不到那部分动态加载出来的数据值。但是通过观察我们会发现,通过浏览器进行url请求发送则会加载出对应的动态加载出的数据。那么如果我们想要在scrapy也获取动态加载出的数据,则必须使用selenium创建浏览器对象,然后通过该浏览器对象进行请求发送,获取动态加载的数据值。
今日详情
1.案例分析:
需求:爬取网易新闻的国内板块下的新闻数据
需求分析:当点击国内超链进入国内对应的页面时,会发现当前页面展示的新闻数据是被动态加载出来的,如果直接通过程序对url进行请求,是获取不到动态加载出的新闻数据的。则就需要我们使用selenium实例化一个浏览器对象,在该对象中进行url的请求,获取动态加载的新闻数据。
2.selenium在scrapy中使用的原理分析:
当引擎将国内板块url对应的请求提交给下载器后,下载器进行网页数据的下载,然后将下载到的页面数据,封装到response中,提交给引擎,引擎将response在转交给Spiders。Spiders接受到的response对象中存储的页面数据里是没有动态加载的新闻数据的。要想获取动态加载的新闻数据,则需要在下载中间件中对下载器提交给引擎的response响应对象进行拦截,切对其内部存储的页面数据进行篡改,修改成携带了动态加载出的新闻数据,然后将被篡改的response对象最终交给Spiders进行解析操作。
3.selenium在scrapy中的使用流程:
1, 重写爬虫文件的构造方法,在该方法中使用selenium实例化一个浏览器对象(因为浏览器对象只需要被实例化一次)
2. 重写爬虫文件的closed(self,spider)方法,在其内部关闭浏览器对象。该方法是在爬虫结束时被调用
3. 重写下载中间件的process_response方法,让该方法对响应对象进行拦截,并篡改response中存储的页面数据
4. 在配置文件中开启下载中间件
4.代码展示:
爬虫文件:
class WangyiSpider(RedisSpider): name = 'wangyi' #allowed_domains = ['www.xxxx.com'] start_urls = ['https://news.163.com'] def __init__(self): #实例化一个浏览器对象(实例化一次) self.bro = webdriver.Chrome(executable_path='/Users/bobo/Desktop/chromedriver') #必须在整个爬虫结束后,关闭浏览器 def closed(self,spider): print('爬虫结束') self.bro.quit()
中间件文件:
from scrapy.http import HtmlResponse #参数介绍: #拦截到响应对象(下载器传递给Spider的响应对象) #request:响应对象对应的请求对象 #response:拦截到的响应对象 #spider:爬虫文件中对应的爬虫类的实例 def process_response(self, request, response, spider): #响应对象中存储页面数据的篡改 if request.url in['http://news.163.com/domestic/','http://news.163.com/world/','http://news.163.com/air/','http://war.163.com/']: spider.bro.get(url=request.url) js = 'window.scrollTo(0,document.body.scrollHeight)' spider.bro.execute_script(js) time.sleep(2) #一定要给与浏览器一定的缓冲加载数据的时间 #页面数据就是包含了动态加载出来的新闻数据对应的页面数据 page_text = spider.bro.page_source #篡改响应对象 return HtmlResponse(url=spider.bro.current_url,body=page_text,encoding='utf-8',request=request) else: return response
配置文件:
DOWNLOADER_MIDDLEWARES = { 'wangyiPro.middlewares.WangyiproDownloaderMiddleware': 543, }
案例: 爬取网易新闻中的新闻标题与新闻详情
爬虫文件:
# -*- coding: utf-8 -*- import scrapy from wangyipro.items import WangyiproItem from selenium import webdriver class WangyiSpider(scrapy.Spider): name = 'wangyi' # allowed_domains = ['www.xxx.com'] start_urls = ['https://news.163.com/'] model_urls = [] # 里面放置的是四个版块对应的详情页URL def __init__(self): self.bro = webdriver.Chrome(executable_path=r"C:\Users\Administrator\Desktop\爬虫\day06-爬虫\chromedriver.exe") def news_content_parse(self, response): """ 用来解析新闻详情页的内容, 需要接收一下传递过来的item对象 :param response: :return: """ item = response.meta['item'] # extract()方法获取到的是一个列表,列表里面存的是字符串 content_list = response.xpath('//div[@id="endText"]//text()').extract() item['news_content'] = "".join(content_list) yield item def parse_detail(self, response): """ 用来解析这个版块对应页面的新闻数据, 在这里我们就只爬取新闻的名称 :param response: :return: """ div_list = response.xpath('//div[@class="data_row news_article clearfix "]') for div in div_list: # 当前只解析到了新闻标题,还没有解析到新闻内容 item = WangyiproItem() news_title = div.xpath('./div/div[1]//a/text()').extract_first() news_detail_url = div.xpath('./div/div[1]//a/@href').extract_first() item['news_title'] = news_title # 发送请求,并获取新闻内容, 使用请求传参,将item传递给下一个解析方法 yield scrapy.Request(url=news_detail_url, callback=self.news_content_parse, meta={'item': item}) def parse(self, response): """ 解析四个版块对应的URL 只有在取文本或取属性的时候才可以在xpath中调用extract操作 :param response: :return: """ li_list = response.xpath('//div[@class="ns_area list"]/ul/li') indexs = [3, 4, 6, 7] model_li_list = [] # 此列表放置四个版块对应的li标签 for index in indexs: li = li_list[index] model_li_list.append(li) print(model_li_list) # 解析出四个版块对应的URL for li in model_li_list: model_url = li.xpath('./a/@href').extract_first() self.model_urls.append(model_url) # 接下来对每个版块的URL发起请求, 并获取详情页的页面源码数据 yield scrapy.Request(url=model_url, callback=self.parse_detail)
中间件文件:
# -*- coding: utf-8 -*- # Define here the models for your spider middleware # # See documentation in: # https://doc.scrapy.org/en/latest/topics/spider-middleware.html import time from scrapy import signals from scrapy.http import HtmlResponse class WangyiproDownloaderMiddleware(object): # Not all methods need to be defined. If a method is not defined, # scrapy acts as if the downloader middleware does not modify the # passed objects. def process_request(self, request, spider): return None # 该方法拦截到的是所有的响应对象(需求中要拦截的是部分响应对象) def process_response(self, request, response, spider): """ 找出指定的响应对象进行解析操作 可以根据指定的请求对象定位到指定的响应对象 指定的请求对象可以通过请求的URL进行定位 定位到指定的URL spider.model_urls :param request: :param response: :param spider: :return: """ bro = spider.bro if request.url in spider.model_urls: # 通过指定的URL就定位到了指定的request # 通过指定的requests就可以定位到指定的response(不符合要求的旧响应对象) # 自己手动创建四个符合要求的新响应对象(需要将符合要求的响应数据放置到新的响应对象中) # 使用新的响应对象替换原来原始的响应对象 bro.get(request.url) # 使用浏览器向对应的URL发起请求 time.sleep(2) js = "window.scrollTo(0, document.body.scrollHeight)" bro.execute_script(js) time.sleep(2) page_text = bro.page_source # 页面源码中就包含了动态加载出来的页面数据 # 手动创建一个新的响应对象,将page_text作为响应数据封装到该对象中 # body参数表示的就是响应数据 return HtmlResponse(url=bro.current_url, body=page_text, encoding='utf-8', request=request) return response def process_exception(self, request, exception, spider): pass def spider_opened(self, spider): spider.logger.info('Spider opened: %s' % spider.name)
配置文件:
# -*- coding: utf-8 -*- BOT_NAME = 'wangyipro' SPIDER_MODULES = ['wangyipro.spiders'] NEWSPIDER_MODULE = 'wangyipro.spiders' # Crawl responsibly by identifying yourself (and your website) on the user-agent USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.90 Safari/537.36' # Obey robots.txt rules ROBOTSTXT_OBEY = False # Enable or disable downloader middlewares # See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html DOWNLOADER_MIDDLEWARES = { 'wangyipro.middlewares.WangyiproDownloaderMiddleware': 543, } # Configure item pipelines # See https://doc.scrapy.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = { 'wangyipro.pipelines.WangyiproPipeline': 300, } LOG_LEVEL = 'ERROR'
作业:
1. 爬取网易新闻,对每一条新闻进行关键字的提取和分类,数据持久存储到MySQL中
table(id, title, content, keyword, type) # keyword与type使用百度ai做
作者:TigerLee
出处:http://www.cnblogs.com/tiger666/
本文版权归作者和博客园所有,欢迎转载。转载请在留言板处留言给我,且在文章标明原文链接,谢谢!
如果您觉得本篇博文对您有所收获,觉得我还算用心,请点击右下角的 [推荐],谢谢!