Python爬虫Scrapy框架之请求传参合日志等级

一 请求传参

在某种情况下,我们要爬取的数据会在不同的页面中。例如:我们爬取一个电影的网站时,电影的评分和名称在第一个页面中,而要爬取的电影详情在其的子页面中。这时我们就需要动态传参来实现。

需求: 爬取https://www.4567tv.tv/frim/index1.html中的电影名和导演名称

# -*- coding: utf-8 -*-
import scrapy
from moviePro.items import MovieproItem
#请求传参  重点*****

#item不能是全局的
class MovieSpider(scrapy.Spider):
    name = 'movie'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['https://www.4567tv.tv/frim/index1.html']

    #模拟parse来写
    def parse_detail(self,response):
        #通过response 来获取回调函数传递过来的item
        item = response.meta['item']
        actor = response.xpath('/html/body/div[1]/div/div/div/div[2]/p[3]/a/text()').extract_first()
        item['actor'] =actor

        #提交item
        yield item

    #item 写在这 因为parse中的request 才能实现请求传参
    def parse(self, response):

        li_list = response.xpath('//li[@class="col-md-6 col-sm-4 col-xs-3"]')
        for li in li_list:
            item = MovieproItem()
            name = li.xpath('./div/a/@title').extract_first()
            detail_url = 'https://www.4567tv.tv'+li.xpath('./div/a/@href').extract_first()
            #发送的为get请求  callback 是一个回调函数
            item['name']=name
            #meta是一个字典类型 将item传递给回调函数的response参数(也就是回调方法)  请求传参
            yield scrapy.Request(url=detail_url,callback=self.parse_detail,meta={'item':item})

items文件
import scrapy


class MovieproItem(scrapy.Item):
    # define the fields for your item here like:
    name = scrapy.Field()
    actor = scrapy.Field()
二 Scrapy中的日志等级

在使用scrap crawl filename运行程序时,在终端打印输入的就是Scrapy日志信息

日志信息的种类:

​ ERROR:一般错误

​ WARIING:警告

​ INFO:一般信息

​ DEBUG:调试信息

设置日志指定输入:

在settings.py配置文件中,加入:

LOG_LEVEL ='指定日志信息的种类即可'

LOG_FILE = 'log.txt'表示的是将日志信息写入到指定的文件中进行存储

如何提高Scrapy的爬取效率:

增加并发:
    默认scrapy开启的并发线程为32个,可以适当进行增加。在settings配置文件中修改CONCURRENT_REQUESTS = 100值为100,并发设置成了为100

降低日志等级
    在运行scrapy时,会有大量日志信息的输出,为了减少CPU的使用率。可以设置log输出信息为INFO或者ERROR即可。在配置文件中编写:LOG_LEVEL = ‘INFO’

禁止cookie:
     如果不是真的需要cookie,则在scrapy爬取数据时可以进制cookie从而减少CPU的使用率,提升爬取效率。在配置文件中编写:COOKIES_ENABLED = False

禁止重试:
    对失败的HTTP进行重新请求(重试)会减慢爬取速度,因此可以禁止重试。在配置文件中编写:RETRY_ENABLED = False

    
减少下载超时:
    如果对一个非常慢的链接进行爬取,减少下载超时可以能让卡住的链接快速被放弃,从而提升效率。在配置文件中进行编写:DOWNLOAD_TIMEOUT = 10 超时时间为10s
posted @ 2019-03-04 21:44  茉莉花M  阅读(281)  评论(0编辑  收藏  举报