Scrapy面试合集

(1)Scrapy爬虫工作流程

ScrapyEngine:引擎

Scheduler:调度器(队列)

Downloader:下载器

DownloaderMiddlewares:可选,主要有User_Agent, Proxy代理

Spiders:爬虫(提取数据、url)

ItemPipeline:管道

需要发送请求的url经过引擎交给调度器,经过调度器排序入队处理后通过引擎、DownloaderMiddlewares交给Downloader,

下载器返回respose给引擎和SpiderMiddlewares(可选),再交给爬虫进行数据、url提取,并将数据经引擎交给保存。

其中爬虫提取的url,会重新经过引擎交给调度器进行下一个循环,直到无url请求程序停止结束。

posted @ 2021-04-14 17:40  Eliphaz  阅读(312)  评论(0编辑  收藏  举报