scrapy执行流程

Posted on 2018-04-03 21:47  王将军之武库  阅读(115)  评论(0编辑  收藏  举报
  1. def _next_request_from_scheduler(self, spider): fetch一个request,调用http11 handler,client的agent,返回的是deffered。
  2. _handle_downloader_output()if isinstance(response, Request):如果是请求,继续爬行,调用crawl时会把请求放到调度器
                self.crawl(response, spider)
  3. def enqueue_scrape( 请求入队
  4. def _scrape_next(self, spider, slot):
  5. _scrape2
  6. call_spider
  7. handle_spider_output
  8. _process_spidermw_output
             

Copyright © 2024 王将军之武库
Powered by .NET 9.0 on Kubernetes