scrapy多个爬虫并行运行
有的时候需要在scrapy工程里面运行多个爬虫,试用了网上两种方法。
运行环境:scrapy:2.3.0 + python3.8
第一种:
# coding:utf-8
from scrapy import cmdline
cmdline.execute("scrapy crawl spider1".split())
cmdline.execute("scrapy crawl spider2".split())
无效,只能运行第一个。
运行多个
1 2 3 4 5 6 7 8 9 10 11 | # -*- coding: utf-8 -*- import scrapy from scrapy import cmdline from scrapy.crawler import CrawlerProcess from scrapy.utils.project import get_project_settings process = CrawlerProcess(get_project_settings()) process.crawl( "gov_mof_tuwenzhibo" ) # scrapy项目中spider的name值 process.crawl( "gov_mof_caizhengxinwen" ) # scrapy项目中spider的name值 process.start() |
特别说明:
1 | from scrapy.utils.project import get_project_settings 这个为scrapy自带的,非自建的,直接引用即可;<br><br><br> |
参考:
[python - Running Multiple spiders in scrapy for 1 website in parallel? - Stack Overflow](https://stackoverflow.com/questions/39365131/running-multiple-spiders-in-scrapy-for-1-website-in-parallel)
[backtest/spider_runner.py at e5e7af64fac54fdd57033deaae8650461442e4b7 · futurecoming/backtest](https://github.com/futurecoming/backtest/blob/e5e7af64fac54fdd57033deaae8650461442e4b7/utils/spider_runner.py)
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· winform 绘制太阳,地球,月球 运作规律
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
2021-06-20 flask修改静态资源后缓存文件不能及时更改问题解决