摘要: 阅读全文
posted @ 2020-01-12 17:13 corei5tj 阅读(5045) 评论(0) 推荐(0) 编辑
摘要: scrapy同时启动多个爬虫 1.在项目里面创建一个commands文件夹 2.在创建好的commands文件夹中创建crawlall.py,并写入下面的内容 3.开启多个爬虫命令 scrapy crawlall 阅读全文
posted @ 2020-01-12 11:41 corei5tj 阅读(81) 评论(0) 推荐(0) 编辑