文章分类 -  scrapyd

摘要:API简介: 1、curl http://127.0.0.1:6800/daemonstatus.json 查看scrapyd的运行状态 2、curl http://127.0.0.1:6800/listprojects.json 查看项目列表 3、curl http://127.0.0.1:680 阅读全文
posted @ 2018-05-27 20:28 巴蜀秀才 阅读(173) 评论(0) 推荐(0) 编辑
摘要:第一步:进入要发布的项目,修改scrapy.cfg文件; 修改[deploy]为[deploy:100],表示把爬虫发布到名为100的爬虫服务器上,一般在需要同时发布爬虫到多个目标 服务器时使用。下面我们取消注释,并将发布的project命名为:DOUYU。 使用命令: scrapyd-deploy 阅读全文
posted @ 2018-05-26 16:23 巴蜀秀才 阅读(149) 评论(0) 推荐(0) 编辑
摘要:安装scrapyd: 1、pip insatll scrapyd 2、从 https://github.com/scrapy/scrapyd 下载,手动安装。解压之后进入文件目录,找到setup.py,使用 sudo python3 setup.py install 安装。 安装scrapyd--d 阅读全文
posted @ 2018-05-26 15:11 巴蜀秀才 阅读(124) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示