摘要: 最近要部署分布式爬虫用来提高效率,但是发现配置环境太耗时间了,于是想到了docker神器,docker可以简单理解成环境配置中的git,docker安装就不介绍了 这里以创建一个scrapydweb为例来讲解docker使用 一、创建一个文件夹scrapydweb,里面放下面三个文件 1.1、创建D 阅读全文
posted @ 2020-05-18 16:22 liuxianglong 阅读(1908) 评论(0) 推荐(0) 编辑
摘要: ps -ef | grep scrapydweb kill -9 pid (上面指令的结果中的第二列数字) 阅读全文
posted @ 2020-05-18 15:23 liuxianglong 阅读(1490) 评论(0) 推荐(0) 编辑