开始分布式爬虫------(五)

写一个执行项目的py文件,main:

1 from scrapy import cmdline
2 cmdline.execute('scrapy crawl sina_spider'.split())

  将项目复制一份到Ubantu虚拟机里,Windows和Linux里同时执行项目,你会发现代码执行之后阻塞了,这是因为我们还没有 lpush

start_urls。下面用Linux里面的操作截图说明:

  

  输入上面的代码之后你可以看见Linux和Windows里都开始爬取数据了。

  

 

如果你执行项目时直接报错了,很大的可能是redis连接不上,那么你要将redis.confg里的bind配置为0.0.0.0

 

posted @ 2018-06-06 00:07  巴蜀秀才  阅读(125)  评论(0编辑  收藏  举报