摘要: 确保2点: 1.把爬虫.py复制到spiders文件夹里 如执行scrapy crawl demo ,spiders里面就要有demo.py文件 2.在项目文件夹内执行命令 在scrapy.cfg所在文件夹里执行命令 阅读全文
posted @ 2018-05-18 17:08 心脏咚个不停 阅读(617) 评论(0) 推荐(0) 编辑
摘要: 1.打开cmd命令行工具,输入scrapy startproject 项目名称 2.使用pycharm打开项目,查看项目目录 3.创建爬虫,打开CMD,cd命令进入到爬虫项目文件夹,输入scrapy genspider 爬虫文件名 爬虫基础域名 4.打开pycharm,发现spider目录下多出一个 阅读全文
posted @ 2018-05-18 16:35 心脏咚个不停 阅读(2444) 评论(0) 推荐(0) 编辑
摘要: Scrapy 和 scrapy-redis的区别 Scrapy 是一个通用的爬虫框架,但是不支持分布式,Scrapy-redis是为了更方便地实现Scrapy分布式爬取,而提供了一些以redis为基础的组件(仅有组件)。 pip install scrapy-redis Scrapy-redis提供 阅读全文
posted @ 2018-05-18 15:06 心脏咚个不停 阅读(226) 评论(0) 推荐(0) 编辑