摘要: 案例1 :(增量式爬取)京东全部图书,自己可以扩展 爬取每一本电子书的评论 1.spider: # -*- coding: utf-8 -*- import scrapy from copy import deepcopy import json import urllib class JdSpid 阅读全文
posted @ 2019-04-14 22:48 冰底熊 阅读(964) 评论(0) 推荐(1) 编辑
摘要: 安装scrapy-redis pip install scrapy-redis 从GitHub 上拷贝源码: clone github scrapy-redis源码文件 git clone https://github.com/rolando/scrapy-redis.git scrapy-redi 阅读全文
posted @ 2019-04-14 22:37 冰底熊 阅读(1030) 评论(0) 推荐(0) 编辑
摘要: 由于Django是动态网站,所有每次请求均会去数据进行相应的操作,当程序访问量大时,耗时必然会更加明显, 最简单解决方式是使用:缓存,缓存将一个某个views的返回值保存至内存或者memcache中,5分钟内再有人来访问时, 则不再去执行view中的操作,而是直接从内存或者Redis中之前缓存的内容 阅读全文
posted @ 2019-04-14 11:00 冰底熊 阅读(201) 评论(0) 推荐(0) 编辑