会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Phil Chow
心有猛虎,细嗅蔷薇
博客园
首页
新随笔
联系
订阅
管理
2015年12月7日
Scrapy 爬虫之知乎互联网精华问题
摘要: 首先新建一个Scrapy项目,如果不知道项目怎么建的,请看前面爬取豆瓣TOP电影那篇文章。 目录结构如下: 因为我只是爬取问题,所以item里面只有一个title项,直接上zhihu_spider.py代码: 然后从apart.txt文件里面取出这些问题,将这些问题分词,对分出的词计数。 此处用到两
阅读全文
posted @ 2015-12-07 21:55 phil_chow
阅读(218)
评论(0)
推荐(0)
编辑
公告