Chen Jian

导航

 

2017年1月13日

摘要: 来自weixin 记得n年前项目需要一个灵活的爬虫工具,就组织了一个小团队用Java实现了一个爬虫框架,可以根据目标网站的结构、地址和需要的内容,做简单的配置开发,即可实现特定网站的爬虫功能。因为要考虑到各种特殊情形,开发还耗了不少人力。后来发现了Python下有这个Scrapy工具,瞬间觉得之前做的事情都白费了。对于一个普通的网络爬虫功能,Scrapy完全胜任,并把很多复杂的编程都包装好了。本... 阅读全文
posted @ 2017-01-13 14:40 Chen Jian 阅读(1735) 评论(0) 推荐(0) 编辑
 
摘要: Most of the time these are dependency-issues. Following the stack-trace of the gcc compiler one can see the missing files. Sometimes installing the Python development packages is not enough. For ... 阅读全文
posted @ 2017-01-13 14:34 Chen Jian 阅读(4534) 评论(0) 推荐(0) 编辑