2016年4月24日

摘要: 我还曾有这样一段代码的经历: 物流部门发出去的包裹都带有跟踪号,那么我们需要定时的查询这些包裹的投递情况,从而影响客户服务的进程。 首先将数据库中存有的跟踪号取出,依次放在物流跟踪网站查询,返回结果和数据库原有结果对比,有更新即完成数据更新。 Python版本:2.7.11, 代码记录: 这里面主要 阅读全文
posted @ 2016-04-24 09:32 NormalProgrammer 阅读(373) 评论(0) 推荐(0) 编辑

2016年4月21日

摘要: 留作纪念!python第一次让我感到兴奋!第一次感受到什么叫科技就是生产力! 还有很多不足的地方,继续学习! python 版本:3.5.1 All I want say: It is just like a kind of magic! 阅读全文
posted @ 2016-04-21 21:44 NormalProgrammer 阅读(595) 评论(0) 推荐(0) 编辑

2016年4月20日

摘要: 我在深圳的一家跨境电商公司中从事Aliexpress项目经理时,曾苦于站内流量的匮乏,而培养爆款是需要相对长期的运营同时需要公司多方的协助。在这种情况下便想方设法可以从站内搜索中获得更多的流量,便有了这个站内SEO的辅助工具,最早的版本是一个python脚本,现在我用scrapy实现了就先把它记录下 阅读全文
posted @ 2016-04-20 19:59 NormalProgrammer 阅读(567) 评论(0) 推荐(0) 编辑
摘要: 由上一节中爬虫程序已经在scrapy中定义完成,我们准备生成app。 目前生成app的软件颇多,这里我们需要以数据库驱动,选择了appery.io。 1. 生成数据库 注册完成之后,先在database选项卡中添加一行新用户,名为root。随后添加新的数据库名为scrapy和新的collection 阅读全文
posted @ 2016-04-20 12:30 NormalProgrammer 阅读(536) 评论(0) 推荐(0) 编辑
摘要: 先记录下我用scrapy做的一个小例子。 使用的软件版本:python 2.7.11, scrapy 1.0.5 1. Scrapy通常所使用操作过程:UR2IM 即URL, Request, Response, Items, More URLs。 可以用下面这张图简单的解释: 从最初的一个URL发 阅读全文
posted @ 2016-04-20 00:12 NormalProgrammer 阅读(316) 评论(0) 推荐(0) 编辑

导航