Mr_Cxy

导航

2016年12月12日 #

MySQL_杭州北仓 12.3-12.7需求活动期间累计下单达到3天及以上的客户_20161212

摘要: #C025_02杭州北仓 12.3-12.7需求活动期间累计下单达到3天及以上的客户明细 阅读全文

posted @ 2016-12-12 20:39 Mr_Cxy 阅读(381) 评论(0) 推荐(0) 编辑

2016年12月7日 #

Python 2.7_Second_try_爬取阳光电影网_获取电影下载地址并写入文件 20161207

摘要: 1、昨天文章http://www.cnblogs.com/Mr-Cxy/p/6139705.html 是获取电影网站主菜单 然后获取每个菜单下的电影url 2、今天是对电影url 进行再次解析获取下载地址 并写入文件 4、python 代码 阅读全文

posted @ 2016-12-07 22:16 Mr_Cxy 阅读(653) 评论(0) 推荐(0) 编辑

Python 2.7_First_try_爬取阳光电影网_20161206

摘要: 之前看过用Scrapy 框架建立项目爬取 网页解析时候用的Xpath进行解析的网页元素 这次尝试用select方法匹配元素 1、入口爬取页面 http://www.ygdy8.com/index.html 2、用到模块 requests(网页源码下载) BeautifulSoup4(网页解析) 3、 阅读全文

posted @ 2016-12-07 00:19 Mr_Cxy 阅读(805) 评论(0) 推荐(0) 编辑

2016年12月6日 #

MySQL计算销售员昨日各指标综合得分_20161206

摘要: 数据需求如上,新增重激活以15天未下单为界定 阅读全文

posted @ 2016-12-06 21:45 Mr_Cxy 阅读(296) 评论(0) 推荐(0) 编辑

2016年12月5日 #

MySQL_关于用嵌套表计算的可以不用 20161205

摘要: 计算求和类的指标,其实用不到嵌套表,比如计算各城市产品分类的订单额。 如果要计算不重复的指标 比如一个用户一天下了多个订单 用这样的表计算一天有多少用户下单 这个用户肯定是去重的 下多个订单也应该视为一个用户 这个用嵌套表主要是为了逻辑理解清楚 一步步来,如果对数据库表很熟悉的话可以省去嵌套表的步骤 阅读全文

posted @ 2016-12-05 22:03 Mr_Cxy 阅读(474) 评论(0) 推荐(1) 编辑

2016年12月2日 #

MySQL_财务统计各产品品类各城市上周收入毛利表_20161202

摘要: 注:财务需要统计各产品品类各城市上周毛利情况 下面这样的表是沟通后展现的形式。数据展现形式我认为的大都是行列转 列转行的转置 从财务角度这样展现形式比较适合。 由于黄色部分为汇总项目,因此我拆分成9个转换步骤 类似纵向合并 只是汇总和各品类的字段不同无法纵向合并 因此用kettle时候汇总的各自成一 阅读全文

posted @ 2016-12-02 23:07 Mr_Cxy 阅读(756) 评论(0) 推荐(0) 编辑

借助取色工具ColorPix对Pycharm编辑器设定自己喜欢的代码颜色_20161202

摘要: 1、Pycharm编辑器怎么设定自己喜欢的颜色,前几天看爬虫博客,看博主贴出的代码颜色很是喜欢,如下图,设置了好多次找不到他设定的颜色。 2、下班回家想起来之前做表的时候用到过一个取色工具ColorPix可以将鼠标放到喜欢的颜色上取到它的HSB色值。可以在pycharm上设置,工具很小,用起来很方便 阅读全文

posted @ 2016-12-02 22:32 Mr_Cxy 阅读(583) 评论(0) 推荐(0) 编辑

python2.7 爬虫_爬取小说盗墓笔记章节及URL并导入MySQL数据库_20161201

摘要: 1、爬取页面 http://www.quanshu.net/book/9/9055/ 2、用到模块urllib(网页下载),re正则匹配取得title及titleurl,urlparse(拼接完整url),MySQLdb(导入MySQL) 数据库 3、for 循环遍历列表 取得盗墓笔记章节title 阅读全文

posted @ 2016-12-02 00:13 Mr_Cxy 阅读(902) 评论(0) 推荐(0) 编辑

2016年12月1日 #

kettle转换提高性能拆分转换步骤_20161201

摘要: 今天是12月1号,前期用kettle做了月报自动报表的转换和作业,今天运行时候发现一个报表的程序跑起来失败,心里很纳闷,上过月刚跑的没问题,怎么会无缘无故的失败。 通过看kettle运行日志,发现一个错误,c盘left no space 也就是在系统盘上没有足够的空间存储临时表,这时候才考虑到可能是 阅读全文

posted @ 2016-12-01 22:39 Mr_Cxy 阅读(1301) 评论(0) 推荐(0) 编辑

2016年11月30日 #

python2.7 爬虫初体验爬取新浪国内新闻_20161130

摘要: python2.7 爬虫初学习 模块:BeautifulSoup requests 1、获取新浪国内新闻标题 2、获取新闻url 3、还没想好,想法是把第2步的url 获取到下载网页源代码 再去分析源代码 获取新闻详情页 发表时间 新闻来源等数据 结合MySQLdb模块导入到数据库 4、疑惑:期望是 阅读全文

posted @ 2016-11-30 21:53 Mr_Cxy 阅读(270) 评论(0) 推荐(0) 编辑