上一页 1 2 3 4 5 6 7 ··· 11 下一页
摘要: 我们知道无论是oracle,还是mysql,只要对某列分组,就只能查询分组列或者分组函数列,而对于分组后的整体数据单单靠一个分组函数查询不出来。 在以前开发时,使用的是oracle数据库,比如有很多年的数据,根据年限分组,获取每组最大值,在oracle中可以这样实现: select * from ( 阅读全文
posted @ 2019-12-13 08:36 半湖思絮 阅读(152) 评论(0) 推荐(0) 编辑
摘要: 网上找了一大堆的例子,感觉这个比较全,比较细,就是写的比较多,如果想看详细的,请看下面的链接,自动忽略我的: http://www.blogjava.net/bolo/archive/2015/03/20/423683.html 本篇只写手头只有一个eclipse的情况下(maven插件已经装好了) 阅读全文
posted @ 2019-12-13 08:36 半湖思絮 阅读(853) 评论(0) 推荐(0) 编辑
摘要: 代码参考:柳峰的《微信公众平台应用开发++方法、技巧与案例》 public static void main(String args[]) { String url = "https://open.weixin.qq.com/connect/oauth2/authorize?appid=wx4420 阅读全文
posted @ 2019-12-13 08:36 半湖思絮 阅读(163) 评论(0) 推荐(0) 编辑
摘要: /** * 获取开始及结束日期间隔月份列表 * start格式 "2015-01-01" * end格式 "2016-01-01" * @param start * @param end * @return */ public static List<String> getMonths(String 阅读全文
posted @ 2019-12-13 08:36 半湖思絮 阅读(216) 评论(0) 推荐(0) 编辑
摘要: 最近在使用JFinal的框架,之前使用spring框架,直接在配置文件配置下就可以了。所以从网上找了相关例子,整理了一下 1.建一个配置文件job.properties,用作定时配置 job=com.demo.job.JobA cron=* * 2 * * ? enable=true 上面是一个定时 阅读全文
posted @ 2019-12-13 08:36 半湖思絮 阅读(1104) 评论(0) 推荐(0) 编辑
摘要: SELECT * FROM baidu_day_2014_1 WHERE account = 'xxx' UNION ALL SELECT * FROM baidu_day_2014_2 WHERE account = 'xxx' UNION ALL SELECT * FROM baidu_day_ 阅读全文
posted @ 2019-12-13 08:36 半湖思絮 阅读(330) 评论(0) 推荐(0) 编辑
摘要: SELECT * FROM baidu_day_2014_1 WHERE account = 'xxx' UNION ALL SELECT * FROM baidu_day_2014_2 WHERE account = 'xxx' UNION ALL SELECT * FROM baidu_day_ 阅读全文
posted @ 2019-12-13 08:36 半湖思絮 阅读(383) 评论(0) 推荐(0) 编辑
摘要: 1.对查询进行优化,应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引。 2.应尽量避免在 where 子句中使用!=或<>操作符,否则将引擎放弃使用索引而进行全表扫描。 3.应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引 阅读全文
posted @ 2019-12-13 08:36 半湖思絮 阅读(84) 评论(0) 推荐(0) 编辑
摘要: 1.对查询进行优化,应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引。 2.应尽量避免在 where 子句中使用!=或<>操作符,否则将引擎放弃使用索引而进行全表扫描。 3.应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引 阅读全文
posted @ 2019-12-13 08:36 半湖思絮 阅读(76) 评论(0) 推荐(0) 编辑
摘要: 刚接触Spark,很多还都不是太懂,查看了别人写的中文API:Spark中文文档 根据里面的参数写了一个最简单的调用,如果maven已配好的话,可以直接运行 <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core 阅读全文
posted @ 2019-12-13 08:36 半湖思絮 阅读(119) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 11 下一页