2016年7月18日

梯度下降-Momentum

摘要: 总结: 梯度下降算法中,学习率太大,函数无法收敛,甚至发散,如下图。学习率足够小,理论上是可以达到局部最优值的(非凸函数不能保证达到全局最优),但学习率太小却使得学习过程过于缓慢,合适的学习率应该是能在保证收敛的前提下,能尽快收敛。对于深度网络中,参数众多,参数值初始位置随机,同样大小的学习率,对于 阅读全文

posted @ 2016-07-18 20:51 jungel24 阅读(14128) 评论(0) 推荐(3) 编辑

2016年6月23日

6-10-HIRP OPEN 2016

摘要: 1 HIRPO20160601: Large Scale Heterogeneous Data ProcessingSubject: resource scheduling It is also likely that the computing environment is heterogeneo 阅读全文

posted @ 2016-06-23 15:42 jungel24 阅读(212) 评论(0) 推荐(0) 编辑

2016年6月17日

机器学习数目推荐

摘要: 转:http://isilic.iteye.com/blog/1851048 决策树的重要性和入门可以参考前面两篇文章: 在清华水木上有个Machine Learning的书单: http://www.newsmth.net/nForum/#!article/AI/34859 其中作为入门的几本书也 阅读全文

posted @ 2016-06-17 09:53 jungel24 阅读(282) 评论(0) 推荐(0) 编辑

2016年6月10日

《统计、计算和未来-李航》读后感

摘要: 李航(节选):统计加计算的核心是计算未来各种可能性的大小。假设我们把骰子投掷到桌上,如果我们能够准确测量出骰子的初始速度和角度、空气的阻力、桌面的弹力与摩擦力,基于物理原理和数学分析方法,我们就能精确地计算出骰子落到桌面时哪个面朝上。如果我们只关心点数为 1 的那一面朝上的可 能性,那么这种计算就没 阅读全文

posted @ 2016-06-10 09:39 jungel24 阅读(386) 评论(0) 推荐(0) 编辑

导航