2015年6月16日

机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size

摘要: 转自:http://blog.csdn.net/u012162613/article/details/44265967本文是《Neural networks and deep learning》概览中第三章的一部分,讲机器学习算法中,如何选取初始的超参数的值。(本文会不断补充)学习速率(learni... 阅读全文

posted @ 2015-06-16 18:14 moffis 阅读(472) 评论(0) 推荐(0) 编辑

机器学习中的数学(3)-模型组合(Model Combining)之Boosting与Gradient Boosting

摘要: 转自:http://www.cnblogs.com/LeftNotEasy/archive/2011/01/02/machine-learning-boosting-and-gradient-boosting.html前言: 本来上一章的结尾提到,准备写写线性分类的问题,文章都已经写得差不多了,但是... 阅读全文

posted @ 2015-06-16 17:00 moffis 阅读(173) 评论(0) 推荐(0) 编辑

无约束最优化方法

摘要: 转自:http://www.cnblogs.com/zhangchaoyang/articles/2600491.html梯度的方向与等值面垂直,并且指向函数值提升的方向。二次收敛是指一个算法用于具有正定二次型函数时,在有限步可达到它的极小点。二次收敛与二阶收敛没有尽然联系,更不是一回事,二次收敛往... 阅读全文

posted @ 2015-06-16 16:41 moffis 阅读(402) 评论(0) 推荐(0) 编辑

协同过滤推荐算法

摘要: 转自:http://www.cnblogs.com/zhangchaoyang/articles/2664366.htmlCollaborative Filtering Recommendation向量之间的相似度度量向量之间的相似度方法很多了,你可以用距离(各种距离)的倒数,向量夹角,Pearso... 阅读全文

posted @ 2015-06-16 16:33 moffis 阅读(317) 评论(0) 推荐(0) 编辑

导航