摘要: 在机器学习中,通常会碰到相似度衡量的问题,而且广泛用于数据挖掘的分类和聚类中,描述个体之间的差异大小的方式有很多,这篇博客总结的比较全面:http://blog.csdn.net/sp_programmer/article/details/40889103 然而具体到衡量用户相似度的问题的时候,不一 阅读全文
posted @ 2016-04-12 21:40 james+zhao 阅读(3052) 评论(0) 推荐(0) 编辑
摘要: 目前在看统计学习导论:基于R应用,觉得这本书非常适合入门,打算把课后习题全部做一遍,记录在此博客中。 第二章习题 1. (a) 当样本量n非常大,预测变量数p很小时,这样容易欠拟合,所以一个光滑度更高的学习模型更好。 (b) 当样本量n非常小,预测变量数p很大时,这样容易过拟合,所以一个光滑度更小的 阅读全文
posted @ 2016-03-09 20:25 james+zhao 阅读(13500) 评论(0) 推荐(0) 编辑
摘要: 最常用的:梯度下降法(gradient descent)或最速下降法(steepest descent)。有实现简单的优点。梯度下降是迭代算法,每一步需要求解目标函数的梯度。当目标函数是凸函数时,梯度下降算法是全局最优解。一般情况下,其解不保证是全局最优解。梯度下降法的收敛速度也未必最快。还有,牛顿... 阅读全文
posted @ 2015-09-11 11:59 james+zhao 阅读(2185) 评论(0) 推荐(0) 编辑