上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 38 下一页
摘要: Online gradient descent(OGD) produces excellent prediction accuracy with a minimum of computing resources.However, in practice another key considerati 阅读全文
posted @ 2017-03-01 14:51 合唱团abc 阅读(2404) 评论(0) 推荐(0) 编辑
摘要: 过拟合的原因:使用的模型过于复杂,根据VC维理论:VC维很高的时候,就容易发生bias很低,但variance很高的情形. 解决过拟合最常用的方法就是regularization, 常用的有:L1正则, L2正则等.L1正则会使得参数稀疏化, L2正则可以起到平滑的作用, 从贝叶斯理论的角度审视下正 阅读全文
posted @ 2017-03-01 11:50 合唱团abc 阅读(2810) 评论(1) 推荐(1) 编辑
摘要: www.csie.ntu.edu.tw/~cjlin/papers/ffm.pdf 读书笔记 The effect of feature conjunctions(组合特征) is difficult for linear models(比如LR) to learn because they lea 阅读全文
posted @ 2017-02-22 20:12 合唱团abc 阅读(1567) 评论(0) 推荐(0) 编辑
摘要: 转自:https://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html (感谢,讲解的太好了) 在机器学习领域,有相当多的应用与奇异值都可以扯上关系,比如做feature reduction的PCA,做数 阅读全文
posted @ 2017-02-22 19:45 合唱团abc 阅读(313) 评论(0) 推荐(0) 编辑
摘要: two important types of artificial neuron :the perceptron and the sigmoid neuron Perceptrons <!--EndFragment--> 感知机的输入个数不限,每个输入的取值都是二元的(0或1,这点不确定,后续确认下 阅读全文
posted @ 2017-02-15 20:24 合唱团abc 阅读(202) 评论(0) 推荐(0) 编辑
摘要: http://blog.csdn.net/smf0504/article/details/52055971 http://c.biancheng.net/cpp/html/295.html 阅读全文
posted @ 2017-02-08 12:01 合唱团abc 阅读(510) 评论(0) 推荐(0) 编辑
摘要: http://blog.csdn.net/cywosp/article/details/26469435 阅读全文
posted @ 2017-02-06 11:41 合唱团abc 阅读(523) 评论(0) 推荐(0) 编辑
摘要: 转自:http://tech.meituan.com/deep-understanding-of-ffm-principles-and-practices.html http://blog.csdn.net/google19890102/article/details/45532745 FM原理 = 阅读全文
posted @ 2017-01-22 14:08 合唱团abc 阅读(17300) 评论(1) 推荐(1) 编辑
摘要: Bootstraping: 名字来自成语“pull up by your own bootstraps”,意思是依靠你自己的资源,称为自助法,它是一种有放回的抽样方法,它是非参数统计中一种重要的估计统计量方差进而进行区间估计的统计方法。其核心思想和基本步骤如下: (1) 采用重抽样技术从原始样本中抽 阅读全文
posted @ 2017-01-18 09:46 合唱团abc 阅读(308) 评论(0) 推荐(0) 编辑
摘要: http://www.cnblogs.com/biyeymyhjob/archive/2013/05/11/3072893.html 阅读全文
posted @ 2016-12-09 10:11 合唱团abc 阅读(185) 评论(0) 推荐(0) 编辑
上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 38 下一页