随笔分类 - 机器学习
摘要:参考:http://blog.csdn.net/google19890102/article/details/50522945 0-1损失函数 平方损失函数(最小二乘法) 最小二乘法是线性回归的一种,OLS将问题转化成了一个凸优化问题。在线性回归中,它假设样本和噪声都服从高斯分布(为什么假设成高斯分
阅读全文
摘要:参考:http://www.cnblogs.com/rgvb178/p/6055213.html Sigmoid函数 Sigmoid函数曾被广泛地应用,但由于其自身的一些缺陷,现在很少被使用了。Sigmoid函数被定义为: 函数对应的图像是: 函数对应的图像是: 优点:1.Sigmoid函数的输出映
阅读全文
摘要:转自:https://zhuanlan.zhihu.com/p/21932911?refer=baina 参考:http://www.cnblogs.com/LeftNotEasy/archive/2011/05/02/basic-of-svm.html http://blog.csdn.net/v
阅读全文
摘要:转自:http://www.cnblogs.com/Sinte-Beuve/p/6164689.html 本文主要讲了梯度下降法的两种迭代思路,随机梯度下降(Stochastic gradient descent)和批量梯度下降(Batch gradient descent)。以及他们在python
阅读全文
摘要:转自:http://blog.csdn.net/ariessurfer/article/details/41310525 Logistic回归为概率型非线性回归模型,是研究二分类观察结果与一些影响因素之间关系的一种多 变量分析方法。通常的问题是,研究某些因素条件下某个结果是否发生,比如医学中根据病人
阅读全文
摘要:转自:http://blog.csdn.net/starzhou/article/details/72614795 在本教程中,作者对现代机器学习算法进行一次简要的实战梳理。虽然类似的总结有很多,但是它们都没有真正解释清楚每个算法在实践中的好坏,而这正是本篇梳理希望完成的。因此本文力图基于实践中的经
阅读全文