摘要: 回归: 在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归,回归还有很多的变种,如locally weighted回归,logistic回归,等等。训练集(training set)或者训练数据(traini... 阅读全文
posted @ 2014-10-15 22:39 兰缨沅 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 回归与梯度下降:回归在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归,回归还有很多的变种,如locally weighted回归,logistic回归,等等,这个将在后面去讲。用一个很简单的例子来说明回归,这个例... 阅读全文
posted @ 2014-10-15 22:16 兰缨沅 阅读(147) 评论(0) 推荐(0) 编辑
摘要: 梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如有哪个方面写的不对,希望网友纠正。下面的h(x)是要拟合的函数,J(theta)损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合... 阅读全文
posted @ 2014-10-15 21:23 兰缨沅 阅读(193) 评论(0) 推荐(0) 编辑
摘要: Logistic回归的理论内容上篇文章已经讲述过,在求解参数时可以用牛顿迭代,可以发现这种方法貌似太复杂,今天我们介绍另一种方法,叫梯度下降。当然求最小值就是梯度下降,而求最大值相对就是梯度上升。由于,如果,那么得到现在我们要找一组,使得所有的最接近,设现在我们要找一组,使得最小。这就是今天要介绍的... 阅读全文
posted @ 2014-10-15 21:10 兰缨沅 阅读(808) 评论(0) 推荐(0) 编辑
摘要: 昨天开始看Ng教授的机器学习课,发现果然是不错的课程,一口气看到第二课。 第一课 没有什么新知识,就是机器学习的概况吧。 第二课 出现了一些听不太懂的概念。其实这堂课主要就讲了一个算法,梯度下降算法。到了教授推导公式的时候感觉有点蒙,不过后来仔细想想,也大概理解了,这个算法并没有... 阅读全文
posted @ 2014-10-15 20:55 兰缨沅 阅读(480) 评论(0) 推荐(0) 编辑