摘要: 在这节中,我们将集中讨论学习率α。 这是梯度下降算法的更新规则。在这节中,我们将学习调试(Debugging)是什么以及一些小技巧来确保梯度下降法是在进行正常工作的。此外,我们还将学习如何选择学习率α。 梯度下降算法所做的事情就是为你找到一个θ值,并且希望它能够最小化代价函数J(θ)。因此,通常在梯 阅读全文
posted @ 2020-03-31 18:09 不爱学习的Shirley 阅读(193) 评论(0) 推荐(0) 编辑
摘要: 在本节和下一节中,我们将介绍一下梯度下降运中的实用技巧。本节主要介绍一个称为特征缩放的方法。 这个方法如下:如果你有一个机器学习问题,这个问题有多个特征。如果你能确保这些特征都处在一个相似的范围(即不同特征的取值在相近的范围内),那么这样梯度下降法就能更快地收敛。具体来说,假如现在有一个具有两个特征 阅读全文
posted @ 2020-03-31 17:06 不爱学习的Shirley 阅读(247) 评论(0) 推荐(0) 编辑
摘要: 在这节中,我们将介绍如何设定该假设的参数,我们还会讲如何使用梯度下降法来处理多元线性回归。 首先,我们回顾一下上节的知识点。 假设形式:hθ(x)=θTX=θ0x0+θ1x1+θ2x2+θ3x3+……+θnxn。(x0=1) 参数:θ0,θ1,θ2,……,θn。我们也可以把它想象成一个n+1维向量。 阅读全文
posted @ 2020-03-31 16:00 不爱学习的Shirley 阅读(216) 评论(0) 推荐(0) 编辑
摘要: 在这节中,我们将开始讨论一种新的线性回归的版本。这是一种更为有效的形式,这种形式适用于多个变量或者多特征量的情况。 在我们之前的学习中,我们只有一个单一特征变量x(如下面例子中的房屋面积),我们希望用这个特征量来预测y(如下面例子中的房屋价格)。我们的假设就为hθ(x)=θ0+θ1x。 但是,我们在 阅读全文
posted @ 2020-03-31 14:45 不爱学习的Shirley 阅读(259) 评论(0) 推荐(0) 编辑