摘要: 1.不同的起始点,可能导致最后得到的局部最小值点不同。 2.同时更新: 以代价函数J(θ0,θ1)为例: 我们的目的就是要同时迭代更新θ0和θ1,直到下面这个式子收敛,这也是梯度下降法的核心 其中,j取值为0和1。 每次迭代的时候,我们需要同时更新θ1​,θ2​,...,θn,我个人的理解就是,先都 阅读全文
posted @ 2018-08-29 16:21 Loser_King 阅读(265) 评论(0) 推荐(0) 编辑