Processing math: 100%

多变量梯度下降

Hypothesis: hθ(x)=θTx=θ0+θ1x1+θ2x2+...+θnxn

参数(Parameters): θ1,θ2,θ3,...,θn

可以用Θ向量表示上面的一系列值 

损失函数(Cost function): J(θ1,θ2,θ3,...,θn)=12mmi=1(hθ(x(i))y(i))2

当用Θ表示时,损失函数:J(Θ)=12mmi=1(hθ(x(i))y(i))2


 

梯度下降算法表示为:

重复(repeat){

θj:=θjαθjJ(θ1,θ2,θ3,...,θn)  (simultaneously update for every j = 0,...,n)

如果用Θ表示 θj:=θjαθjJ(Θ) (对于 j = 0,...,n,同时更新)

}


 

现在看以下部分怎么算 θjJ(θ1,θ2,θ3,...,θn) 

当n=1时

算法为:

repeat {

θ0:=θ0α1mmi=1(hθ(x(i))y(i))θ0J(θ)

θ1:=θ1α1mmi=1(hθ(x(i))y(i))x(i)

(simultaneously update θ0, θ1)

}

当n>=1时

算法为:

repeat {

θj:=θjα1mmi=1(hθ(x(i))y(i))x(i)j

(simultaneously update θj for j = 0,..., n)

}

posted @   qkloveslife  阅读(838)  评论(0编辑  收藏  举报
努力加载评论中...
点击右上角即可分享
微信分享提示