Processing math: 100%

多变量梯度下降

Hypothesis: hθ(x)=θTx=θ0+θ1x1+θ2x2+...+θnxn

参数(Parameters): θ1,θ2,θ3,...,θn

可以用Θ向量表示上面的一系列值 

损失函数(Cost function): J(θ1,θ2,θ3,...,θn)=12mmi=1(hθ(x(i))y(i))2

当用Θ表示时,损失函数:J(Θ)=12mmi=1(hθ(x(i))y(i))2


 

梯度下降算法表示为:

重复(repeat){

θj:=θjαθjJ(θ1,θ2,θ3,...,θn)  (simultaneously update for every j = 0,...,n)

如果用Θ表示 θj:=θjαθjJ(Θ) (对于 j = 0,...,n,同时更新)

}


 

现在看以下部分怎么算 θjJ(θ1,θ2,θ3,...,θn) 

当n=1时

算法为:

repeat {

θ0:=θ0α1mmi=1(hθ(x(i))y(i))θ0J(θ)

θ1:=θ1α1mmi=1(hθ(x(i))y(i))x(i)

(simultaneously update θ0, θ1)

}

当n>=1时

算法为:

repeat {

θj:=θjα1mmi=1(hθ(x(i))y(i))x(i)j

(simultaneously update θj for j = 0,..., n)

}

posted @   qkloveslife  阅读(839)  评论(0编辑  收藏  举报
编辑推荐:
· 智能桌面机器人:用.NET IoT库控制舵机并多方法播放表情
· Linux glibc自带哈希表的用例及性能测试
· 深入理解 Mybatis 分库分表执行原理
· 如何打造一个高并发系统?
· .NET Core GC压缩(compact_phase)底层原理浅谈
阅读排行:
· 开发者新选择:用DeepSeek实现Cursor级智能编程的免费方案
· Tinyfox 发生重大改版
· 独立开发经验谈:如何通过 Docker 让潜在客户快速体验你的系统
· 小米CR6606,CR6608,CR6609 启用SSH和刷入OpenWRT 23.05.5
· 近期最值得关注的AI技术报告与Agent综述!
点击右上角即可分享
微信分享提示