机器学习西瓜书白话解读笔记---0301-0308、线性回归
机器学习西瓜书白话解读笔记---0301-0308、线性回归
一、总结
一句话总结:
【亡羊补牢】:人的确是都会犯错,【亡羊补牢】最最重要,比如网络游戏
1、一元线性回归?
只有【一个属性】,即d=1;【w,b为单个的数】
一元线性回归目标函数:【最小二乘法】:$$( w ^ { * } , b ^ { * } ) = \underset { ( w , b ) } { \arg \min } \sum _ { i = 1 } ^ { m } ( f ( x _ { i } ) - y _ { i } ) ^ { 2 } = \underset { ( w , b ) } { \arg \min } \sum _ { i = 1 } ^ { m } ( y _ { i } - w x _ { i } - b ) ^ { 2 }$$
2、一元线性回归对w求偏导?
目标函数求解过程也称为线性回归模型的【对最小二乘“参数估计”】
对w求导:这个公式的推导非常简单,最小二乘法求偏导一步一步即可:$$\frac { \partial E _ { ( w , b ) } } { \partial w } = 2 ( w \sum _ { i = 1 } ^ { m } x _ { i } ^ { 2 } - \sum _ { i = 1 } ^ { m } ( y _ { i } - b ) x _ { i } )$$
导数为0求得最优解:$$w = \frac { \sum _ { i = 1 } ^ { m } y _ { i } ( x _ { i } - \overline { x } ) } { \sum _ { i = 1 } ^ { m } x _ { i } ^ { 2 } - \frac { 1 } { m } ( \sum _ { i = 1 } ^ { m } x _ { i } ) ^ { 2 } }$$
3、一元线性回归对b求偏导?
对b求导:这个公式的推导非常简单,最小二乘法求偏导一步一步即可:$$\frac { \partial E _ { ( w , b ) } } { \partial b } = 2 ( m b - \sum _ { i = 1 } ^ { m } ( y _ { i } - w x _ { i } ) )$$
导数为0求得最优解:$$b = \frac { 1 } { m } \sum _ { i = 1 } ^ { m } ( y _ { i } - w x _ { i } )$$
二、内容在总结中
博客对应课程的视频位置:
版权申明:欢迎转载,但请注明出处
一些博文中有一些参考内容因时间久远找不到来源了没有注明,如果侵权请联系我删除。
在校每年国奖、每年专业第一,加拿大留学,先后工作于华东师范大学和香港教育大学。
2025-04-30:宅加太忙,特此在网上找女朋友,坐标上海,非诚勿扰,vx:fan404006308
AI交流资料群:753014672