微信扫一扫打赏支持

最小二乘法 与 均方误差的区别 (总结)

最小二乘法 与 均方误差的区别(总结)

一、总结

一句话总结:

基于均方误差最小化来进行模型求解的方法称为“最小二乘法”。——周志华《机器学习》
最小二乘法作为损失函数:没有除以总样本数m;均方误差(MSE):除以总样本数m

 

 

二、最小二乘法 与 均方误差的区别

博客对应课程的视频位置:

 

答案一:

最小二乘(LS)问题是这样一类优化问题,目标函数是若干项的平方和,每一项具有形式[公式],具体形式如下:
minimize [公式] (式1)
但是,我们在实际优化问题中经常看到的是另一种表示形式:
[公式] (式2)
其中[公式]是真值,[公式]是估计值,式1和式2是一样的,只是用的符号不同,式1中的[公式]对应式2中的[公式],即优化中要求的变量。

------------------------------------------------------------------------
作为过渡概念,LS的一种更复杂也更灵活的变形:
加权最小二乘 根据实际问题考虑每个求和项的重要程度,即加权值w,如下:
[公式]

------------------------------------------------------------------------
均方误差(MSE)是一种加权最小二乘,它的权值是概率

===========================================================

答案二:

基于均方误差最小化来进行模型求解的方法称为“最小二乘法”。——周志华《机器学习》

 

===========================================================

最小二乘法作为损失函数:没有除以总样本数m

均方误差(MSE):除以总样本数m

 

 

 

参考:

https://www.zhihu.com/question/27200164

https://www.icode9.com/content-4-638216.html

 
posted @ 2020-10-28 13:07  范仁义  阅读(4845)  评论(0编辑  收藏  举报