4.2 线性回归-欠拟合于过拟合

问题:训练数据训练的很好啊,误差也不大,为什么在测试集上面有问题呢?
当算法在某个数据集当中出现这种情况,可能就出现了过拟合或者欠拟合的现象。

1. 什么是过拟合与欠拟合

欠拟合(学习的特征太少了,预测不准)
image
过拟合
image
这个是因为机器学习的特征是白色的,但是这个是黑色的天鹅,所以过拟合了

分析

  • 第一种情况:因为机器学习到的天鹅特征太少了,导致区分标准太粗糙,不能准确识别出天鹅。
  • 第二种情况:机器已经基本能区别天鹅和其他动物了。然后,很不巧已有的天鹅图片全是白天鹅的,于是机器经过学习后,会认为天鹅的羽毛都是白的,以后看到羽毛是黑的天鹅就会认为那不是天鹅。

2.定义

过拟合:一个假设在训练数据上能够获得比其他假设更好的拟合, 但是在测试数据集上却不能很好地拟合数据,此时认为这个假设出现了过拟合的现象。(模型过于复杂)

欠拟合:一个假设在训练数据上不能获得更好的拟合,并且在测试数据集上也不能很好地拟合数据,此时认为这个假设出现了欠拟合的现象。(模型过于简单)

image
在这个图上有一个最低点,如果低于这个点的时候是欠拟合,高于这个点的时候是过拟合

3.原因以及解决办法

欠拟合原因以及解决办法

  • 原因:学习到数据的特征过少
  • 解决办法:增加数据的特征数量

过拟合原因以及解决办法

  • 原因:原始特征过多,存在一些嘈杂特征, 模型过于复杂是因为模型尝试去兼顾各个测试数据点
  • 解决办法:正则化

在这里针对回归,我们选择了正则化。但是对于其他机器学习算法如分类算法来说也会出现这样的问题,除了一些算法本身作用之外(决策树、神经网络),我们更多的也是去自己做特征选择,包括之前说的删除、合并一些特征

image
我们更想达到的是中间的这个效果

如何解决?
image

在学习的时候,数据提供的特征有些影响模型复杂度或者这个特征的数据点异常较多,所以算法在学习的时候尽量减少这个特征的影响(甚至删除某个特征的影响),这就是正则化
注:调整时候,算法并不知道某个特征影响,而是去调整参数得出优化的结果

4.正则化类别

L2正则化(常见)

  • 作用:可以使得其中一些W的都很小,都接近于0,削弱某个特征的影响
  • 优点:越小的参数说明模型越简单,越简单的模型则越不容易产生过拟合现象
  • Ridge回归(岭回归)
    image

注:m为样本数,n为特征数
损失函数+λ*惩罚项

L1正则化

  • 作用:可以使得其中一些W的值直接为0,删除这个特征的影响
  • LASSO回归
posted @ 2023-06-11 20:02  lipu123  阅读(30)  评论(0编辑  收藏  举报