L1与L2的原理和区别

L1与L2的原理和区别

正则化:对损失函数加上某种约束,减少模型的非线性程度,从而减少模型的方差提高泛化能力。

损失函数:用来估量你模型的预测值f(x)与真实值Y的不一致程度。

 

正则化常用的两种:

L1是在损失函数基础上加上权重参数的绝对值的和。

L2是在损失函数基础上加上权重参数的平方和。

对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的模型叫做Ridge回归

 

相同点:都用于避免过拟合

不同点: 

  • L1使权重稀疏,L2使权重平滑
  • L1优点是能够获得稀疏模型,可以让一部分特征的系数缩小到0,从而间接实现特征选择,对于large-scale的问题来说这一点很重要,因为可以减少存储空间
  • L2优点是实现简单,L2让所有特征的系数都缩小,但是不会减为0,缺点就是无法获得sparse模型
  • 对于新数据的调整,L1变动很大,L2整体变动不大。

 

posted @   萧六弟  阅读(685)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· winform 绘制太阳,地球,月球 运作规律
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 上周热点回顾(3.3-3.9)
点击右上角即可分享
微信分享提示