L1与L2的原理和区别
L1与L2的原理和区别
正则化:对损失函数加上某种约束,减少模型的非线性程度,从而减少模型的方差提高泛化能力。
损失函数:用来估量你模型的预测值f(x)与真实值Y的不一致程度。
正则化常用的两种:
L1是在损失函数基础上加上权重参数的绝对值的和。
L2是在损失函数基础上加上权重参数的平方和。
对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的模型叫做Ridge回归
相同点:都用于避免过拟合
不同点:
- L1使权重稀疏,L2使权重平滑
- L1优点是能够获得稀疏模型,可以让一部分特征的系数缩小到0,从而间接实现特征选择,对于large-scale的问题来说这一点很重要,因为可以减少存储空间
- L2优点是实现简单,L2让所有特征的系数都缩小,但是不会减为0,缺点就是无法获得sparse模型
- 对于新数据的调整,L1变动很大,L2整体变动不大。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· winform 绘制太阳,地球,月球 运作规律
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 上周热点回顾(3.3-3.9)