会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Oto_G
博客园
首页
新随笔
管理
2022年1月25日
深度学习——正则化
摘要: 深度学习——正则化 作者:Oto_G 全是自我理解,表达不严谨,仅供参考 本文默认正则化范数为L1范数 这是今天讨论的问题: 为什么融入正则的损失函数能够防止过拟合 为什么正则融入损失函数的形态是:原损失函数 + 范数 范数是啥 防止过拟合 过拟合,通俗来说就是,你的参数训练的太好了,以至于这组参数
阅读全文
posted @ 2022-01-25 21:47 Oto_G
阅读(258)
评论(0)
推荐(0)
编辑