摘要: 深度学习——正则化 作者:Oto_G 全是自我理解,表达不严谨,仅供参考 本文默认正则化范数为L1范数 这是今天讨论的问题: 为什么融入正则的损失函数能够防止过拟合 为什么正则融入损失函数的形态是:原损失函数 + 范数 范数是啥 防止过拟合 过拟合,通俗来说就是,你的参数训练的太好了,以至于这组参数 阅读全文
posted @ 2022-01-25 21:47 Oto_G 阅读(258) 评论(0) 推荐(0) 编辑