摘要: 机器学习中,如果参数过多,模型过于复杂,容易造成过拟合(overfit)。即模型在训练样本数据上表现的很好,但在实际测试样本上表现的较差,不具备良好的泛化能力。为了避免过拟合,最常用的一种方法是使用使用正则化,例如 L1 和 L2 正则化。但是,正则化项是如何得来的?其背后的数学原理是什么?L1 正 阅读全文
posted @ 2020-09-17 18:11 你的雷哥 阅读(1938) 评论(0) 推荐(0) 编辑
摘要: 转:https://zhuanlan.zhihu.com/p/113623623 重点放在前面: N折交叉验证有两个用途:模型评估、模型选择。 N折交叉只是一种划分数据集的策略。想知道它的优势,可以拿它和传统划分数据集的方式进行比较。它可以避免固定划分数据集的局限性、特殊性,这个优势在小规模数据集上 阅读全文
posted @ 2020-09-17 16:43 你的雷哥 阅读(9401) 评论(0) 推荐(0) 编辑