Fork me on GitHub

L1损失与L2损失

监督学习的问题无非就是minimizeyour error while regularizing your parameters 。也就是说在规范化参数的同时最小化误差。最小化误差就是为了让我们的模型拟合我们的训练数据,而规范化参数是为了防止我们的模型过分地拟合了我们的训练数据集。因为参数太多,会导致我们的模型复杂度上升,容易过拟合,也就是我们的训练误差很小,但是训练误差很小不是我们的最终目标,我们的最终目标是希望模型的测试误差很小,也就是能准确的预测新的样本。

posted @ 2021-03-28 16:16  sy-  阅读(223)  评论(0编辑  收藏  举报