会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
mantch
公告
日历
导航
博客园
首页
新随笔
新文章
联系
订阅
管理
2019年8月19日
神经网络优化算法:Dropout、梯度消失/爆炸、Adam优化算法,一篇就够了!
摘要: 1. 训练误差和泛化误差 机器学习模型在训练数据集和测试数据集上的表现。如果你改变过实验中的模型结构或者超参数,你也许发现了:当模型在训练数据集上更准确时,它在测试数据集上却不⼀定更准确。这是为什么呢? 因为存在着训练误差和泛化误差: **训练误差:**模型在训练数据集上表现出的误差。 **泛化误差:**模型在任意⼀个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 训练...
阅读全文
posted @ 2019-08-19 20:00 mantch
阅读(4088)
评论(0)
推荐(2)
编辑
Copyright © 2024 mantch
Powered by .NET 8.0 on Kubernetes