会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
StrongYaYa
在泪水中浸泡过的微笑最灿烂,从迷惘中走出来的灵魂最清醒。
博客园
首页
新随笔
联系
管理
订阅
2016年9月14日
CNN中dropout层的理解
摘要: dropout是在训练神经网络模型时,样本数据过少,防止过拟合而采用的trick。那它是怎么做到防止过拟合的呢? 首先,想象我们现在只训练一个特定的网络,当迭代次数增多的时候,可能出现网络对训练集拟合的很好(在训练集上loss很小),但是对验证集的拟合程度很差的情况。所以,我们有了这样的想法:可不可
阅读全文
posted @ 2016-09-14 12:31 StrongYaYa
阅读(22616)
评论(0)
推荐(0)
编辑
公告