会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
仙守
最美的不是下雨天,是曾与你躲过雨的屋檐!
博客园
首页
新随笔
联系
订阅
管理
2017年10月28日
Feature Extractor[batch normalization]
摘要: ###1 - 背景 摘要:因为随着前面层的参数的改变会导致后面层得到的输入数据的分布也会不断地改变,从而训练dnn变得麻烦。那么通过降低学习率和小心地参数初始化又会减慢训练过程,而且会使得具有饱和非线性模型的训练变得很困难。我们将这种现象叫做internal covariate shift。BN通过
阅读全文
posted @ 2017-10-28 10:39 仙守
阅读(528)
评论(0)
推荐(0)
编辑
公告