会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
冠军的试炼
悟已往之不谏,知来者之可追
博客园
首页
新随笔
联系
订阅
管理
2018年2月19日
【深度学习】批归一化(Batch Normalization)
摘要: BN是由Google于2015年提出,这是一个深度神经网络训练的技巧,它不仅可以加快了模型的收敛速度,而且更重要的是在一定程度缓解了深层网络中“梯度弥散”的问题,从而使得训练深层网络模型更加容易和稳定。所以目前BN已经成为几乎所有卷积神经网络的标配技巧了。 从字面意思看来Batch Normaliz
阅读全文
posted @ 2018-02-19 08:50 最难不过二叉树
阅读(59707)
评论(3)
推荐(10)
编辑
公告