会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
冰皮抹茶
博客园
首页
新随笔
联系
管理
订阅
2018年11月7日
在tensorflow中使用batch normalization
摘要: 问题 训练神经网络是一个很复杂的过程,在前面提到了深度学习中常用的激活函数,例如ELU或者Relu的变体能够在开始训练的时候很大程度上减少梯度消失或者爆炸问题,但是却不能保证在训练过程中不出现该问题,例如在训练过程中每一层输入数据分布发生了改变了,那么我们就需要使用更小的learning rate去
阅读全文
posted @ 2018-11-07 20:21 冰皮抹茶
阅读(3313)
评论(0)
推荐(0)
编辑
公告