会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
handspeaker
做个有理想有节操的程序员
博客园
首页
新随笔
联系
管理
订阅
2017年7月27日
tensorflow中batch normalization的用法
摘要: 网上找了下tensorflow中使用batch normalization的博客,发现写的都不是很好,在此总结下: 1.原理 公式如下: y=γ(x-μ)/σ+β 其中x是输入,y是输出,μ是均值,σ是方差,γ和β是缩放(scale)、偏移(offset)系数。 一般来讲,这些参数都是基于chann
阅读全文
posted @ 2017-07-27 14:05 handspeaker
阅读(75394)
评论(21)
推荐(0)
编辑
公告