会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
无左无右
博客园
首页
新随笔
联系
订阅
管理
2020年11月14日
积累--一些问题积累
摘要: 1. Batch Normalization应该放在ReLU非线性激活层的前面还是后面? 当卷积层后跟batch normalization层时为什么不要偏置b https://mp.weixin.qq.com/s/kqLpa_TsWcyjRly_ZJvENw 一般是conv-bn-relu 群里大
阅读全文
posted @ 2020-11-14 11:57 无左无右
阅读(169)
评论(0)
推荐(0)
编辑
公告