摘要: 1. Batch Normalization应该放在ReLU非线性激活层的前面还是后面? 当卷积层后跟batch normalization层时为什么不要偏置b https://mp.weixin.qq.com/s/kqLpa_TsWcyjRly_ZJvENw 一般是conv-bn-relu 群里大 阅读全文
posted @ 2020-11-14 11:57 无左无右 阅读(169) 评论(0) 推荐(0) 编辑