摘要: Batch Normalization就是批归一化,在神经网络的layer未激活输出之前加一道Batch Normalization的工序,以下简称BN。关于BN的原理介绍,网上有很多资料,也可以参考这篇https://www.cnblogs.com/huwj/p/10759532.html,在这里 阅读全文
posted @ 2019-04-24 21:34 hwj_blog 阅读(1516) 评论(0) 推荐(0) 编辑