07 2020 档案
Caffe BatchNormalization 推导
摘要:Caffe BatchNormalization 推导 总所周知,BatchNormalization通过对数据分布进行归一化处理,从而使得网络的训练能够快速并简单,在一定程度上还能防止网络的过拟合,通过仔细看过Caffe的源码实现后发现,Caffe是通过BN层和Scale层来完整的实现整个过程的。
阅读全文
Caffe Batch Normalization层解析
摘要:转自:https://blog.csdn.net/weixin_37970694/article/details/79485158 BatchNormalization(BN)的提出:paper[链接](https://arxiv.org/pdf/1502.03167.pdf)论文中对BN的解释:M
阅读全文
C++ const和constexpr
摘要:constexpr是c++11标准添加的关键字。 相同点: const和consexpr都是用来定义常量的。不同点: const声明的常量,初始值引用的对象不一定是一个常量; const 所定义的变量,一经初始化便不能修改,但是不要求const所定义变量在编译的时候就能被算出。 constexpr
阅读全文