Batch Norm 加快网络的训练
这是为了解决深层神经网络梯度消失的问题
因为随着训练的进行,我们每一层的网络输出会逐渐两极分化
比如使用的是tanh激活函数,到最后就会使偏导几乎等于0,网络的训练时间过长
我们可以把每一层的输出看做符合N(u, alaph)的正态分布
如果我们能将这一层的正太分布改为符合N(0,1)就很舒服了
Znorm就是符合N(0,1)的正太分布的
但是如果只是使用Znorm就有点死板了,我们加一个线性变换,其中的y,beta是我们可以通过神经网络学习的变量
但是,,,如果我激活函数使用relu,在最后几层使用tanh,应该就没有这样的问题了把