CNN

一个新的激活函数——Relu

Relu函数作为激活函数,有下面几大优势:

  • 速度快 和sigmoid函数需要计算指数和倒数相比,relu函数其实就是一个max(0,x),计算代价小很多。
  • 减轻梯度消失问题
  • 稀疏性。有论文声称人工神经网络在15%-30%的激活率时是比较理想的。因为relu函数在输入小于0时是完全不激活的,因此可以获得一个更低的激活率。

全连接网络 VS 卷积网络

全连接神经网络之所以不太适合图像识别任务,主要有以下几个方面的问题:

  • 参数数量太多
  • 没有利用像素之间的位置信息。努力学习大量并不重要的权重,这样的学习必将是非常低效的。
  • 网络层数限制

卷积神经网络

  • 局部连接,每个神经元不再和上一层的所有神经元相连,而只和一小部分神经元相连。这样就减少了很多参数。
  • 权值共享
  • 下采样

 

我们把卷积神经网络中的『卷积』操作叫做互相关(cross-correlation)操作。

卷积神经网络的训练

利用链式求导计算损失函数对每个权重的偏导数(梯度),然后根据梯度下降公式更新权重。训练算法依然是反向传播算法。

步骤:

卷积层的训练

 

posted @ 2019-06-27 16:48  Austin_anheqiao  阅读(196)  评论(0编辑  收藏  举报