c4w2_深度卷积网络案例探究

深度卷积模型:案例探究

为什么要学习一些案例呢?

就像通过看别人的代码来学习编程一样,通过学习卷积神经模型的案例,建立对卷积神经网络的(CNN)的“直觉”。并且可以把从案例中学习到的思想、模型移植到另外的任务上去,他们往往也表现得很好。

接下来要学习的神经网络:

  • 经典模型:LeNet5、AlexNet、VGG
  • ResNet:Residual Networt,训练了一个深达152层的神经网络
  • Inception

经典模型

LetNet-5

image

  • 每次经过卷积计算后,高度和宽度都在减小,通道数在增加
  • 模型有大约60k个参数,而现今的卷积网络通常都有10m-100m个参数
  • LetNet-5模型的结构十分典型,到如今都很常见。即一个或多个Conv 层后跟一个Pooling层,最后为多个全连接层。
  • LetNet-5 采用平均池化,现在大都最大池化;LetNet-5 隐藏层采用sigmoid/tanh作为激活函数,现在有表现更好得ReLU;现在的网络模型最后会用到softmax回归代替多个classifier

AlexNet

image

  • 与LetNet-5相似,但是拥有更深的结构,因此也有更多参数,大约60m
  • 使用ReLU作为激活函数
  • 最终的结果从1000个分类中识别出来
  • AlexNet使用了Local Response Normalization(LRN),但现在已经不怎么用了
  • 为了解决GPU不足,论文中有如何在调度两个GPU的内容

VGG-16

image

  • VGG-16中16的含义是16个有参数的隐藏层
  • VGG-16模型的结构比较简洁,只用了两个典型的单元(CONV=3×3filter, s=1, same;MAX-POOL=2×2, s=2)。每一个层都在翻倍filter数,从64直到512.
  • 结构规整,可以描述为若干个same卷积层跟一个最大池化层。虽然模型很深,但是参数没有非常多,大约有138m个,这也是得益于其简洁的结构。
  • VGG-16同样也反映了在不断加深的网络中,高度、宽度减小,而通道数增加这一结构的合理性。
  • VGG-19和VGG-16表现差不多,所以VGG-16更常用

ResNets

由于梯度消失和梯度爆炸的问题,导致超大型的神经网络难以训练。

残差块

image

a[l]跳过两层,把信息传递给更深层的激活函数

上图中包含捷径或者跳越连接的的层组成了一个残差块,多个残差块构成了残差网络。如下图所示。ResNet在训练深层神经网络这方面非常有效。

image

理论上,在相同优化条件下随着层数的增加,训练的错误应该越来越小。但是实际上,当层数达到一定程度后,错误率反而会上升。这可能是由于所选择的随机梯度下降策略所导致的,往往没有取到全局最优解,而是局部最优解。

ResNet为什么可以训练更深层的网络?

对于一个大型的网络如下:

image

在此基础上增加一个残差块,

image

那么根据上面学到的,可以得到\(a^{[l+2]}=g(z^{[l+2]}+a^{[l]} )\),再进一步得出\(a^{[l+2]}=g(w^{[l+2]}\times a^{[l+1]}+b^{[l+1]}+a^{[l]} )\)

在很深的网络中,(正则化也会会让\(w^{[l+2]}\)是一个很小的值)可能会产生梯度消失或梯度爆炸的问题导致\(w^{[l+2]}=0\),同时也假设\(b^{[l+1]}=0\),由于使用的是ReLU作为激活函数,所以可以得到\(a^{[l+2]}=a^{[l]}\)

比如对于一个比较深的网络模型,当网络优化到一定程度之后,想要再进一步是非常困难的,而且可能会由于梯度消失导致模型的效果退步。那么对于这种情况,最好的选择就是起码做到不退步。
因此在网络中构造了\(H(x)=F(x)+x\)表达式。对于这个式子,在优化的过程中如果遇到了上述那样的情况,那么比较好的选择就是学到一个恒等式。
并且,直观上来看网络模型比较容易学到\(H(x)=x\)这样的恒等式,只需要将F(x)的权重等参数设置为0。
那么在理想情况下,通过不断训练网络会学到将F(x)的权重和偏置设置为0。当然实际中,我们很难达到最优解,但是也能够在很大程度上减小梯度消失带来的问题。

要注意的是,\(z^{[l+2]}\)\(a^{[l]}\)在进行矩阵加法运算需要保持维度一致。通常可以使用下面提到的1x1卷积运算来达到这一目的。
此外,也可以增加一个\(W_s\)调整\(a^{[l]}\)\(W_s a^{[l]}\)\(W_s\)是一个固定的矩阵,只用作把\(a^{[l]}\)的维度和\(z^{[l+2]}\)一致,对应位置填充1,其他位置填充0。

1x1的卷积

当filter的维度是1x1,对于一个6x6通道为1的图片,也只是将对应元素乘以filter的数字,填入到新的矩阵中,这样对卷积计算好像也没有什么具体的效果。

image

如果是对于一个有多个通道的图片可能会有比较好的卷积效果。

把6x6图片中每个位置上全通道的元素去和filter做线性组合,然后做再将结果应用于激活函数(ReLU)。

就像是这32个通道和filter建立了全连接层。(全连接层输入是32,对应的输出是filter的数量)。

因此,1x1 Convolutions也称为Network in Networks。如果有多个1x1 Convolutions,则输出矩阵也是多个channel的。

image

1x1卷积的效果:

  • 在不改变长度和宽度的情况下,对通道数进行调整,并不损失特征信息
  • 增加了非线性性质
  • 降低计算量的思想

Inception Network

Inception的核心思想

构建卷积网络时,需要去手动选择用使用多大的filter,是1x1或3x3或5x5,以及是否需要使用池化层,而Inception Network的作用就是代替你来做决定,虽然因此网络结构会变得很复杂,但是结果表现得非常好。

Inception Network所作得就是在各种形状的filter进行卷积运算,运算结果将保持原来的长度和宽度但是有不同的通道数。并将这些长宽相同的运算结果叠加在一起,形成Inception层的输出。

Inception层或者说Inception模块,最后会再进行一次特殊的池化操作,称为same池化,也叠加到上面所说的运算结果上。这里的same池化之所以会保持长宽一致,是因为将步长设置为1,以及在池化之后,进行了1x1的卷积操作去压缩通道。

image

基本思想是:与其你去选择filter的大小,不如将所有可能的filter都加入,并将输出连接在一起,让网络自己学习该应用什么样的参数,采用怎样的过滤器组合。

Inception Network带来的一个问题是,大幅的计算量。以上图中5x5filter部分的计算,计算的次数达到了28x28x32x5x5x192,大约是120m

image

采用1x1卷积的思想来优化计算量大这一问题。

在上述的5x5filter例子中,添加一层1x1卷积去压缩通道,再使用5x5filter的same卷积,就可以大幅下降计算量。具体的计算量是8x28x16x1x1x192 + 28x28x32x5x5x16,约12.4m,降到了之前的10%。

1x1的卷积层在模块中就像时一个瓶子的瓶颈,将瓶身通道缩到了瓶盖大小,所以也称为bottleneck,瓶颈层。

image

总结,在神经网络的一层中,当你不知道该如何选择使用多大卷积核、还是使用池化层时,那么Inception模块就是最好的选择。其次通过1x1的卷积去构建“bottle neck”层来降低Inception模块中的计算成本。

Inception Network的具体实现

上面已介绍了构建Inception Network基本要素,现在可以构建一个完整的Inception Network了。

image

  • 除了filter大小为1x1的卷积层以外,其余卷积层都用1x1卷积降低计算成本
  • 池化层使用特殊的池化操作,same池化,并使用1x1卷积压缩通道数
  • 将所有层的输出连接在一起形成Inception模块的输出

在Inception Network中间的隐藏层还有分支,这些分支是全连接层,做softmax的输出。使用隐藏层直接做预测,可以看作是对最后分类结果的微调。表明中间隐藏层的特征也参与了最后的预测,能防止网络发生过拟合。

image

Inception Network也发展出了很多版本,比如结合Skip Connection。Inception也叫GooLeNet,致敬LeNet,命名Inception也是盗梦空间中的梗。

image

构建卷积模型的意见

使用开源的实现方案

因为神经网络的复杂和细致,直接参考论文去复现也很难成功。所以更好的方案是从开源代码开始。这些网络已经经过了长时间的训练,对这网络进行迁移学习,开始构建网络。

迁移学习

构建计算机视觉任务,相比于从头训练权重或者说从随机初始化权重开始不如使用别人已经训练好的网络架构和权重参数,把其作为一个很好的初始化,再把要实现的任务迁移过去,通常能够进展地比较快。

计算机社区有很多共享的数据集,比如:Image Net、MS COCO、Pascal types of date sets。

比如,要实现一个识别两只宠物猫的网络,对于训练集的数量级,可以有不同的迁移方案。

先下载一个图片识别的开源实现,包括训练好的参数。迁移到当前项目上,要先把softmax替换成任务中需要的样子。

当只有少量的训练集 ,只训练和softmax相关的参数。可以前面的层都认为是冻结的(freeze),保持前面这些层的参数不变,通过深度学习框架可实现这一点。

前面层的参数都被冻结了,所以可以把冻结的这部分认为是一个固定函数,取X到最后一个激活函数的映射,然后把这些数据存储起来,这样每次训练就直接从这个存储开始,就不用每次都过一遍前面的网络结构了。就相当于训练了一个只有一层的千层神经网络

image

如训练集比较大,可以少冻结几个隐藏层;如果训练集非常大,那就不需要冻结了,只需要把别人训练好的权重参数作为初始化参数,以此为基础开始训练。

image

总结来说,计算机视觉领域非常适合采用迁移学习的手段,当然如果有十分大的数据集,也可以从头开始训练所有东西。

数据增强

数据扩充是是增加训练数据的一种方法,来通过计算机视觉系统的表现。

常用的数据扩充的方法有:镜像、随机裁剪、反转、颜色调整等。这些方法可以让系统更加健壮,比如颜色调整,可以让系统在遇到颜色不是很好的图片上表现得更好一些。

通常,使用一个线程去存储空间里读取图片,并进行数据扩充的操作(上面提到的),然后输入另一个线程的神经网络训练。也就是说数据扩充和训练往往是并行的。

image

另外数据扩充也增加了一些超参数,比如图片裁剪的比例,颜色修改的力度等。

计算机视觉领域现状

手工工程(hand-engineering或hack),是指人为精心的设计特征、神经网络架构或其他系统组件。

数据量越大,用的算法也更简单,hand-engineering或hack的成分更少;相反数据不足的情况下,hand-engineering或hack的成分更大,也更有效。即形成了下面的特点:

image

计算机视觉领域的数据集还是相对较少的,特别是计算机视觉还需要训练一个相当复杂的网络。尤其是Object detection,标注的成本很大,因此数据集更少。

因此直到现在,计算机视觉领域还需很多hand-engineering(复杂的超参数调整、数据标注)

学习算法的两种指数来源:

  • 被标记的数据(Labeled Data)
  • 手工设计的功能/网络架构/其他组件(Hand engineered features/network architecture/other components)

**Tips for doing well on benchmarks/Winning competitions **

  • Ensembling 即独立的训练多个神经网络,然后取所有网络的输出平均值。
  • Multi-crop at test time 将Data Augmentation应用到测试集,对结果进行平均。

上面这些技巧对结果的提升比较小,但是会占用更多的性能和时间,对于落地于实际的生产环境意义不大,因为没有客户愿意为这点提升付出根本代价。

最后,对于计算机视觉领域比较好的方案还是采用迁移学习,用开源的或者是论文中验证比较好的网络结构已经参数(超参数啊、权重啊)作为基础,再用自己的数据调优。

posted @ 2023-11-18 12:37  newbe3three  阅读(24)  评论(0编辑  收藏  举报