深度学习教程 | 经典CNN网络实例详解

收藏ShowMeAI查看更多精彩内容


第4门课 卷积神经网络,第2周:深度卷积网络:实例探究

本系列为吴恩达老师《深度学习专项课程(Deep Learning Specialization)》学习与总结整理所得,对应的课程视频可以在这里查看。

引言

ShowMeAI前一篇文章 卷积神经网络解读 中我们对以下内容进行了介绍:

  • 卷积计算、填充
  • 卷积神经网络单层结构
  • 池化层结构
  • 卷积神经网络典型结构
  • CNN特点与优势

本篇内容ShowMeAI展开介绍和总结几个有名的典型CNN案例。这些CNN是最典型和有效的结构,吴恩达老师希望通过对具体CNN模型案例的分析讲解,帮助我们理解CNN并训练实际的模型。

为什么要进行实例探究? Why Look at Case Studies?

本篇涉及到的经典CNN模型包括:

  • LeNet-5
  • AlexNet
  • VGG
  • ResNet(Residual Network,残差网络)
  • Inception Neural Network

1.经典卷积网络

经典网络 Classic Networks

1.1 LeNet-5

手写字体识别模型LeNet5由Yann LeCun教授于90年代提出来,是最早的卷积神经网络之一。它是第一个成功应用于数字识别问题的卷积神经网络。在MNIST数据中,它的准确率达到大约99.2%

LeNet5通过巧妙的设计,利用卷积、参数共享、池化等操作提取特征,避免了大量的计算成本,最后再使用全连接神经网络进行分类识别,这个网络也是最近大量神经网络架构的起点

经典卷积网络

  • LeNet-5针对灰度图像而训练,因此输入图片维度为\((32,32,1)\)(注意其中通道数为1)。

  • 该模型总共包含了约6万个参数,远少于标准神经网络所需。

  • 典型的LeNet-5结构包含卷积层(CONV layer),池化层(POOL layer)和全连接层(FC layer),排列顺序一般为CONV layer \(\Longrightarrow\) POOL layer \(\Longrightarrow\) CONV layer \(\Longrightarrow\) POOL layer \(\Longrightarrow\) FC layer \(\Longrightarrow\) FC layer \(\Longrightarrow\) OUTPUT layer。一个或多个卷积层后面跟着一个池化层的模式至今仍十分常用。

  • 当LeNet-5模型被提出时,其池化层使用的是平均池化,而且各层激活函数一般选用Sigmoid和tanh。现在我们更多的会使用最大池化并选用ReLU作为激活函数。

相关论文:LeCun et.al., 1998. Gradient-based learning applied to document recognition。吴恩达老师建议精读第二段,泛读第三段。

1.2 AlexNet

AlexNet由Alex Krizhevsky于2012年提出,夺得2012年ILSVRC比赛的冠军,top5预测的错误率为16.4%,远超第一名

AlexNet采用8层的神经网络,5个卷积层和3个全连接层(3个卷积层后面加了最大池化层),包含6亿3000万个链接,6000万个参数和65万个神经元。具体的网络结构如下图:

经典卷积网络

经典卷积网络

模型结构解析:

  • 卷积层 \(\Longrightarrow\) (最大)池化层 \(\Longrightarrow\) 全连接层的结构。
  • AlexNet模型与LeNet-5模型类似,但是更复杂,包含约6000万个参数。另外,AlexNet模型使用了ReLU函数。
  • 当用于训练图像和数据集时,AlexNet能够处理非常相似的基本构造模块,这些模块往往包含大量的隐藏单元或数据。

相关论文:Krizhevsky et al.,2012. ImageNet classification with deep convolutional neural networks。这是一篇易于理解并且影响巨大的论文,计算机视觉群体自此开始重视深度学习。

1.3 VGG

VGG是Oxford的Visual Geometry Group的组提出的CNN神经网络。该网络是在ILSVRC 2014上的相关工作,主要工作是证明了增加网络的深度能够在一定程度上影响网络最终的性能。在提出后的几年内,大家广泛应用其作为典型CNN结构。

经典卷积网络

经典卷积网络

  • VGG又称VGG-16网络,「16」指网络中包含16个卷积层和全连接层。
  • 超参数较少,只需要专注于构建卷积层。
  • 结构不复杂且规整,在每一组卷积层进行滤波器翻倍操作。
  • VGG需要训练的特征数量巨大,包含多达约1.38亿个参数。

相关论文:Simonvan & Zisserman 2015. Very deep convolutional networks for large-scale image recognition

2.残差网络 ResNets

残差网络 Residual Networks - ResNets

2.1 Residual Network结构

上面提到的VGG网络在当时已经是堆叠层次构建CNN比较极限的深度了,随着神经网络层数变多和网络变深,会带来严重的梯度消失和梯度爆炸问题(参考ShowMeAI文章 深度学习的实用层面 关于梯度消失和梯度爆炸的讲解),整个模型难以训练成功。

在网络结构层面,一种解决方法是人为地让神经网络某些层跳过下一层神经元的连接,隔层相连,弱化每层之间的强联系。这种神经网络被称为Residual Networks(ResNets)残差网络。

残差网络 ResNets

上图的结构被称为残差块(Residual block)。通过捷径(Short cut,或者称跳接/Skip connections)可以将\(a^{[l]}\)添加到第二个ReLU过程中,直接建立\(a^{[l]}\)\(a^{[l+2]}\)之间的隔层联系。表达式如下:

\[z^{[l+1]} = W^{[l+1]}a^{[l]} + b^{[l+1]} \]

\[a^{[l+1]} = g(z^{[l+1]}) \]

\[z^{[l+2]} = W^{[l+2]}a^{[l+1]} + b^{[l+2]} \]

\[a^{[l+2]} = g(z^{[l+2]} + a^{[l]}) \]

构建一个残差网络就是将许多残差块堆积在一起,形成一个深度网络。

残差网络 ResNets

为了便于区分,在 ResNets 的论文 He et al., 2015. Deep residual networks for image recognition 中,非残差网络被称为普通直连网络(Plain Network)。将它变为残差网络的方法是加上所有的跳远连接。

理论上,随着网络深度的增加,模型学习能力变强,效果应该提升。但实际上,如下图所示,一个普通直连网络,随着神经网络层数增加,训练错误会先先减少后增多。但使用跳接的残差网络,随着网络变深,训练集误差持续呈现下降趋势。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aNBHgLIA-1649925808194)(http://image.showmeai.tech/deep_learning_tutorial/186.png)]

残差网络有助于解决梯度消失和梯度爆炸问题,使得在训练更深的网络的同时,又能保证良好的性能。

2.2 残差网络有效的原因

残差网络为什么有用? Why ResNets Work?

下面我们借助1个例子来解释为什么ResNets有效,为什么它能支撑训练更深的神经网络。

如图所示,假设输入\(x\)经过很多层神经网络(上图的big NN)后输出\(a^{[l]}\)\(a^{[l]}\)经过一个Residual block输出\(a^{[l+2]}\)\(a^{[l+2]}\)的表达式如下:

\[a^{[l+2]}=g(z^{[l+2]}+a^{[l]})=g(W^{[l+2]}a^{[l+1]}+b^{[l+2]}+a^{[l]}) \]

输入\(x\)经过Big NN后,若\(W^{[l+2]}\approx0\)\(b^{[l+2]}\approx0\),则有:

\[a^{[l+2]}=g(a^{[l]})=ReLU(a^{[l]})=a^{[l]}, when a^{[l]}\geq0 \]

残差网络 ResNets

上述计算公式表明,即使发生了梯度消失\((W^{[l+2]}\approx0\)\(b^{[l+2]}\approx0)\),也能直接建立\(a^{[l+2]}\)\(a^{[l]}\)的线性关系(此时\(a^{[l+2]}=a^{[l]}\),就是identity function)。

\(a^{[l]}\)直接连到\(a^{[l+2]}\),从效果来说,相当于直接忽略了\(a^{[l]}\)之后的这两层神经层。很深的神经网络,由于许多Residual blocks的存在,弱化削减了某些神经层之间的联系,实现隔层线性传递,而不是一味追求非线性关系,模型本身也就能「容忍」更深层的神经网络了。而且从性能上来说,这两层额外的Residual blocks也不会降低Big NN的性能。

当然,没有发生梯度消失时,Residual blocks会忽略short cut,能训练得到跟Plain Network起到同样效果的非线性关系。

注意,如果Residual blocks中\(a^{[l]}\)\(a^{[l+2]}\)的维度不同,通常可以引入矩阵\(W_s\),与\(a^{[l]}\)相乘,使得\(W_s*a^{[l]}\)的维度与\(a^{[l+2]}\)一致。参数矩阵\(W_s\)有来两种方法得到:

  • ① 将\(W_s\)作为学习参数,通过模型训练得到
  • ② 固定\(W_s\)值(类似单位矩阵),不需要训练,\(W_s\)\(a^{[l]}\)的乘积仅仅使得\(a^{[l]}\)截断或者补零

上述两种方法都可行。

下图所示的是CNN中ResNets的结构对比普通直连网络和VGG19:

残差网络 ResNets

3.1x1卷积

网络中的网络以及 1×1 卷积 Network in Network and 1×1 Convolutions

在CNN中有一种现在广泛使用的CNN结构:\(1 \times 1\)Convolution(\(1 \times 1\)卷积,也称Networks in Networks)。它指滤波器的尺寸为1。当通道数为1时,\(1 \times 1\)卷积意味着卷积操作等同于乘积操作。

1X1 卷积

而当通道数更多时,\(1 \times 1\)卷积的作用实际上类似全连接层的神经网络结构,从而对数据进行升降维度(取决于滤波器个数)。

池化能压缩数据的高度(\(n_H\))及宽度(\(n_W\)),而\(1 \times 1\)卷积能压缩数据的通道数(\(n_C\))。在如下图所示的例子中,用32个大小为\(1 \times 1 \times 192\)的滤波器进行卷积,就能使原先数据包含的192个通道压缩为32个。如下动图演示了\(1 \times 1\)卷积的计算:

1X1 卷积

4.Inception网络

谷歌 Inception 网络简介 Inception Network Motivation

下面介绍一下Inception网络,它是CNN分类器发展史上一个重要的里程碑。

在Google提出Inception之前,大部分流行CNN仅仅是把卷积层堆叠得越来越多,使网络越来越深,以此希望能够得到更好的性能。

大家观察我们之前介绍到的CNN典型结构,都是只选择单一尺寸和类型的滤波器。而Inception网络的作用即是代替人工来确定卷积层中的滤波器尺寸与类型,或者确定是否需要创建卷积层或池化层。

Inception 网络

如上图所示,Inception网络选用不同尺寸的滤波器进行Same 卷积,并将卷积和池化得到的输出组合拼接起来,最终让网络自己去学习需要的参数和采用的滤波器组合。

相关论文:Szegedy et al., 2014, Going Deeper with Convolutions

4.1 计算成本问题

在提升性能的同时,Inception网络有着较大的计算成本。如下图的例子:

Inception 网络

图中有\(32\)个滤波器,每个滤波器的大小为\(5 \times 5 \times 192\)。输出大小为\(28 \times 28 \times 32\),总共需要计算得到\(28 \times 28 \times 32\)个结果数,对于每个数,要执行\(5 \times 5 \times 192\)次乘法运算。加法运算次数与乘法运算次数近似相等。因此,这一层的计算量可以近似为\(28 \times 28 \times 32 \times 5 \times 5 \times 192=1.2\)亿。

Inception引入了\(1 \times 1\)卷积来减少计算量问题:

Inception 网络

如上图所示,我们先使用\(1 \times 1\)卷积把输入数据从192个通道减少到16个通道,再对这个较小层运行\(5 \times 5\)卷积,得到最终输出。这种改进方式的计算量为\(28 \times 28 \times 192 \times 16 + 28 \times 28 \times 32 \times 5 \times 5 \times 15=1.24\)千万,减少了约90%。

这里的\(1 \times 1\)的卷积层通常被称作瓶颈层(Bottleneck layer)。借助在网络中合理设计瓶颈层,可以在保持网络性能的前提下显著缩小计算规模。

4.2 完整的Inception网络

Inception 网络 Inception Network

Inception 网络

引入\(1 \times 1\)卷积后的Inception模块如上所示。注意,为了将所有的输出组合起来,红色的池化层使用Same类型的填充(padding)来池化使得输出的宽高不变,通道数也不变。

多个Inception模块组成一个完整的Inception网络(被称为GoogLeNet,以向LeNet致敬),如下图所示:

Inception 网络

注意,在上图中,Inception网络除了有许多Inception模块(图上红框框出)之外,网络中间隐藏层也可以作为输出层Softmax(图中黑色圈圈出),有利于防止发生过拟合。

经过研究者们的不断发展,Inception模型的V2、V3、V4以及引入残差网络的版本被提出,这些变体都基于Inception V1版本的基础思想上。

5.使用开源的实现方案

使用开源的实现方案 Using Open-source Implementations

很多神经网络结构复杂,且有很多细致的设计和调整,训练过程也包含非常多tricks,很难仅通过阅读论文来重现他人的成果。想要搭建一个同样的神经网络,查看开源的实现方案会快很多。

6.迁移学习

迁移学习 Transfer Learning

ShowMeAI的前序文章 AI应用实践策略(下) 中我们提到过迁移学习。计算机视觉是一个经常用到迁移学习的领域。在搭建计算机视觉的应用时,相比于从头训练权重,下载别人已经训练好的网络结构的权重,用其做预训练模型,然后转换到自己感兴趣的任务上,有助于加速开发。

对于类似前面提到的VGG/ResNet/Inception等训练好的卷积神经网络,可以冻结住所有层,只训练针对当前任务添加的Softmax分类层参数即可。大多数深度学习框架都允许用户指定是否训练特定层的权重。

冻结的层由于不需要改变和训练,可以看作一个固定函数。可以将这个固定函数存入硬盘,以便后续使用,而不必每次再使用训练集进行训练了。

吴恩达老师指出,上述的做法适用于小数据集场景,如果你有一个更大的数据集,应该冻结更少的层,然后训练后面的层。越多的数据意味着冻结越少的层,训练更多的层。如果有一个极大的数据集,你可以将开源的网络和它的权重整个当作初始化(代替随机初始化),然后训练整个网络。

迁移学习

7.数据扩增

数据扩充 Data Augmentation

计算机视觉领域的应用都需要大量的数据。当数据不够时,数据扩增(Data Augmentation)可以帮助我们构建更多的数据样本。

常用的数据扩增包括镜像翻转、随机裁剪、色彩转换等。如下图为镜像和随机裁剪得到新的图片。

数据扩增

色彩转换是对图片的RGB通道数值进行随意增加或者减少,改变图片色调。另外,PCA颜色增强指更有针对性地对图片的RGB通道进行主成分分析(Principles Components Analysis,PCA),对主要的通道颜色进行增加或减少,可以采用高斯扰动做法来增加有效的样本数量。具体的PCA颜色增强做法可以查阅AlexNet的相关论文或者开源代码。
下图为使用color shifting色调转换进行data augmentation的示例。

数据扩增

在构建大型神经网络的时候,为了提升效率,我们可以使用两个或多个不同的线程并行来实现数据扩增和模型训练。

8.计算机视觉现状

计算机视觉现状 the State of Computer Vision

深度学习需要大量数据,不同的神经网络模型所需的数据量是不同的。目标检测、图像识别、语音识别所需的数据量依次增加。一般来说,如果数据较少,那么就需要对已有数据做更多的手工工程(hand-engineering),比如上一节介绍的数据扩增操作。模型算法也需要特别设计,会相对要复杂一些。

如果数据很多,可以构建深层神经网络,不需要太多的手工工程,模型算法也就相对简单一些。

手工工程(Hand-engineering,又称hacks)指精心设计的特性、网络体系结构或是系统的其他组件。手工工程是一项非常重要也比较困难的工作。在数据量不多的情况下,手工工程是获得良好表现的最佳方式。正因为数据量不能满足需要,历史上计算机视觉领域更多地依赖于手工工程。近几年数据量急剧增加,因此手工工程量大幅减少。

计算机视觉现状

除此之外,在模型研究或者竞赛方面,有一些方法能够有助于提升神经网络模型的性能:

  • 集成(Ensembling):独立地训练几个神经网络,并平均输出它们的输出。
  • 测试阶段数据扩增(Multi-crop at test time):将数据扩增应用到测试集,对结果进行平均。

但是实际工业应用项目会考虑性能效率,上述技巧方法计算和内存成本较大,一般很少使用。

参考资料

ShowMeAI系列教程推荐

推荐文章

posted @ 2022-04-14 06:21  ShowMeAI  阅读(1490)  评论(0编辑  收藏  举报