卷积相关知识

一、卷积后特征图大小

1.卷积后尺寸计算

  • 卷积核大小 \(F\times F\)
  • 输入图片大小 \(W\times W\)
  • 步长 S
  • padding大小 P

输出特征图大小为 \(N\times N\)
\(N = (W-F+2\times P)/S + 1\)

2.池化后尺寸计算

  • 卷积核大小 \(F\times F\)
  • 输入图片大小 \(W\times W\)
  • 步长 S

输出特征图大小为 \(N\times N\)
\(N = (W-F)/S + 1\)

二、典型的卷积神经网络技巧

1. 使用多层小尺寸卷积核代替大尺寸卷积核

VGG16相比于AlexNet的一个改进是采用3个\(3\times 3\)的卷积核代替AlexNet中较大的\(7\times 7\)卷积核,采用2个\(3\times 3\)的卷积核代替AlexNet中较大的\(5\times 5\)卷积核。这样做的目的是在具有相同感受野的条件下,多层非线性层可以增加网络深度来保证学习更复杂的模式,并且参数更少。

另外VGG提出了VGG块,在每个VGG块中输入和输出通道相同,模块化的思想使其结构简洁;验证了通过不断加深网络结构可以提升性能;但VGG块参数更多,绝大多数参数都是来自于第一个全连接层,VGG有3个全连接。

2.激活函数的作用

增加模型的非线性表达能力

3.1*1卷积核的作用

在NIN中提出:

在二维卷积层后添加了两个\(1\times 1\)卷积。

a.在不改变特征图尺寸的前提下去改变通道数(升维降维)
b.增加了网络局部模块的抽象能力;
c.跨通道特征融合

  • 卷积层中的卷积层的通道C只能设定为该层输入数据的通道C,而大小可以自定义(FH,FW);
  • 卷积层中的卷积核的数量FN==输出特征图的通道数;

2.全局池化

在NIN中使用GAP
a.相对于全连接层(充当另一个黑盒子),相比之下通过强制执行特征图和类别之间的对应关系,相对于卷积结构更为原生, 可以明确地将特征图强制为概念(类别)的置信度图。
b.全局平均池化汇总了空间信息,因此对输入的空间转换更加健壮;
c.在全局平均池化中没有要优化的参数,因此在此层避免了过拟合。

参考链接:
1.一文读懂VGG网络
2.1维卷积核有什么作用?

posted @ 2023-01-20 22:08  longRookie  阅读(68)  评论(0编辑  收藏  举报
最简单即最美
有了信仰,自己要坚持努力 2017.07.09 21:34