alex_bn_lee

导航

【654】主要深度学习模型说明

[1] 五、VGG、AlexNet、ResNet网络(超详细哦)

[2]【653】FCN——全卷积网络详解

VGG

  • VGG16:包含了 16 个隐藏层(13 个卷积层 2+2+3+3+3,以及 3 个全连接层)

  • VGG19:包含了 19 个隐藏层(16 个卷积层 2+2+4+4+4,以及 3 个全连接层)

FCN

  • FCN32s:直接上采样 32 倍

  • FCN16s:先上采样 2 倍,融合后,最后上采样 16 倍

  • FCN8s:先上采样 2 倍,融合后再 2 倍,融合后,最后上采样 8 倍

ResNet

  • ResNet50:深度为 50 层 (1 + (3+4+6+3)*3 + 1)
  • ResNet101:深度为 101 层 (1 + (3+8+36+3)*3 + 1)

  附图

下面是VGG网络的结构(VGG16和VGG19都在):

 

VGG16包含了16个隐藏层(13个卷积层和3个全连接层),如上图中的D列所示。

• VGG19包含了19个隐藏层(16个卷积层和3个全连接层),如上图中的E列所示。
• 表达式的简单讲解:Conv3-512 → 第三层卷积后维度变成512;

Conv3_2s = 2 → 第三层卷积层里面的第二子层,滑动步长等于2(每次移动两个格子,后面的讲解中会用到)。

VGG网络的结构非常一致,从头到尾全部使用的是3x3的卷积和2x2的max pooling。

这里把ResNet50和ResNet101特别提出,主要因为它们的使用率很高,所以需要做特别的说明。给出了它们具体的结构:

 

 

上表是Resnet不同的结构,上表一共提出了5中深度的ResNet,分别是18,34,50,101和152,首先看表的最左侧,我们发现所有的网络都分成5部分,分别是:conv1,conv2_x,conv3_x,conv4_x,conv5_x,之后的其他论文也会专门用这个称呼指代ResNet50或者101的每部分。 例如:101-layer那列,101-layer指的是101层网络,首先有个输入7x7x64的卷积,然后经过3 + 4 + 23 + 3 = 33个building block,每个block为3层,所以有33 x 3 = 99层,最后有个fc层(用于分类),所以1 + 99 + 1 = 101层,确实有101层网络; 注:101层网络仅仅指卷积或者全连接层,而激活层或者Pooling层并没有计算在内;我们关注50-layer和101-layer这两列,可以发现,它们唯一的不同在于conv4_x,ResNet50有6个block,而ResNet101有23个block,两者之间差了17个block,也就是17 x 3 = 51层。

posted on 2021-09-03 16:23  McDelfino  阅读(129)  评论(0编辑  收藏  举报