【深度学习】基础网络Alexnet+VGG+Inception+Resnet+ZF+Lenet

一、Alexnet(2012)

   1.网络结构:

  

   2.意义:

   证明了CNN在复杂模型下的有效性,然后GPU实现使得训练在可接受的时间范围内得到结果。

二、VGG(由Alexnet发展而来,2014)

  1.结构:

  

三、Inception(2014)

   1.思想:(能够加宽网络获取不同特征的同时不增加计算量)

   2.演变:

   (1)Inception(GoogleNet)

    思想:在同一层用不同大小的卷积核获得不同尺度的信息,用1*1的卷积进行降维,并把他们按通道堆叠起来。

    结构:

   

      (2)Inception V2:

       在1的基础上,做了以下改进:

        使用BN层(可以使每层数据分布一致,使网络专注学习特征,而不是学习数据变化的差异);

       使用两个3*3的卷积核代替一个5*5的卷积(在保持相同感受野的情况下,减少了参数,还增加了网络的深度);

       用1*n和n*1这种非对称的卷积代替原本对称的卷积(减少了参数,增加了深度);

      (3)Inception V3:

       改进的初衷:池化再Inception降低了网络表达能力,Inception再池化则增加了网络参数,所以采用卷积核池化同时的方式。

       在2的基础上做了如下改进:

       

          (4)Inception V4:

          改进:卷积核池化各种搭配整合

          (5)Inception-Resnet:

         

   3.参考:

    https://www.sohu.com/a/166062301_465914

    https://www.cnblogs.com/yifdu25/p/8542740.html

四、Resnet(2015)

  1.思想:(能够加深网络)

   直接学习映射是比较难的,那么不再学习X-H(X)到直接映射,而是学习两者之间的差异,为了计算H(x),只要用原始项加上残差项即可。

  如果网络已经到达最优,继续加深网络,residual mapping将被push为0,只剩下identity mapping,这样理论上网络一直处于最优状态了,网络的性能也就不会随着深度增加而降低。

  2.网络结构:

   基础残差块:

  

  3.参考:

   https://www.sohu.com/a/166062301_465914

   https://blog.csdn.net/lanran2/article/details/79057994

   https://blog.csdn.net/legend_hua/article/details/79876168

五、ZF(2013):

  1.对Alenet进行少许改进。

   2.参考:http://ziyubiti.github.io/2016/11/27/cnnnet/

六、Lenet(1998):

   1.网络结构:

   

  

 

posted @ 2018-07-22 14:31  我若成风者  阅读(451)  评论(0编辑  收藏  举报