AYE89

coding & learning

导航

残差神经网络与inception-resnet

Posted on 2018-04-03 14:48  AYE89  阅读(4456)  评论(0编辑  收藏  举报

一、基本概念

Residual Connection:

  • 本质是“短路连接”
  • 如下图阴影部分,通过增加shortcuts,加速训练,从而可以训练出更深的模型(I.R.v2 > Inception v3)。更深的模型意味着可以学出更多东西,带来精度的提升。

 

I.R. v2结构,注意到图中inception区块被简化了,比先前的Inception V3种要包含更少的并行塔(parallel towers)。

Inception模块的特点,是通过这种并联结构减少参数,使得泛化性更好、降低对样本数量的要求。

实现

通过将并联部分与“短路连接”的tensors相加(或加权相加),并经过一个‘relu’激活函数。

 x = layers.add([mix0, shortcut])
 x = layers.Activation('relu')(x)

 

二、论文

为了进一步推进这个领域的进步,今天Google团队宣布发布Inception-ResNet-v2(一种卷积神经网络——CNN),它在ILSVRC图像分类基准测试中实现了当下最好的成绩。Inception-ResNet-v2是早期Inception V3模型变化而来,从微软的残差网络(ResNet)论文中得到了一些灵感。相关论文信息可以参看我们的论文Inception-v4, Inception-ResNet and the Impact of Residual Connections on LearningInception-v4, Inception-ResNet以及残差连接在学习上的影响):

Google最新开源Inception-ResNet-v2,借助残差网络进一步提升图像分类水准

残差连接(Residual connections )允许模型中存在shortcuts,可以让研究学者成功地训练更深的神经网络(能够获得更好的表现),这样也能明显地简化Inception块。

 

效果

如下方图表所示,Inception-ResNet-v2架构的精确度比之前的最优模型更高,图表中所示为基于单个图像的ILSVRC 2012图像分类标准得出的排行第一与排行第五的有效精确度。此外,该新模型仅仅要求两倍于Inception v3的容量与计算能力。

Google最新开源Inception-ResNet-v2,借助残差网络进一步提升图像分类水准

Inception-ResNet-v2具体代码实现过程参见:

https://github.com/tensorflow/models/blob/master/slim/nets/inception_resnet_v2.py