Deep Layer Aggregation论文笔记

概述

之前的组会中孙文宇学长分享了CenterNet,李普学长分享了FPN,DLA起到了承上启下的作用。

这篇顶会论文由UC Berkeley研究员Fisher Yu所在团队提出并发表:

1、 是将现今的网络结构由具像总结至抽象

2、 提出两种抽象的网络架构:Stage之间使用iterative layer aggregation,Stage内使用Hierarchical layer aggregation。我把他们称为迭代聚合以及层次聚合,

两个模型类似SENet,容易扩展在已有网络结构中。

迭代深层聚合

深层阶段的语义信息很丰富但是空间上比较粗糙。将低层阶段通过跳跃连接到高层阶段来融合尺寸和分辨率。但现有的跳跃连接都是线性的,例如U-Net。

个人理解的迭代:上采样后的Stage与前一聚合节点融合后,迭代成为新的聚合节点。

优点

1、融合分辨率和尺寸

2、避免最浅层的部分会对最终结果产生最深远影响

 

分层深度聚合

论文对原始的树结构进行改进,我们来找不同

首先是

1 引入可重入,将聚合节点的输出作为下一个子树的输入反馈到主干中;

2 取消了右节点,合并同一层次连续的聚合,个人觉得它是为了层次的多样性,例如将高度为0层、1层、2层相融合,而不是两个高度为2层的进行融合。

HDA将较浅和较深的层组合起来,以学习更丰富的、跨越层次的组合特征,同时也提高了效率。

 残差块

网络结构

选取三个具有代表性的:

-34采用Basic残差块,它也是CenterNet的BackBone;

-60 采用Bottleneck残差块,它的结构刚好对应下图所示结构;

-X-60 采用Split残差块,其中-C代表该模型小巧,参数只有1百万左右。

实验效果

1、模型压缩,DLA与SqueezeNet在ImageNet2012上的训练模型结果:

可以看到在参数几乎持平的情况下,Top1错误率下降了7个点。

2、语义分割,评价标准为交并比,数值越大表示越精确;

文章中说自己State of the art ,业界最强

 

posted @ 2020-05-08 17:55  Gumpest  阅读(490)  评论(0编辑  收藏  举报