总结 分割论文

分割网络: (骨干网络) (ResNet(2015)(残差网络))(加深网络深度)Deeplab V2(2016)  :(空洞卷积)(atrous)扩大感受野大,采用ASPP空洞空间金字塔池化,实现多尺度融合 。

 

VGG16(2014): 三个3x3卷积核代替一个7x7的。

FCN(2015) : 反卷积,跳跃连接,全卷积化

PSPNet(2016):ResNet+金字塔池化模块(整合上下文信息)

 

常用技术:

CRF:  迭代细化结果;

     条件随机场CRF尝试找到图像像素之间的关系 : 相近的像素大概率为同一标签;CRF考虑在一个像素点标签分配概率;

 

(空洞卷积)(atrous):   不丢失分辨率的情况下 扩大感受野大;不同空洞率有不同的感受野大小,捕获多尺度上下文信息

          空洞卷积gridding问题:其实就是网格效应/棋盘问题: 局部信息丢失; 远距离获取的信息没有相关性                                          三种解决方法:Removing max pooling;Adding layers;Removing residual connections

池化:扩大感受野,降低分辨率,丢失空间信息  

上采样:二次线性插值 

1x1卷积核:降维(降低或增加通道数),重新整合信息,增加非线性

 

现有方法:

AdaptSegNet (2018) : 最后两层网络DA(多级对抗);Deeplab V2 分割;GAN;输出具有结构化;不同域之间的特征对齐;

    问题:难自适应的物体难对齐  

     研究方向:降低域漂移

    基于特征的自适应

 

CLAN(2019):解决GAN全局对齐造成的负迁移问题;

      方法:局部对齐分数图(不同局部对齐分数给予不同权重)

 

 

DAST(2020):(两级DA)判别器注意力机制+自训练    (目的:提高难对齐的特征的对齐精度)

          判别器注意力机制(发现和矫正):两个阶段对抗学习:找出对齐不好的特征(形成注意力图);让模型注重对齐不好的特征(重新加权)

          (微调分割网络) 自训练:因为分割网络的决策边界会偏向S,所以自训练是为了促进域不变特性的提取,自适应的为T改善决策边界;

 

posted @ 2021-12-16 20:49  ethan178  Views(39)  Comments(0Edit  收藏  举报