摘要: 在人体语义分割中,像素级别的分类损失在其低级局部不一致性和高级语义不一致性方面存在缺陷。对抗性网络的引入使用单个鉴别器来解决这两个问题。然而,两种类型的解析不一致是由不同的机制产生的,因此单个鉴别器很难解决它们。为解决这两种不一致问题,本文提出了宏观 - 微观对抗网络(MMAN)。它有两个鉴别器,一个鉴别器Macro D作用于低分辨率标签图并且惩罚语义不一致性,例如错位的身体部位。另一个鉴别器Micro D专注于高分辨率标签映射的多个像素块,以解决局部不一致性,例如图片模糊和裂口。与传统的对抗性网络相比,MMAN不仅明确地强制实现了局部和语义一致性,而且避免了处理高分辨率图像时对抗性网络的收敛性差的问题。在我们的实验中,我们验证了两个鉴别器在提高人类解析准确性方面是相互补充的。与现有技术方法相比,所提出的框架能够产生有竞争力的解析性能,即分别在LIP和PASCAL-Person-Part上的mIoU = 46.81%和59.91%。在相对较小的数据集PPSS上,我们的预训练模型展示了令人印象深刻的泛化能力。该代码可在https://github.com/RoyalVane/MMAN上公 阅读全文
posted @ 2018-10-21 18:37 铃铃漆007 阅读(1090) 评论(0) 推荐(0) 编辑