哪有什么岁月静好,不过是有人替你负重前行!

Hide-and-Seek: Forcing a Network to be Meticulous for Weakly-Supervised Object and Action Localization概述

0.前言

  • 相关资料:

  • 论文基本信息:

    • 领域:弱监督动作定位

    • 发表时间:ICCV2017

1.针对的问题

  大多数网络只识别图像最具有鉴别力的部分,不是所有相关的部分,导致性能不佳。

2.主要贡献

  1)引入了弱监督定位的Hide-and-Seek思想,并在ILSVRC数据集上产生了最先进的目标定位结果。

  2)证明了该方法在不同网络和层上的泛化性。

  3)将这一思想扩展到相对未被探索的弱监督时序动作定位任务。

3.方法

  关键思想是在训练图像中随机隐藏patch,当隐藏最具判别性的部分时,迫使网络去寻找其他相关的部分。

  方法概述。左:给定一个训练图片I,大小为W×H×3,用一个固定大小的网格S×S×3划分图片。然后将每个patch以概率phide随机隐藏,并作为输入给CNN。对于同一张图片,在每个训练epoch,随机隐藏一组不同的块。右:在测试过程中,将没有任何隐藏补丁的完整图像作为训练网络的输入。  

   问题:由于训练时隐藏块与测试时不隐藏块的差异,第一个卷积层的激活在训练和测试时会有不同的分布。要使训练好的网路能够很好地泛化新的测试数据,其激活的分布要大致相等。也就是说,对于神经网络中的任何一个单元,只要它连接到x个单元,并且输出的权值为w,它的分布wTx在训练和测试期间要大致相同。然而,在文章的设置中,情况不一定是这样的,因为每个训练图像中的一些块将被隐藏,而每个测试图像中的块将不会被隐藏。

  具体:
  在文章的设置中,假设有一个卷积过滤器F,其内核大小为K×K。还有一个3维的权重W = {w1,w2,...,wk×k},其应用在图片I'的一个RGB块X = {x1,x2,...,xk×k}。向量v表示每个隐藏像素的RGB值。则有以下三种激活方式:

  1.F完全在可见的块中(如下图中的蓝色方块),其对应输出为

  2.F完全在隐藏的块中(如下图中的红色方块),其对应输出为

  3.F部分在隐藏的块中(如下图中的绿色方块),其对应输出为

  在测试时,F永远在可见的块中,则输出为,这仅与第一种情况匹配。对于剩下两种情况,激活分布会与测试的不同。

  解决:通过设置隐藏像素的RGB值v等于整个数据集上图像的平均RGB向量来解决这个问题,公式如下:

  j表示整个训练集中所有的像素索引,Npixels表示总像素数。这样有效的原因是作者假设,在这种情况下,3种情况的输出近似。

 

posted @ 2022-06-20 15:28  Lhiker  阅读(87)  评论(0编辑  收藏  举报