Fork me on GitHub

深度学习论文翻译解析(十三):Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

论文标题:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

  标题翻译:基于区域提议(Region  Proposal)网络的实时目标检测

论文作者:Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun

论文地址:https://arxiv.org/abs/1506.01497

Faster RCNN 的GitHub地址:https://github.com/rbgirshick/py-faster-rcnn

参考的Faster R-CNN翻译博客:https://github.com/SnailTyan/deep-learning-papers-translation

声明:小编翻译论文仅为学习,如有侵权请联系小编删除博文,谢谢!           

  小编是一个机器学习初学者,打算认真研究论文,但是英文水平有限,所以论文翻译中用到了Google,并自己逐句检查过,但还是会有显得晦涩的地方,如有语法/专业名词翻译错误,还请见谅,并欢迎及时指出。

如果需要小编其他论文翻译,请移步小编的GitHub地址

  传送门:请点击我

  如果点击有误:https://github.com/LeBron-Jian/DeepLearningNote

前言

  Faster RCNN 是何凯明等大神在 2015年提出目标检测算法,该算法在 2015年的 ILSVRC 和 COCO竞赛中获得多个第一。该算法在Fast RCNN基础上提出了RPN候选框生成算法啊,使得目标检测速度大大提高。

  《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks收录于Neural Information Processing Systems (NIPS), 2015( Meachine Learning领域的顶会)。R-CNN和Fast R-CNN引领了近两年目标检测的潮流,Fast R-CNN对R-CNN进行了加速,而这篇Faster R-CNN则进一步对Fast R-CNN进行了加速,使得这种基于CNN的目标检测方法在real-time上看到了希望,使之运用到工程上成为了可能。

  下面对RCNN系列算法进行比较:

1,R-CNN

  (1) image input

  (2) 利用 Selective Search 算法在图像中从上到下提取 2000 个左右的 建议窗口(Region Proposal)

  (3)将每个 Region Proposal缩放(warp)成 227*227 的大小并输入到 CNN,将 CNN的 fc7 层的输出作为特征

  (4)将每个Region Proposal 提取的CNN特征输入到 SVM进行分类

  (5)对于SVM分好类的Region Proposal 做边框回归,用 Bounding Box 回归值矫正原来的建议窗口,生成预测窗口坐标

缺陷

  (1)训练分为多个阶段,步骤繁琐:微调网络 + 训练SVM + 训练边框回归器

  (2)训练耗时,占用磁盘空间大;5000张图像产生几百G的特征文件

  (3)速度慢:使用GPU,VGG16模型处理一张图像需要 47s

  (4)测试速度慢:每个候选区域需要运行整个前向CNN计算

  (5)SVM和回归是事后操作,在SVM和回归过程中CNN特征没有被学习更新

2,Fast-RCNN

  (1)image input

  (2)利用Selective Search 算法在图像中从上到下提取 2000个左右的建议窗口(Region Proposal)

  (3)将整张图片输入 CNN,进行特征提取

  (4)把建议窗口映射到 CNN 的最后一层卷积 feature map上

  (5)通过 ROI pooling层使每个建议窗口生成固定尺寸的 feature map

  (6)利用Softmax Loss(探测分类概率)和 Smooth L1 Loss(探测边框回归)对分类概率和边框回归(Bounding Box Regression)联合训练

  相比于 R-CNN,主要两处不同

  (1)最后一层卷积层后加了一个 ROI pooling layer

  (2)损失函数使用了多任务损失函数(multi-task loss),将边框回归直接加入到 CNN 网络中训练改进

  相比如R-CNN,其改进如下

  (1)测试时速度慢:R-CNN把一张图新分解成大量的建议框,每个建议框拉伸形成的图像都会单独通过 CNN 提取特征,实际上这些建议框之间大量重叠,特征值之间完全可以共享,造成了运算能力的浪费

            Fast R-CNN 将整张图像归一化后直接送入CNN,在最后的卷积层输出的 feature map上,加入建议框信息,使得在此之前的CNN运算得以共享

  (2) 训练时速度慢:R-CNN在训练时,是在采用SVM分类之前,把通过CNN提取的特征存储在硬盘上,这种方法造成了训练性能低下,因为在硬盘上大量的读写数据会造成训练速度缓慢

             Fast R-CNN 在训练时候,只需要将一张图新送入网络,每张图像一次性的提取CNN特征和建议区域,训练数据在GPU内存里直接进Loss层,这样候选区域的前几层特征不需要再重复计算且不再需要把大量数据存储在硬盘上

  (3)训练所需空间大:R-CNN中独立地SVM分类器和回归器需要大量特征作为训练样本,需要大量的硬盘空间

                 Fast R-CNN把类别判断和位置回归统一用深度网络实现,不再需要额外存储

  (4)由于ROI pooling层的提出,不需要再input进行Crop和Wrap操作,避免像素的损失,巧妙的解决了尺度缩放问题

3,Faster R-CNN

  (1)image input

  (2)将整张图片输入CNN,进行特征提取

  (3)用 RPN 先生成一堆Anchor box,对其进行裁剪过滤后通过Softmax判断 anchors属于前景(foreground)或者后景box,形成较精确的 proposal(注:这里的较精确是相对于后面全连接层的再一次 box regression 而言)

  (4)把建议窗口映射到CNN的最后一层卷积feature map上

  (5)通过 ROI pooling层使每个ROI生成固定尺度的 feature map

  (6)利用Softmax Loss(探测分类概率)和Smooth L1 Loss(探测边框回归)对分类概率和边框回归(Bounding box regression)联合训练

  相比Fast R-CNN,主要两处不同

  (1)使用RPN(Region Proposal Network)代替原来的Selective Search方法产生建议窗口

  (2)产生建议窗口的 CNN和目标检测的CNN共享

  相比Fast R-CNN,其改进如下

  (1)如何高效快速产生建议框?

    Faster R-CNN 创造性地采用卷积网络自行产生建议框,并且和目标检测网络共享网络,使得建议框数目从原有的约 2000 个减少为 300个,且建议框的质量也有本质的提高

  R-CNN系列的时间对比:

摘要

  最先进的目标检测网络依靠区域提议算法来假设目标的位置。SPP-net【1】和Fast R-CNN【2】等研究已经减少了这些检测网络的运行时间,使得区域提议计算成为一个瓶颈。在这项工作中,我们引入了一个区域提议网络(RPN),该网络与检测网络共享全图像的卷积特征。从而使近乎零成本的区域提议成为可能。RPN是一个全卷积网络,可以同时在每个位置预测目标边界和目标分数。RPN 经过端到端的训练,可以生成高质量的区域提议,由Fast R-CNN用于检测。我们将RPN和Fast R-CNN通过共享卷积特征进一步合并为一个单一的网络——使用最近流行的具有“注意力”机制的神经网络术语,RPN组件告诉统一网络在哪里寻找。对于非常深的VGG-16模型【3】,我们的检测系统在GPU上的帧率为 5fps(包括所有步骤),同时在PASCAL VOC 2007,2012和MS COCO数据集上实现了最新的目标检测精度,每个图像只有300个提议。在ILSVRC和COCO 2015竞赛中,Faster R-CNN和RPN是多个比赛中获得第一名输入的基础。代码可公开获得。

1,引言

  目标检测的最新进展是由区域提出方法(例如[4])和基于区域的卷积神经网络(R-CNN)[5] 的成功驱动的。尽管在 [5] 中最初开发的基于区域的CNN计算成本很高,但是由于在各种提议(proposals)中共享卷积,所以其成本已经大大降低了[1],  [2]。当忽略花费在区域提议(region proposals)上的时间,最新版本 Fast R-CNN【2】利用非常深的网络【3】实现了接近实时的速率。现在,提议(proposals)是最新的检测系统中测试时间的计算瓶颈。

  区域提议方法通常依赖廉价的特征和简练的推断方案。选择性搜索【4】是最流行的方法之一,它贪婪地合并基于设计的低级特征的超级像素。然而,与有效的检测网络【2】相比,选择性搜索速度慢了一个数量级,在CPU实现中每张图像的时间为2秒。EdgeBoxes【6】目前提供了在提议质量的速度之间的最佳权衡,每张图像 0.2秒。尽管如此,区域提议步骤仍然像检测网络那样消耗同样多的运行时间。

   有人可能会注意到,基于区域的快速CNN利用GPU,而在研究中使用的区域提议方法在CPU上实现,使得运行时间比较不公平。加速区域提议计算的一个显而易见的方法是将其在GPU上重新实现。这可能是一个有效的工程解决方案,但重新实现忽略了下游检测网络,因此错过了共享计算的主要机会。

  在本文中,我们展示了算法的变换——用深度卷积神经网络计算区域提议——导致了一个优雅和有效的解决方案,其中在给定检测网络计算的情况下区域提议计算接近零成本。为此,我们引入了新的区域提议网络(RPN),他们共享最先进目标检测网络的卷积层【1】【2】。通过在测试时共享卷积,计算区域提议的边际成本很小(例如,每张图像 10ms)。

  我们的观察是,基于区域的检测器所使用的卷积特征映射,如Fast R-CNN,也可以用于生成区域提议,在这些卷积特征之上,我们通过添加一些额外的卷积层来构建 RPN,这些卷积层同时在规则网络上的每个位置上回归区域边界和目标分数。因此RPN是一个全连接层网络(FCN)【7】,可以针对生成检测区域建议的任务进行端到端的训练。

  RPN旨在有效预测具有广泛尺度和长宽比的区域提议。与使用图像金字塔(图1,a)或滤波金字塔(图1,b)的流行方案【8】【9】【1】相比,我们引入新的“锚”(anchor)盒作为多种尺度和长宽比的参考。我们的方案可以被认为是回归参考金字塔(图1,c),它避免了枚举多种比例或长宽比的图像或滤波器。这个模型在使用单尺度图像进行训练和测试时运行良好,从而有利于运行速度。

  为了将RPN与Fast R-CNN【2】目标检测网络相结合,我们提出了一种训练方案,在微调区域提议任务和微调目标检测之间进行交替,同时保持区域提议的固定。该方案快速收敛,并产生两个任务之间共享的具有卷积特征的统一网络。

  我们在PASCAL VOC检测基准数据集上【11】综合评估了我们的方法,其中具有Fast R-CNN的RPN产生的检测精度优于使用选择性搜索的Fast R-CNN的强基准。同时,我们的方法在测试时几乎免除了选择性搜索的所有计算负担——区域提议的有效运行时间仅为 10 毫秒。使用【3】的昂贵的非常深的模型,我们的检测方法在 GPU上仍然具有 5fps的帧率(包括所有步骤),因此在速度和准确性方面是实用的目标检测系统,我们还报告了在 MS COCO数据集上【12】的结果,并使用COCO数据研究了在PASCAL VOC上的改进。代码可公开获得:https://github.com/shaoqingren/faster_rcnn(在MATLAB中)和https://github.com/rbgirshick/py-faster-rcnn(在Python中)。

   这个手稿的初步版本是以前发表的【10】。从那时起,RPN和Faster R-CNN的框架已经被采用并推广到其他方法,如3D目标检测【13】,基于部件的检测【14】,实例分割【15】和图像标题【16】。我们快速和有效的目标检测系统也已经在Pinterest【17】的商业系统中建立了,并报告了用户参与度的提高。

   在 ILSVRC 和COCO2015竞赛中,Faster R-CNN和RPN 是imageNet检测,ImageNet定位,COCO检测和COCO分割中几个第一名参赛者【18】的基础。RPN完全从数据中学习提议区域,因此可以从更深入和更具表达性的特征(例如【18】中采用的 101残差网络)中轻松获益。Faster R-CNN和RPN也被这些比赛中的其他几个主要参赛者所使用。这些结果表明,我们的方法不仅是一个实用核算的解决方案,而且是一个提高目标检测精度的有效方法。

2,相关性工作

  目标提议。目标提议方法方面有大量的文献。目标提议方法的综合调查和比较可以在【19】【20】【21】中找到。广泛使用的目标提议方法包括基于超像素分组(例如。选择性搜索【4】,CPMC【22】,MCG【23】)和那些基于滑动窗口的方法(例如窗口中的目标【24】,EdgeBoxes【6】)。目标提议方法被采用为独立于检测器(例如,选择性搜索【4】,目标检测器,R-CNN【5】和Fast R-CNN【2】)的外部模块。

  用于目标检测的深度网络。R-CNN方法【5】端到端的对CNN进行训练,将提议区域分类为目标类别或背景。R-CNN主要作为分类器,并不能预测目标边界(除了通过边界框回归进行细化)。其准确度取决于区域提议模块的性能(参见【20】中的比较)。一些论文提出了使用深度网络来预测目标边界框的方法【25】【9】【26】【27】。在OverFeat方法【9】中,训练一个全连接层来预测假定单个目标定位任务的边界框坐标。然后将全连接层变为卷积层,用于检测多个类别的目标。MultiBox方法【26】【27】从网络中生成区域提议,网络最后的全连接层同时预测多个类别不相关的边界框,并推广到OverFeat的“单边界框”方式。这些类别不可知的边界框框被用作R-CNN的提议区域【5】。与我们的全卷积方案相比,MultiBox提议网络适用于单张裁剪图像或多张大型裁剪图像(例如 224*224)。MultiBox在提议区域和检测网络之间不共享特征。稍后在我们的方法上下文中会讨论OverFeat和MultiBox。与我们的工作同时的进行DeepMask方法【28】是为学习分割提议区域而开发的。

   卷积【9】【1】【29】【7】【2】的共享计算已经越来越受到人们的关注,因为它可以有效而准确地进行视觉识别。OverFeat论文【9】计算图像金字塔的卷积特征用于分类,定位和检测。共享卷积特征映射的自适应大小池化(SPP)【1】被开发用于有效的基于区域的目标检测【1】【30】和语义分割【29】。Fast R-CNN【2】能够对共享卷积特征进行端到端的检测器训练,并显示了令人信服的准确性和速度。

   从上面的三张图可以看出,Faster R-CNN由以下几部分组成:

  (1)数据集,image input

  (2)卷积层CNN等基础网络(比如VGG-16, ResNet, MobileNet等基础网络),提取特征得到feature map

  (3-1)RPN层,再在经过卷积层提取到的 feature map上用一个 3*3 的 slide window,去遍历整个 feature map,在遍历过程中每个 window 中心按照 rate, scale(1:2  1:1  2:1)生成 9个 anchors,然后再利用全连接对每个 anchors 做二分类(是前景还是背景)和初步 bbox regression,最后输出比较精确的 300个 ROIs

  (3-2)把经过卷积层 feature map 用 ROI pooling固定全连接层的输入维度

  (4)最后把经过RPN输出的 ROIs映射到 ROI pooling的feature map 上进行 bbox回归和分类。

3, Faster R-CNN

  我们的目标检测系统,称为Faster R-CNN,由两个模块组成。第一个模块是提议区域的深度全卷积网络,第二个模块是使用提议区域的Fast R-CNN检测器【2】。整个系统是一个单个的,统一的目标检测网络(图2)。使用最近流行的“注意力”【31】机制的神经网络术语,RPN模块告诉 Fast R-CNN模块在哪里寻找。在第3.1节中,我们介绍了区域提议网络的设计和属性。在第3.2节中,我们开发了用于训练具有共享特征模块的算法。

3.1  区域提议网络

  区域提议网络(RPN)以任意大小的图像作为输入,输出一组矩形的目标提议,每个提议都有一个目标得分。我们用全卷积网络【7】对这个过程进行建模,我们将在本节进行描述。因为我们的最终目标是与Fast R-CNN目标检测网络【2】共享计算,所以我们假设两个网络共享一组共同的卷积层。在我们的实验中,我们研究了具有5个共享卷积层的Zeiler和Fergus模型【32】(ZF)和具有13个共享卷积层的Simonyan和Zisserman模型【3】(VGG-16)。

  为了生成区域提议,我们在最后的共享卷积层输出的卷积特征映射上滑动一个小网络。这个小网络将输入卷积特征映射的 n*n 空间窗口作为输入。每个滑动窗口映射到一个低维特征(ZF为256维,VGG为512维,后面是ReLU【33】)。这个特征被输入到两个子全连接层——一个边界框回归层(Reg)和一个边界框分类层(Cls)。在本文中,我们使用 n=3,注意输入图像上的有效感受野是大的(ZF和VGG分别为 171 和 228个像素)。图3(左)显示了这个小型网络的一个位置。请注意,因为小网络以滑动窗口方式运行,所有空间位置共享全连接层。这个架构通过一个 n*n 的卷积层,后面是两个子 1*1 卷积层(分别用于Reg和Cls)自然地实现。

3.1.1 锚点

  在每个滑动窗口位置,我们同时预测多个区域提议,其中每个位置可能提议的最大数目表示为k,因此,reg层具有 4k 个输出,编码 k 个边界框的坐标。cls层输出 2k 个分数,估计每个提议是目标或不是目标的概率。相对于我们称之为锚点的 k 个参考边界框, k 个提议是参数化的。锚点位于所讨论的滑动窗口的中心,并与一个尺度和长宽比相关(图3左)。默认情况下,我们使用3个尺度和3个长宽比,在每个滑动位置产生 k=9个锚点。对于大小为W×H(通常约为2400)的卷积特征映射,总共有WHk个锚点。

平移不变的锚点

  我们方法的一个重要特性是它是平移不变的。无论是在锚点还是计算相对于锚点的区域提议的函数。如果在图像中平移目标,提议应该平移,并且同样的函数应该能够在任一位置预测提议。平移不变特性是由我们的方法保证的。作为比较,MultiBox方法【27】使用K-Means 生成 800 个锚点,这不是平移不变的。所以如果要平移目标,MultiBox不保证会生成相同的提议。

  平移不变性也减少了模型的大小,MultiBox 有 (4+1)*800 维的全连接输出层,而我们的方法在 k=9 个锚点的情况下有 (4+2)*9 维的卷积输出层。因此,对于VGG-16,我们的输出层具有 2.8*104 个参数(对于VGG-16为 512*(4+2)*9),比MultiBox 输出层的 6.1*106 个参数少了两个数量级(对于MultiBox【27】中的 GoogLeNet【34】为 1536*(4+1)*800) ,如果考虑到特征投影层,我们的提议层仍然比 MultiBox 少一个数量级。我们期待我们的方法在 PASCAL VOC 等小数据集上有更小的过拟合风险。

多尺度锚点作为回归参考

  我们的锚点设计提出了一个新的方案来解决多尺度(和长宽比)。如图1所示,多尺度预测有两种流行的方法。第一种方法是基于图像/特征金字塔,例如DPM【8】和基于CNN的方法【9】,【1】,【2】中。图像在多个尺度上进行缩放,并且针对每个尺度(图1(a))计算特征映射(HOG【8】或深度卷积特征【9】,【1】,【2】)。这种方法通常是有效的,但是非常耗时。第二种方法是在特征映射上使用多尺度(和长宽比)的滑动窗口。例如,在DPM【8】中,使用不同的滤波器大小(例如 5*7 和 7*5)分别对不同长宽比的模型进行训练。如果用这种方法来解决多尺度问题,可以把它看做是一个“滤波器金字塔”(图1(b)),第二种方法通常与第一种方法联合采用【8】。

  作为比较,我们的基于锚点方法建立在锚点金字塔上,这是更具成本效益的。我们的方法参照多尺度和长宽比的锚盒来分类和回归边界框。它只依赖单一尺度的图像和特征映射,并使用单一尺度的滤波器(特征映射上的滑动窗口)。我们通过实验来展示这个方法解决多尺度和尺寸的效果(表8)。

  由于这种基于锚点的多尺度设计,我们可以简单的使用在单尺度图像上计算的卷积特征,Fast R-CNN检测器也是这样做的【2】。多尺度锚点设计是共享特征的关键组件,不需要额外的成本来处理尺度。

3.1.2  损失函数

  为了训练RPN,我们为每个锚点分配一个二值类别标签(是目标或不是目标)。我们给两种锚点分配一个正标签:(i)具有与实际边界框的重叠最高交并比(IoU)的锚点,或者(ii)具有与实际边界框的重叠超过 0.7 IoU的锚点。注意,单个真实边界框可以为多个锚点分配正标签。通常第二个条件足以确定正样本;但我们仍然采用第一个条件,因为在一些极少数情况下,第二个条件可能找不到正样本。对于所有的真实边界框,如果一个锚点的 IoU 比率低于 0.3,我们给非正面的锚点分配一个负标签。即不正面也不负面的锚点不会有助于训练目标函数。

  根据这些定义,我们对目标函数Fast R-CNN【2】中的多任务损失进行最小化,我们对图像的损失函数定义为:

   其中,i表示一个小批量数据中锚点的所有,pi 是锚点 i 作为目标的预测概率,如果锚点位正,真实标签 pi* 为1,如果锚点位负,则为0,ti 是表示预测边界框 4个参数化坐标的向量,而 ti 是与正锚点相关的真实边界框的向量。分类损失 Lcls 是两个类别上(目标或不是目标)的对数损失。对于回归损失,我们使用 Lreg ,其中R是在【2】定义的鲁棒损失函数(平滑项 L1),项 pi*Lreg 表示回归损失仅对正锚点激活,否则被禁用 pi=0,cls和reg层的输出分别由 pi 和 ti 组成。

   这两个项用 Ncls 和 Nreg 进行标准化,并由一个平衡参数 lambda 加权。在我们目前的实现中(如发布的代码中),方程(1)中 cls 项通过小批量数据的大小(即 Ncls=256)进行归一化,reg项根据锚点位置的数量(即 Nreg~2400) 进行归一化。默认情况下我们设置 lambda的值不敏感(表9)。我们还注意到,上面的归一化不是必须的,可以简化。

   对于边界框回归,我们采用【5】中的4个坐标参数化:

   其中,x, y, w和 h 表示边界框的中心坐标及其宽和高,变量 x, xa和 x* 分别表示预测边界框,锚盒和实际边界框(类似于 y, w, h)。这可以被认为是从锚盒到邻近的实际边界框的回归。

  然而,我们的方法通过与之前的基于ROI(感兴趣区域)方法【1】【2】不同的方法来实现边界框回归。在【1】【2】中,对任意大小的 ROI 池化的特征执行边界框回归,并且回归权重由所有区域大小贡献。在我们的公式中,用于回归的特征在特征映射上具有相同的空间大小(3*3)。为了说明不同的大小,学习一组 k 个回归器不共享权重。因此,由于锚点的设计,即使特征具有固定的尺度/比例,仍然可以预测各种尺寸的边界框。

3.1.3 训练RPN

  RPN 可以通过反向传播和随机梯度下降(SGD)进行端到端训练【35】。我们遵循【2】的“以图像为中心”的采样策略来训练这个网络。每个小批量数据都从包含许多正面和负面示例锚点的单张图像中产生。对所有锚点的损失函数进行优化是可能的,但是这样会偏向于负样本,因为他们是占主导地址的。取而代之的是,我们在图像中随机采样 256个锚点,计算一个小批量数据的损失函数,其中采样的正锚点和负锚点的比例可达1:1.如果图像中的正样本少于 128个,我们使用负样本填充小批量数据。

  我们通过从标准方差为 0.01 的零均值高斯分布中提取权重来随机初始化所有新层。所有其他层(即共享卷积层)通过预训练的 ImageNet 分类模型【36】来初始化,如同标准实践【5】。我们调整 ZF 网络的所有层,以及VGG网络的 conv3_1 及其之上的层以节省内存【2】。对于 60k的小批量数据,我们使用 0.001 的学习率,对于PASCAL VOC 数据集中的下一个 20k小批量数据,使用 0.0001。我们使用 0.9 的动量和 0.00005的重量衰减【37】,我们的实现使用 Caffe【38】。

3.2 RPN 和 Fast R-CNN 共享特征

  到目前为止,我们已经描述了如何训练用于区域提议生成的网络,没有考虑将利用这些提议的基于区域的目标检测CNN。对于检测网络,我们采用 Fast R-CNN【2】。接下来我们介绍一些算法,学习由 RPN 和Fast R-CNN 组成的具有共享卷积层的统一网络(图2)。

  独立训练的 RPN 和 Fast R-CNN 将以不同的方式修改卷积层。因此,我们需要开发一种允许在两个网络之间共享卷积层的技术,而不是学习两个独立的网络。我们讨论三个方法来训练具有贡献特征的网络:

  (i)交替训练。在这个解决方案中,我们首先训练RPN,并使用这些提议来训练 Fast R-CNN。由 Fast R-CNN微调的网络然后被用于初始化 RPN,并且重复这个过程,这是本文所有实验中使用的方案。

  (ii)近似联合训练。在这个解决方案中,RPN和Fast R-CNN网络在训练期间合并成一个网络,如图2所示。在每次SGD迭代中,前向传递生成区域提议,在训练Fast R-CNN检测器将看做是固定的,预计算的提议。反向传播像往常一样进行,其中对共享层,组合来自RPN损失和Fast R-CNN损失的反向传播信号。这个解决方案很容易实现。但是这个解决方案忽略了关于提议边界框的坐标(也是网络响应)的导数,因此是近似的。在我们的实验中,我们实验发现这个求解器产生了相当的结果,与交替训练相比,训练时间减少了大约 25~50%。这个求解器包含在我们发布的Python代码中。

   (iii)非近似的联合训练。如上所述,由RPN预测的边界框也是输入的函数。Fast R-CNN中的 ROI池化层【2】接受卷积特征以及预测的边界框作为输入,所以理论上有效的反向传播求解器也应该包含关于边界框坐标的梯度。在上述近似联合训练中,这些梯度被忽略。在一个非近似的联合训练解决方案中,我们需要一个关于边界框坐标可微分的ROI池化层。这是一个重要的问题,可以通过 【15】中提出的 “ROI扭曲”层来给出解决方案,这超出了本文范围。

   四步交替训练。在本文中,我们采用实用的四步训练算法,通过交替优化学习共享特征。在第一步中,我们按照3.1.3 节的描述训练RPN。该网络使用 ImageNet的预训练模型进行初始化,并针对区域提议任务进行了端到端的微调。在第二步中,我们使用由第一步RPN生成的提议,由Fast R-CNN训练单独的检测网络。该检测网络也由ImageNet的预训练模型进行初始化。此时两个网络不共享卷积层。在第三步中,我们使用检测器网络来初始化RPN训练,但是我们修正共享的卷积层,并且只对RPN特有的层进行微调。现在这两个网络共享卷积层。最后,保持共享卷积层的固定,我们对Fast R-CNN的独有层进行微调。因此,两个网络共享相同的卷积层形成统一的网络。类似的交替训练可以运行更多的迭代,但是我们只观察到可以忽略的改进。

3.3  实现细节

   我们在单尺度图像上训练和测试区域提议和目标检测网络【1】【2】。我们重新缩放图像,使得它们的短边是 s=600 像素。多尺度特征提取(使用图像金字塔)可能会提高精度,但不会表现出速度与精度的良好折衷【2】。在重新缩放的图像上,最后卷积层上的 ZF 和 VGG网络的总步长为 16个像素,因此在调整大小(~500*375)之前,典型的PASCAL 图像上的总步长为~10个像素。即使如此大的步长也能提供良好的效果,尽管步幅更小,精度可能会进一步提高。

  对于锚点,我们使用三个尺度,边界框面积分别为128*128, 256*256,512*512 的像素,以及1:1, 1:2 和 2:1 的长宽比。这些超参数不是针对特定数据集仔细选择的,我们将在下一节中提供有关其作用的消融实验。如上所示,我们的解决方案不需要图像金字塔或滤波器金字塔来预测多个尺度的区域,节省了大量的运行时间。图3(右)显示了我们的方法在广泛的尺度和长宽比方面的能力。表1显示了使用ZF网络的每个锚点学习到的平均提议大小。我们注意到,我们的算法运行预测比基础感受野更大。这样的预测不是不可能的——如果只有目标的中间部分是可见的,那么仍然可以粗略地推断出目标的范围。

  跨越图像边界的锚盒需要小心处理。在训练过程中,我们忽略了所有的跨界锚点,所以不会造成损失。对于一个典型的 1000*600图像,总共将会有大约 20000(approx 60*40*9)个锚点。跨界锚点被忽略,每张图像约有 6000个锚点用于训练。如果跨界异常值在训练中不被忽略,则会在目标函数中引入大的,难以纠正的误差项,且训练不会收敛。但是在测试过程中,我们仍然将全卷积RPN应用于整张图像。这可能会产生跨边界的提议边界框,我们剪切到图像边界。

   一些RPN提议互相之间高度重叠。为了减少冗余,我们在提议区域根据他们的cls分数采取非极大值抑制(NMS)。我们将NMS的 IoU阈值固定为 0.7,这就给出每张图像留下了大约2000个提议区域。正如我们将要展示的那样,NMS不会损害最终的检测准确性,但会大大减少提议的数量。在NMS之后,我们使用前N个提议其余来进行检测。接下来,我们使用 2000个RPN提议对Fast R-CNN 进行训练,但在测试时评估不同数量的提议。

4,实验

4.1  在PASCAL VOC 上的实验

  我们在 PASCAL VOC 2007 检测基准数据集【11】上全面评估了我们的方法。这个数据集包含大约 5000 张训练评估图像和在 20 个目标类别上的 5000 张测试图像。我们还提供了一些模型在 PASCAL VOC 2007基准数据集上的测试结果。对于ImageNet预训练网络,我们使用具有 5 个卷积层和 3 个全连接层的 ZF 网络【32】的“快速”版本以及具有 13 个卷积层和 3个全连接层的公开 VGG-16模型【3】。我们主要评估检测的平均精度均值(mAP),因为这是检测目标的实际指标(而不是关心目标提议代理度量)。

   表2(顶部)显示了使用各种区域提议方法进行训练和测试的Fast R-CNN结果。这些结果使用 ZF 网络。对于选择性搜索(SS)【4】,我们通过“快速”模式生成约 2000 个提议。对于EdgeBoxes(EB)【6】,我们通过调整 0.7 的 IoU的默认 EB 设置生成提议。SS在 Fast R-CNN框架下的 mAP为 58.7%,EB的mAP为 58.6%。RPN 与 Fast R-CNN 取得了有竞争力的结果,使用多达 300 个提议,mAP为 59.9%。由于共享卷积计算,使用RPN 比使用 SS 或者 EB 产生了更快的检测系统;较少的建议也减少了区域方面的全连接层成本(表5)。

   RPN 上的消融实验。为了研究 RPN作为提议方法的性能,我们进行了几项消融研究。首先,我们显示了RPN和Fast R-CNN检测网络共享卷积层的效果。为此,我们在四步训练过程的第二步之后停止训练。使用单独的网络将结果略微减少到 58.7%(RPN+ZF,非共享,表2)。我们观察到,这是因为在第三步中,当使用检测器调整的特征来微调RPN时,提议质量得到了改善。

   接下来,我们分析RPN 对训练Fast R-CNN检测网络的影响。为此,我们通过使用 2000个SS提议和 ZF网络来训练Fast R-CNN模型。我们固定这个检测器,并通过改变测试时使用的提议区域来评估检测的mAP。在这些消融实验中,RPN不与检测器共享特征。

  在测试阶段用了300个RPN提议替换SS得到了 56.8%的mAP。mAP的损失是因为训练/测试提议不一致。这个结果作为以下比较的基准。

  有些令人惊讶的是,RPN在测试时使用排名最高的100个提议仍然会导致有竞争力的结果(55.1%),表明排名靠前的RPN提议是准确的。相反的,使用排名靠前的 6000个RPN提议(无NMS)具有相当的mAP(55.2%),这表明NMS不会损害检测mAP并可能减少误报。

  接下来,我们通过在测试时分别关闭 RPN的 cls 和 reg 输出来调查 RPN的作用。当 cls 层在测试时被移除(因此不使用NMS/排名),我们从未得分的区域中随机采样 N 个提议。当 N=1000(55.8%)时,mAP几乎没有变化,但是当N=100时,会大大降低到 44.6%。这表明 cls分数考虑了排名最高的提议的准确性。

   另一方面,当在测试阶段移除 Reg 层(所以提议变成锚盒)时,mAP将下降到 52.1%。这表明高质量的提议主要是由于回归的边界框。锚盒虽然具有多个尺度和窗宽比,但不足以进行准确的检测。

  我们还单独评估了更强大的网络对RPN提议质量的影响。我们使用VGG-16来训练RPN,仍然使用上述的SS + ZF检测器。mAP从 56.8%(使用RPN + ZF)提高到 59.2%(使用RPN+VGG)。这是一个很有希望的结果,因为这表明RPN+VGG的提议质量要好于RPN+ZF。由于RPN+ZF的提议与SS具有竞争性(当一致用于训练和测试时,都是 58.7%),所以我们可以预期RPN + VGG比SS更好,以下实验验证了这个假设。

  VGG-16的性能。表3显示了VGG-16的提议和检测结果。使用RPN+VGG,非共享特征的结果是 68.5%,略高于SS的基准。如上所示,这是因为RPN+VGG生成的提议比SS更准确。与预先定义的SS不同,RPN是主动训练的并从更好的网络中收益。对于特征共享的变种,结果是69.9%——比强壮的SS基准更好,但几乎是零成本的提议。我们在PASCAL VOC 2007 和 2012 的训练评估数据集上进一步训练 RPN 和检测网络。该mAP是 73.2%。图5显示了PASCAL VOC 2007测试集的一些结果。在PASCAL VOC 2012测试(表4)中,我们的方法在 VOC 2007 的 trainval+test 和 VOC 2012 的 trainval 的联合数据集上训练的模型取得了 70.4%的mAP。表6和表7显示了详细的数字。

   在表5中我们总结了整个目标检测系统的运行时间。根据内容(平均大约 1.5s),SS需要1~2秒,而使用VGG-16的Fast R-CNN 在 2000 个 SS提议上需要 320ms(如果在全连接层上使用 SVD【2】,则需要 223 ms)。我们的 VGG-16系统在提议和检测上总共需要 198ms。在共享卷积特征的情况下,单独 RPN 只需要 10ms计算附加层。我们的区域计算也较低,这要归功于较少的提议(每张图片 300个)。我们采用的ZF Net的系统,帧速率为 17 fps。

  对超参数的敏感度。在表8中,我们调查锚点的设置。默认情况下,我们使用3个尺度和3个长宽比(表8中的mAP为 69.9%)。如果在每个位置只使用一个锚点,那么mAP的下降幅度将是 3~4%。如果使用 3个尺度(一个长宽比)或3个长宽比(1个尺度),则mAP更高,表明使用多种尺度的锚点作为回归参考是有效的解决方案。在这个数据集上,仅使用具有1个长宽比(69.8%)的3个尺度与使用具有3个长宽比的3个尺度一样好,这表明尺度和长宽比不是检测准确度的解决维度。但我们仍然在涉及中采用这两个维度来保持我们的系统灵活性。

  在表9中,我们比较了公式(1)中 lambda 的不同值。默认情况下,我们使用 lambda=10,这使方差(1)中的两个项在归一化之后大致相等的加权。表9显示,当 lambda 在大约两个数量级(1到100)的范围内时,我们的结果只是稍微受到影响(大约 1%)。这表明结果对宽范围内的 lambda 不敏感。

  分析IoU召回率。接下来,我们使用实际边界框来计算不同 IoU比率的提议召回率。值得注意的是,Recall-to-IoU 度量与最终的检测精度的相关性是松散的【19, 20, 21】。使用这个指标来诊断提议方法比评估提议方法更合适。

  在图4中,我们显示了使用 300, 1000 和 2000 个提议的结果。我们与SS和EB进行比较,根据这些方法产生的置信度,N个提议是排名前N的提议。从图中可以看出,当提议数量从 2000 个减少到 300 个时,RPN方法表现优雅,这就解释了为什么RPN在使用 300个提议时具有良好的最终检测mAP。正如我们之前所分析过的,这个属性主要归因于RPN的 cls项。当提议较少时,SS和EB的召回率下降的比RPN更快。

  一阶段检测与两阶段提议 + 检测。OverFeat 论文【9】提出了一种在卷积特征映射的滑动窗口上使用回归器和分类器的检测方法。OverFeat是一个一阶段,类别特定的检测流程,而我们的是两阶段级联,包括类不可知的提议和类别特定的检测。在OverFeat中,区域特征来自一个尺度金字塔上一个长宽比的滑动窗口。这些特征用于同时确定目标的位置和类别。在RPN中,这些特征来自于正方形(3*3)滑动窗口,并且预测相对于锚点具有不同尺度和长宽比的提议。虽然这两种方法都使用滑动窗口,但区域提议任务只是Faster R-CNN的第一阶段——下游的Fast R-CNN 检测器会致力于对提议进行细化。在我们级联的第二阶段,在更忠实覆盖区域特征的提议框中,区域特征自适应的聚集【1,2】。我们相信这些功能会带来更准确的检测结果。

   为了比较一阶段和两阶段系统,我们通过一阶段Fast R-CNN来模拟OverFeat系统(从而也规避了实现细节的其他差异)。在这个系统中,“提议”是3个尺度(128, 256, 512)和3个长宽比(1:1, 1:2, 2:1)的密集滑动窗口。训练Fast R-CNN来预测类别特定的分数,并从这些滑动窗口中回归边界框位置。由于OverFeat系统采用图像金字塔,我们也使用从 5个尺度中提取的卷积特征进行评估。我们使用【1】【2】中5个尺度。

  表10比较了两阶段系统和一阶段系统的两个变种。使用ZF模型,一阶段系统具有 53.9%的mAP。这比两阶段系统(58.7%)低 4.8%。这个实验验证了级联区域提议和目标检测的有效性。在文献【2】,【39】报告了类似的观察结果,在这两篇论文中,用滑动窗口取代SS区域提议会导致大约6%的退化。我们也注意到,一阶段系统更慢,因为它产生了更多的提议。

4.2 在MS COCO的实验

  我们在Microsoft COCO目标检测数据集【12】上提供了更多的结果。这个数据集包含 80 个目标类别。我们用测试集上的 8万张图像,验证集上的4万张图像以及测试开发集上的2万张图像进行实验。我们评估了 IoU 在【0.5:0

05:0.95】的平均mAP(COCO标准度量,简称mAP@【0.5, 0.95】)和mAP@0.5(PASCAL VOC度量)。

  我们的系统对这个数据集做了一些小的改动。我们在 8 个 GPU上实现训练我们的模型,RPN(每个GPU1个)和Fast R-CNN(每个GPU上2个)的有效最小批次大小为 8 个。RPN步骤和Fast R-CNN步骤都以 24万次迭代进行训练,学习率为 0.003,然后以 0.0003的学习率进行8万次迭代。我们修改了学习率(从 0.003而不是 0.001开始),因为小批次数据的大小发生了改变。对于锚点,我们使用3个长宽比和4个尺度(加上64**2),这主要是通过处理这个数据集上的小目标来激发的。此外,在我们的 Fast R- CNN 步骤中,负样本定义为与实际边界框的最大 IoU在[0, 0.5)区间内的样本,而不是【1】【2】中使用的 [0.1,  0.5]之间。我们注意到,在SPPNet系统【1】中,在[0.1, 0.5]中的负样本用于网络微调,但[0,0.5)中的负样本仍然在具有难例挖掘SVM步骤中被访问。但是Fast R-CNN系统[2]放弃了SVM步骤,所以[0,0.1]中的负样本都不会被访问。包括这些[0,0.1)的样本,在Fast R-CNN和Faster R-CNN系统在COCO数据集上改进了mAP@0.5(但对PASCAL VOC的影响可以忽略不计)。

  其余的实现细节与PASCAL VOC 相同。特别的是,我们继续使用 300个提议和单一尺度(s=600)测试。COCO数据集上的测试时间仍然是大约 200ms 处理一张图像。

   在表11中,我们首先报告了使用本文实现的 Fast R-CNN系统【2】的结果。我们的Fast R-CNN基准在 test-dev数据集上有 39.3%的mAP@0.5,比【2】中报告的更高。我们推测造成这种差距的原因主要是由于负样本的定义以及小批量大小的变化。我们也注意到 mAP@[0.5,  0.95] 恰好相当。

  接下来我们评估我们的Faster R-CNN系统。使用COCO训练集训练,在COCO测试开发集上Faster R-CNNN有 42.1% 的mAP@0.5和 21.5% 的mAP@[0.5,0.95]。与相同协议下的Fast R-CNN相比,mAP@0.5要高 2.8% ,mAP@[.5, .95]要高 2.2% (表11)。这表明,在更高的IoU阈值上,RPN对提高定位精度表现出色。使用COCO训练集训练,在COCO测试开发集上Faster R-CNN有 42.7% 的mAP@0.5和 21.9% 的mAP@[.5, .95]。图6显示了MS COCO测试开发数据集中的一些结果。

  在ILSVRC 和 COCO 2015比赛中的 Faster R-CNN。我们已经证明,由于 RPN 通过神经网络完全学习了提议区域,Faster R-CNN 从更好的特征中受益更多。即使将深度增加到100层以上,这种观察仍然是有效的【18】。仅用 101 层残差网络(ResNet-101)代替 VGG-16,Faster R-CNN系统就将 mAP从 41.5%/21.2%(VGG-16)增加到 48.4%/27.2%(ResNet-101)。与其他改进正交于 Faster R-CNN,He 等人【18】在COCO测试开发数据集上获得了单模型 55.7%/34.9% 的结果和 59.0%/37.4% 的组合结果,在COCO 2015 目标检测竞赛中获得了第一名。同样的系统【18】也在 ILSVRC 2015目标检测竞赛中获得了第一名,超过了第二名绝对的 8.5%。RPN也是 ILSVRC 2015 定位和 COCO 2015分割竞赛第一名获奖输入的基石,详情请分别参见【18】和 【15】。

4.3 从 MS COCO 到 PASCAL VOC

  大规模数据对改善深度神经网络至关重要。接下来,我们调查MS COCO数据集如何帮助改进在PASCAL VOC上的检测性能。

  作为一个简单的基准数据,我们直接在PASCAL VOC 数据集上评估COCO检测模型,而无需在任何PASCAL VOC数据上进行微调。这种评估是可能的,因为COCO类别是PASCAL VOC 上类别的超集。在这个实验中忽略COCO专有的类别,Softmax层仅在20个类别和背景上执行。这种设置下PASCAL VOC 2007测试集上的mAP为 76.1%(表12)。即使没有利用PASCAL VOC的数据,这个结果也好于在VOC 07+12(73.2%)上训练的模型的结果。

  然后我们在VOC数据集上对COCO检测模型进行微调。在这个实验中,COCO模型代替了ImageNet的预训练模型(用于初始化网络权重)。Faster R-CNN系统按照 3.2 节所述进行微调。这样做在PASCAL VOC 2007测试集上可以达到 78.8%的mAP。来自COCO集合的额外数据增加了 5.6% 的mAP。在PASCAL VOC 2012 测试集(表12 和 表7)中也观察到类似的改进。我们注意到获得这些强大结果的测试时间速度仍然是每张图像 200ms左右。

5,总结

  我们提出了RPN来生成高效,准确的区域提议。通过与下游检测网络共享卷积特征,区域提议步骤几乎是零成本的。我们的方法是统一的,基于深度学习的目标检测系统能够以接近实时的帧率运行。学习到的RPN也提高了区域提议的质量,从而提高了整体的目标检测病毒。

   参考文献:https://blog.csdn.net/weixin_43198141/article/details/90178512

 

posted @ 2020-09-07 09:58  战争热诚  阅读(1629)  评论(0编辑  收藏  举报