CVPR 2020目标跟踪多篇开源论文(上)
CVPR 2020目标跟踪多篇开源论文(上)
1. SiamBAN:面向目标跟踪的Siamese Box自适应网络
作者团队:华侨大学&中科院&哈工大&鹏城实验室&厦门大学等
论文链接:https://arxiv.org/abs/2003.06761
代码链接:https://github.com/hqucv/siamban
注:表现SOTA!速度高达40 FPS!性能优于DiMP、SiamRPN++和ATOM等网络。
大多数现有的跟踪器通常依赖于多尺度搜索方案或预定义的anchor boxes来准确估计目标的尺度和长宽比。不幸的是,它们通常要求启发式的配置。为解决此问题,我们通过利用全卷积网络(FCN)的表征能力,提出了一个简单而有效的视觉跟踪框架(名为Siamese Box Adaptive Network,SiamBAN)。SiamBAN将视觉跟踪问题视为并行分类和回归问题,因此可以直接对对象进行分类,并在统一的FCN中对它们的边界框进行回归。无先验box 设计避免了与候选box 相关的超参数,从而使SiamBAN更加灵活和通用。在包括VOT2018,VOT2019,OTB100,NFS,UAV123和LaSOT在内的视觉跟踪基准上进行的大量实验表明,SiamBAN具有最先进的性能并以40 FPS的速度运行,证实了其有效性和效率。
2. MAST:具有记忆增强功能的自监督目标跟踪器
作者团队:牛津大学VGG组
论文链接:https://arxiv.org/abs/2002.07793
代码链接:https://github.com/zlai0/MAST
注:自监督目标跟踪新网络,表现SOTA!性能优于UVC、CorrFlow和CycleTime等网络,且接近监督类跟踪网络。
最近自监督密集跟踪的工作已取得了快速的进展,但是性能仍然远远达不到监督方法。我们提出了一种在视频上训练的密集跟踪模型,该视频模型没有任何标注,可以在现有基准上大大超过以前的自监督方法(+15%),并且可以达到与监督方法相当的性能。在本文中,我们首先通过进行彻底的实验,最终阐明最佳选择,来重新评估用于自监督训练和重建损失的传统选择。其次,我们通过使用关键的内存组件扩展我们的体系结构,进一步改进了现有方法。第三,我们以大规模的半监督视频对象分割(也称为密集跟踪)基准,并提出了一个新的度量标准:generalizability。
3. PrDiMP:目标跟踪的概率回归
作者团队:苏黎世联邦理工学院
论文链接:https://arxiv.org/abs/2003.12565
代码链接:https://github.com/visionml/pytracking
注:在六大数据集上,表现SOTA!性能优于DiMP、ATOM和SiamRPN++等网络,代码现已开源!
从根本上说,视觉跟踪是在每个视频帧中使目标状态回归的问题。尽管已经取得了重大进展,但跟踪器仍然容易出现故障和不准确之处。因此,至关重要的是在目标估算中表示不确定性。尽管当前的主要范式依赖于估计与状态有关的置信度得分,但是该值缺乏明确的概率解释,使它的使用变得复杂。因此,在这项工作中,我们提出了概率回归(probabilistic regression)公式,并将其应用于跟踪。我们的网络会根据输入图像预测目标状态的条件概率密度。至关重要的是,我们的方法能够对由于任务中不正确的标注和歧义而产生的标签噪声进行建模。通过最小化Kullback-Leibler散度来训练回归网络。当应用于跟踪时,我们的公式不仅允许输出的概率表示,而且还可以显著提高性能。我们的跟踪器在六个数据集上设置了最新的技术,在LaSOT上实现了59.8%的AUC,在TrackingNet上实现了75.8%的成功。
4. AutoTrack:通过自动时空正则化实现无人机目标跟踪
作者团队:同济大学&新加坡国立大学&清华大学
论文链接:https://arxiv.org/abs/2003.12949
代码链接:https://github.com/vision4robotics/AutoTrack
注:无人机目标跟踪新网络,在CPU上高达 60 FPS!性能优于ECO-HC、ARCF-HC等网络
现有的大多数基于判别相关滤波器(DCF)的跟踪器试图引入预定义的正则化项以改善目标对象的学习,例如,通过抑制背景学习或通过限制相关滤波器的变化率。但是,预定义的参数在调整它们时会花费很多精力,并且它们仍然无法适应设计人员没有想到的新情况。在这项工作中,提出了一种新颖的方法来自动在线自适应地学习时空正则项。引入空间局部响应图变化作为空间正则化,以使DCF专注于对象的可信赖部分的学习,而全局响应图变化确定滤波器的更新率。与基于CPU和GPU的最新跟踪器相比,在四个UAV基准上进行的广泛实验证明了我们方法的优越性,在单个CPU上每秒可运行约60帧。我们的跟踪器还被建议用于无人机定位。在室内实际场景中进行的大量测试证明了我们的定位方法的有效性和多功能性。
5. LTMU:使用Meta-Updater进行高性能的长时跟踪
作者团队:大连理工大学(卢湖川组)&鹏城实验室等
论文链接:https://arxiv.org/abs/2004.00305
代码链接:https://github.com/Daikenan/LTMU
注:表现SOTA!性能优于SiamRPN++、SPLT和MBMD等网络中文解读:CVPR
2020(Oral) | LTMU:给跟踪器学习一个长时更新控制器
长时(Long-term)视觉跟踪引起了越来越多的关注,因为它比短时跟踪更接近实际应用。大多数排名靠前的长时跟踪器采用离线训练的Siamese 体系结构,因此,他们无法从在线更新的短时跟踪器的巨大进步中受益。但是,由于长时的不确定性和嘈杂的观察,直接引入基于在线更新的跟踪器来解决长时问题是非常冒险的。在这项工作中,我们提出了一种新颖的离线训练型Meta-Updater,以解决一个重要但尚未解决的问题:跟踪器是否准备好在当前框架中进行更新?提出的Meta-Updater可以按顺序有效地集成几何,判别和外观提示,然后使用设计的级联LSTM模块挖掘顺序信息。我们的Meta-Updater学习二进制输出以指导跟踪器的更新,并且可以轻松地嵌入到不同的跟踪器中。这项工作还介绍了一个长时跟踪框架,该框架由在线本地跟踪器,在线验证器,基于SiamRPN的重新检测器和我们的元更新器组成。在VOT2018LT,VOT2019LT,OxUvALT,TLP和LaSOT基准测试中的大量实验结果表明,我们的跟踪器的性能明显优于其他竞争算法。