代码改变世界

基于目标检测和从粗到精静态概率的动态场景视觉SLAM算法CFP-SLAM

2023-01-05 10:15  计算机视觉life  阅读(154)  评论(0编辑  收藏  举报

以下内容来自从零开始机器人SLAM知识星球 每日更新内容

点击领取学习资料 → 机器人SLAM学习资料大礼包

论文# CFP-SLAM: A Real-time Visual SLAM Based on Coarse-to-Fine Probability in Dynamic Environments

论文地址:https://arxiv.org/abs/2202.01938

作者单位:东北大学
环境中的动态因素会违反SLAM算法的静态环境假设,导致相机定位精度下降。最近,一些相关工作普遍采用语义约束和几何约束相结合的方式来处理动态物体,但是仍然会出现一些问题,比如实时性差,容易把人当成刚体,低动态性能差场景。在本文中,提出了一种基于目标检测和从粗到精静态概率的动态场景视觉SLAM算法CFP-SLAM。该算法结合语义约束和几何约束计算物体、关键点和地图点的静态概率,并将其作为权重参与相机位姿估计。广泛的评估表明,与最先进的动态 SLAM 方法相比,我们的方法在高动态和低动态场景中几乎可以取得最好的结果,并显示出相当高的实时性。

本文贡献如下:

1、基于EKF和匈牙利算法补偿漏检,同时使用DBSCAN聚类算法区分box的前景点和背景点。

2、对象动态属性的区分。基于YOLOv5目标检测和几何约束,将目标运动属性分为高动态和低动态,作为先验信息提供给后续方法进行不同策略的处理,从而提高SLAM系统的鲁棒性和适应性。

3、关键点从粗到细的静态概率。提出一种基于物体静态概率、DBSCAN聚类算法、对极约束和投影约束的两阶段关键点静态概率计算方法,解决非刚体局部运动引起的静态关键点误删问题。





以上内容来自从零开始机器人SLAM知识星球 每日更新内容