SLAM: VSLAM扫盲之旅

       在《机器人手册》 第2卷,这本书里面,第23章讲述了:三维视觉和基于视觉的实时定位于地图重建。在第37章里面,讲述了 同时定位与建图。指出了SLAM的三种基本方法。

       

     一种是EKF的方法,但由于性能的约束,逐渐变得非主流;第二种基于图表示,成功使用稀疏非线性优化方法解决SLAM问题,成为主要方法;第三种也是成为粒子滤波器的非参数统计滤波技术,是在线SLAM的一种主流方法。


VSLAM扫盲之旅

       作为三维重建-SLAM的入门资料汇总: VSLAM扫盲之旅

       ICCV研讨会:实时SLAM的未来以及深度学习与SLAM的比较: http://blog.csdn.NET/qq_18661939/article/details/51919329

              The Future of Real-time SLAM[ZZ]: https://zhuanlan.zhihu.com/p/21738966

        SLAM 开发学习资源与经验分享https://github.com/GeekLiB/Lee-SLAM-source?utm_source=tuicool&utm_medium=referral


此文涉及到硬件的讨论,还是值得看一下的,可以大致浏览一下

            速感CEO:  SLAM的前世今生 终于有人说清楚了

最近流行的结构光和TOF

结构光原理的深度摄像机通常具有激光投射器、光学衍射元件(DOE)、红外摄像头三大核心器件。

SLAM的前世今生    终于有人说清楚了  | 硬创公开课SLAM的前世今生    终于有人说清楚了  | 硬创公开课

这个图(右图)摘自primesense的专利。

可以看到primesense的doe是由两部分组成的,一个是扩散片,一个是衍射片。先通过扩散成一个区域的随机散斑,然后复制成九份,投射到了被摄物体上。根据红外摄像头捕捉到的红外散斑,PS1080这个芯片就可以快速解算出各个点的深度信息。

这儿还有两款结构光原理的摄像头。

SLAM的前世今生    终于有人说清楚了  | 硬创公开课SLAM的前世今生    终于有人说清楚了  | 硬创公开课

第一页它是由两幅十分规律的散斑组成,最后同时被红外相机获得,精度相对较高。但据说DOE成本也比较高。

还有一种比较独特的方案(最后一幅图),它采用mems微镜的方式,类似DLP投影仪,将激光器进行调频,通过微镜反射出去,并快速改变微镜姿态,进行行列扫描,实现结构光的投射。(产自ST,ST经常做出一些比较炫的黑科技)。

ToF(time of flight)也是一种很有前景的深度获取方法。

传感器发出经调制的近红外光,遇物体后反射,传感器通过计算光线发射和反射时间差或相位差,来换算被拍摄景物的距离,以产生深度信息。类似于雷达,或者想象一下蝙蝠,softkinetic的DS325采用的就是ToF方案(TI设计的),但是它的接收器微观结构比较特殊,有2个或者更多快门,测ps级别的时间差,但它的单位像素尺寸通常在100um的尺寸,所以目前分辨率不高。以后也会有不错的前景,但我觉得并不是颠覆性的。



SLAM系统研究点介绍

         本文主要谈谈SLAM中的各个研究点,为研究生们(应该是博客的多数读者吧)作一个提纲挈领的摘要。然后,我们再就各个小问题,讲讲经典的算法与分类。

         文章链接:http://www.cvrobot.net/research-points-introduction-of-slam-system/


References:

        [1].    Smith, R.C. and P. Cheeseman, On the Representation and Estimation of Spatial Uncertainty. International Journal of Robotics Research, 1986. 5(4): p. 56–68.

        [2].    Se, S., D. Lowe and J. Little, Mobile robot localization and mapping with uncertainty using scale-invariant visual landmarks. The international Journal of robotics Research, 2002. 21(8): p. 735–758.

        [3].    Mullane, J., et al., A Random-Finite-Set Approach to Bayesian SLAM. IEEE Transactions on Robotics, 2011.

        [4].    Adams, M., et al., SLAM Gets a PHD: New Concepts in Map Estimation. IEEE Robotics Automation Magazine, 2014. 21(2): p. 26–37.

        [5].    Endres, F., et al., 3-D Mapping With an RGB-D Camera. IEEE Transactions on Robotics, 2014. 30(1): p. 177–187.

        [6].    Forster, C., M. Pizzoli and D. Scaramuzza, SVO: Fast semi-direct monocular visual odometry. 2014, IEEE. p. 15–22.

        [7].    Newcombe, R.A., et al., KinectFusion: Real-time dense surface mapping and tracking. 2011, IEEE. p. 127–136.

     

  声明:

本文编撰和转载自:http://www.cnblogs.com/gaoxiang12/p/4395446.html

如果转载了本文编撰的版本,也请注明转载出处:http://www.cvrobot.net/research-points-introduction-of-slam-system/

如果您对该机器学习、图像视觉算法技术感兴趣,可以关注新浪微博:视觉机器人  或者加入 QQ群:101371386


posted @ 2015-10-26 12:08  wishchin  阅读(305)  评论(0编辑  收藏  举报