【公式详解】【优秀论文解读】EDPLVO: Efficient Direct Point-Line Visual Odometry

1|0前言

多的不说哈 2022最佳优秀论文 来自美团无人机团队

作者提出了一种使用点和线的高效的直接视觉里程计(visual odometry,VO)算法—— EDPLVO 。他们证明了,2D 线上的 3D 像素点由 2D 线端点的逆深度决定,这使得将光度误差扩展到线变得可行。

直接进入正题

2|0公式推导

首先直接看总误差
在这里插入图片描述
误差分为三部分:
Epj误差为光度误差 这个被作者一笔带过了
Elj误差为本文的重点 会重点讲解
EL误差为线性约束 这个作者用了小篇幅来讲解

首先扔出光度误差公式:
在这里插入图片描述
ij对应两个相机视角 x就是两个视角看到的点
t为曝光时间 剩下的贴出来了 大家自行研读吧 或者查一查资料 这里其他的我不太能多解释了

在这里插入图片描述

2|1核心误差构建

首先简单说一下普吕克坐标系 是将空间中的一个3D直线用两个在该直线上的3D点进行了表示
在这里插入图片描述
P1P2就是线上的两个3D点
原理可以自行查阅一下 但是这个结论很清晰明了 不用做太多解释

下面来看 在普吕克坐标系表示下 点到该直线的距离为:
在这里插入图片描述
注意 这里用e进行表示了

接下来表示两个空间点:
在这里插入图片描述
x1x2为2d线的两个端点 d1d2分别为这两个三维点的逆深度 那个像π似的是反投影矩阵 得到了这条线上的两个三维点坐标
然后结合上面的普吕克坐标表示的直线 就可以用上面两个三维点来表示直线了
在这里插入图片描述
此时又来了一个不同于上面两个三维点的点 这个点依然在3D线上 这个点的光线的方向可以表示为:

在这里插入图片描述
这里的 x 是图像坐标 且脑袋上带个横杠表示齐次坐标哈

然后就是很省略的一步 但是依然清晰明了:
我们需要求出上一个公式的 x 的三维坐标点:

在这里插入图片描述
不好推但是公式很明白 这里的参数都在上面说过
[]x表示反对称矩阵哈
然后我们又将上式的这个三维点投影到另一个相机视角中:

在这里插入图片描述
就得到了这个东西
这个东西带回到最上面的没太多解释的那个光度误差里 就得到了我们总公式的第二项的一部分
总公式的第二项详细的情况是:

在这里插入图片描述
这里的前两项确实仍然是光度误差 第三项为我们刚才三维点投影到相机视角中再带入到光度误差的结果哈
从上面的推导结果可知 第三项只依赖于x1x2的逆深度

2|2第三种误差

接下来看第三种误差
在这里插入图片描述
q是两个3D点 也是L的3D端点 e为定义的点到线的距离
然后还有前面那个东西的倒数 这个东西表示一个3D的L在相机视角下的一个投影2D线的长度 这个影响了q是否是端点的不确定度
然后这三种误差其实就这样建立起来了

3|0H矩阵对比

在这里插入图片描述
图b就是这个算法所得到的H矩阵 可以看出这个H矩阵相对于其他的H矩阵是最小的
原图片的描述贴上:
在这里插入图片描述
从这里也可以看到这个论文的优点。

4|0主要贡献

在不增加变量数量和优化难度的情况下将线特征加入到了约束中,在不增加运算量的情况下提高了准确率。


__EOF__

本文作者铃灵狗的水墨书香
本文链接https://www.cnblogs.com/linglingdog/p/17059846.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。您的鼓励是博主的最大动力!
posted @   铃灵狗  阅读(180)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 地球OL攻略 —— 某应届生求职总结
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 提示词工程——AI应用必不可少的技术
· .NET周刊【3月第1期 2025-03-02】
点击右上角即可分享
微信分享提示