摘要: Transformer ) 名称解释: Self-Attention: 类似于CNN里面的Conv层,是Transformer中重复次数最多的特征提取Layer。 Multi-Head Attention: 相对于Self-Attention,将每个节点外接多个q、k、v head。 Cross A 阅读全文
posted @ 2024-03-04 23:20 fariver 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 目录视觉SLAM特征点法2D-2D对极几何3D-2D PnP3D-3D ICP光流法说明直接法理论模型(最小化光度误差)一些细节问题工程问题安装sophus 视觉SLAM 特征点法 特征点提取+匹配 ORB = Fast + ORiented Brief 特征点:Fast10(9/11),即如果周围 阅读全文
posted @ 2024-03-04 20:48 fariver 阅读(28) 评论(0) 推荐(0) 编辑