[Paper Reading] Single-to-Dual-View Adaptation for Egocentric 3D Hand Pose Estimation
名称
Single-to-Dual-View Adaptation for Egocentric 3D Hand Pose Estimation
时间:CVPR2024
机构:The University of Tokyo
TL;DR
多目3D hand pose estimation数据比较难标注,作者核心思路是先训练单目模型,利用无监督的方法适配到双目场景,好处是 a.无需标多目数据; b.可以适应任何相机摆放方式。
Method
初始化R
有单目模型可预测与,通过这两组点可解出相机Rotation的初始解。
Single-to-dual-view adaptation
使用momentum model输出结果作为伪标签,监督Estimator的学习。
Pseudo-labeling
attention-based merging
使用heatmap的score作为attention的权重。
rotation-guided refinement
类似于初始化阶段的作法,用所有训练数据预测与来更新R。再使用更新后的R来算出新momentum model预测的Label。
Experiment
总结与发散
整体思路比较简单,出发点还算不错(1.多目无监督数据使用;2.不使用相机参数,自己适配出来)
相关链接
引用的第三方的链接
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律