Performance Animation from Low-dimensional Control Signals
[source] ToG
[year] 2005
这篇文章也是非常有意思的,从低维信号中恢复出高维的动作 (检索?),那么就看最少用了几个传感。
本文中的捕获是使用光学,即产生图像,每个表演者身上绑了6-9个反光点
为什么可以使用少量传感,即数据被降维处理了?
因为所有关节运动自由度之间并非完全独立的 (理解为,在具体一个运动的时候,各个自由协调做一动作)
背景:
2.1 Control Interfaces for Human Motion
可用设备及Interfaces: Mocap Boxing and Police 911, Sony’s EyeToy
少量传感重建动作:magnetic sensors foot pressure sensor
分层:
光学的:单摄像头、三头、 利用动作数据库或动作图
光学的跟踪:
2.2 Animation with Motion Capture Data
建立模型 ,动作图,插值动作
Overview:
数据库:
数据库中的动作是标准标记点配置下捕获的数据(即heavy marked, Helen Hayes marker set) ,记为 {q_i}
而在实时表演中只使用少量标记点,记为 c_t,从中出恢复出朝向z_t
则问题为,在已有一个库 {q_i} i=[1,..N]下,已经合成出序列 q_1, q_2,…q_{t-1}, 又由表演知 c_t, 求 q_t
Calibration:
1.骨架定标
2.标记点定标
c_n = f(q_n; \hat s,\hat v_l ,z_0)
Online Local Modeling
先找到K相似,标准 \alpha \ Left | c_n – T(\hat z_t,z_0)\hat c_t \| ^ 2 + (1-\alhpha) \Left \|q_n –2\hat q_{t-1} + \hat q_{t_2} \|^2, 即前一项为转向对齐后标记点间距离,后项为平滑
由这K个相似,做PCA,抽取其低维控制信号,w_t
Fast Online K-nearest Neighbor Search
对,如果对全部数据计算距离,难以做到实时。
建立邻接图 neighbor graph, 如果两数据 q_I, q_j间:
\Left \| q_I – q_j \|_{L_1} < max{f_m* \Detad/f_c,\epsi}, f_m 捕获帧率,f_c交互帧率,\Delta d 最大L_1距离
Online Motion Synthesis
argmin_{w_t} (先验 + 控制 +平滑)
三项分别计算,先验为K个的高斯局部模型 ,控制为与低维的距离, 平滑为导的模
最后这个优化很犀利啊,这个还是05年的工作…