说话人头像技术: 让语音可视

说话人头像技术: 让语音可视
 【进入论坛】 【推荐朋友】 【关闭窗口 2007年07月03日 15:29
■中国科学院自动化研究所模式识别国家重点实验室 辛乐 陶建华

    既包括了语音输出,又能够展现说话者面部表情和嘴部、眼部等变化情况的说话人头像(TalkingHead)技术,作为人机交互系统中直接与用户打交道的视觉窗口,能够让用户直接获得“自然”的感觉,受到越来越多研究者的关注。

    如果有结论说,在日常的生活、工作、学习过程中与我们朝夕相处的伙伴是电脑和网络,而不是我们的爱人、同事、同学,您相信吗?可经过统计分析,事实就是如此。人们如此深入地沉浸在虚拟的网络世界中,以致计算机和人之间的交流效率直接影响着我们获取和传递信息的速度。而且现有的以鼠标和键盘为主的不自然的人机交互方式正逐渐将我们训练成为冷冰冰的机器——您所经常遇到的只是对于电脑不通人性的无奈和无助。人机交互方式经过了由文本到语音的转变,正处于面对面交流的发展道路上。键盘和鼠标显然没有嘴巴和眼睛快,一张简单的人脸动画展示给人们所带来的心情愉悦也远非枯燥的数字和文字输出所能比拟。

    可视化语音合成新热点

    众多的电影和小说作品是这样设想计算机及其网络技术深入地改变着我们的生活:由立体投影系统生成的虚拟人像就陪在我们的身边,当我们心中有疑问时就会随时出现,即时回答我们提出的任何问题。而即包括了语音输出,又能够展现说话者面部表情和嘴部、眼部等变化情况的说话人头像技术,作为人机交互系统中直接与用户打交道的视觉窗口,能够让用户直接获得“自然”的感觉,已经受到越来越多研究者的关注。它能通过人脸表情对获得的信息进行反馈,这无疑会使人机间交流更生动有趣,大大提升交流的舒适度。网络教育软件中在播放讲课音频的同时配以动画人脸;网上购物站点在介绍商品时使用一个虚拟售货员,可以增加用户的购买欲和浏览时间; E-mail语音服务系统能够在不干扰用户的情况下为用户朗读E-mail文本,大大降低现代人的工作量。除此以外,TalkingHead系统也能够在新闻播报、对话系统、虚拟现实、虚拟主持人、虚拟会议、电影制作、游戏娱乐等领域获得广泛的应用。

    近几年来,对可视语音的研究越来越受到人们的重视,已成为多媒体和人机交互技术研究领域相当活跃的研究方向。美国MIT的Biological and Computational Learning中心、伊利诺伊州大学、美国西北大学、Wright州立大学、英国剑桥大学、瑞士日内瓦大学、日本奈良科学和技术研究所、日本ATR等地方均做了许多代表性的工作。此外,也有一些公司开始将其应用于产业化,如RedTed公司开发出一种三维人脸模型,可用文本、语音甚至音乐进行控制; Sylvie公司实现了Verbot:“Verbally Enhanced Software Robot”,这一模型能够实现三维智能人物与人的交流; Lipsyn公司甚至提供了一种能够进行语音/文本驱动的卡通动画开发的工具包; Crazytalker公司以及Face2face动画公司也开发了相应的人脸动画制作工具,其研究结果将实现带有表情生成能力的说话人头像系统,必将对相关产业的发展起到重要的推动作用。

    在国内已有一些研究组开展了可视化语音合成方面的研究工作,如中国微软亚洲研究院的视觉计算组、中科院自动化所模式识别实验室、中科院计算所、清华大学、中国科学技术大学、浙江大学以及北京工业大学等。

    核心技术

    TalkingHead技术涉及到认知心理、语音处理、图形图像处理、计算机视觉,模式识别等众多领域。按照人脸动画过程中占主导地位模态的不同,TalkingHead可以分成两类:表演动画方法和语音驱动的动画方法(语音-视觉映射方法)。

    表演动画方法是当前计算机动画领域中最前沿和最热门的技术之一。表演动画方法由面部运动捕捉获得的面部基本运动的表达,直接驱动人脸模型的形变。每段语音输入都有其对应的实时同步人脸基本运动。而语音驱动的动画方法则为对新输入的语音进行人脸表达的实时同步控制。

    按照数据获取来源的不同,TalkingHead也可以分成这样两类:基于人脸参数模型的人脸动画与基于图像数据的人脸动画。下面按照这两个主要方向来进行阐述。

基于人脸参数模型的人脸动画

    它包括三维人脸建模、动画等方面。三维人脸建模研究的主流是通过对利用诸多方法(网格模型、统计模型和形态模型)建立的标准通用人脸模型进行变形生成个性化的人脸模型。通过纹理映射技术充分利用人脸图像纹理掩盖建模的缺陷,提高个性化人脸动画的逼真程度和生动性。

    中科院自动化所针对快速个性化人脸建模方面,提出一种新的从正交图像出发的半自动个性化人脸建模方法,同时利用多尺度纹理映射技术,得到具有真实感的个性化人脸模型。该方法比以往的建模技术更简单和有效,并在嵌入式平台上实现了一个MPEG-4兼容的人脸动画系统。该系统可以应用在动画、游戏等交互式领域。该个性化人脸建模方法的步骤详细介绍如下。

    首先,需要对两张正交人脸图像进行预处理。利用图像处理的技术自动提取出眼睛、嘴角和鼻尖这几个特征点。利用手动调整确定其他人脸的特征点。特征点的选择以能够描述人脸轮廓为准,主要依据它们在人脸图像中的重要性进行选择。正面人脸图像中共选取了32个特征点,侧面图像共选取了20个特征点。这里利用在MPEG-4的人脸动画标准中有着广泛应用的IST通用人脸模型。图1是不同角度的通用人脸模型。

(a)

(b)
图1纹理映射后的结果


    FAP为其中显著特征点的运动

    根据正交照片对通用人脸网格模型进行投影计算,得到投影后的人脸网格模型。利用匹配算法对投影后的网格模型进行自动的人脸匹配,所有的特征点都匹配完成后,采用径向基函数算法对匹配结果进行调整。图2是正面侧面人脸图像的匹配结果。为了保证建模结果在静态表现方面的逼真感,我们采用了多尺度纹理映射技术。采用多尺度纹理映射后的结果如图1所示,该图表示从多个角度观察的个性化真实感人脸模型。

图2 mpeg-4标准人脸特征点FDP示意图,


    然后根据人脸动画机理,编辑相应的动画规则,合成真实感的人脸动画序列。由于预见到TalkingHead在未来的巨大应用前景,MPEG-4标准引入了人脸动画。MPEG-4标准已经包括了如何生成和编辑人脸动画规则的内容。人脸动画驱动中的关键问题包括了如何定义面部运动参数以及如何根据面部运动参数来变形人脸模型。MPEG-4人脸动画可由三个参数集描述,即人脸定义参数(Facial Definition Parameters, FDPs)(如图2所示)、人脸内插变换(Facial Interpolation Transform, FITs)和人脸动画参数(Facial Animation Parameters,FAPs)。FDPs确定模型形状和通用动画规则,FITs定义特定人动画规则,FAPs则可驱动模型生成人脸动画序列。

基于图像数据的说话人头像技术

    基于三维人脸模型的说话人头像技术由于其直接性和良好的可控性获得了广泛的关注,但是这种参数控制方法合成的人脸图像质量往往不尽人意,常带有人造的痕迹。近些年越来越多的研究人员尝试直接从图像序列出发进行人脸动画,出现了一些基于图像样本的人脸动画方法。

    基于图像的人脸动画的生成过程也就是基于图像的绘制过程,即直接对平面二维图像进行有效的分析,在完成与语音对应的条件下,最终合成人脸动画,同时包括表情同步表达的完整图像序列。这种方法一般分为分析和合成两个阶段。在分析阶段,通过图像处理和语音处理的方法建立一个包括大量图像样本的数据库,同时保存关于这些样本的各种结合参数及语境信息。在合成阶段根据特定的语境信息从样本库中选择核实的样本,通过图像变形技术将它们拼接生成新的可视语音。数据库的大小及合成质量与具体的实现方法有关。

    现有的实现方法主要有以下三种: 1)Bregler提出的基于图像序列拼接的方法,利用小段唇区视频拼接生成新的可视语音; 2)麻省理工学院(MIT)的Ezzat等人提出的基于关键桢变形的方法,利用一些基本视位和互相过渡的光流,通过图像变形技术生成连续可视语音; 3) Cosatto等人提出的基于人脸组件拼接的方法,按人脸结构将人脸划分成多个组件,合成时根据语境信息从数据库中选择出合适的组件图像,再将各个组件缝合在人脸框架上,形成一个逼真自然的合成人脸。

    语音-视觉映射方法

    语音-视觉映射是整个语音驱动说话人头像技术中最关键技术之一,包括了语音合成技术和人脸动画技术两个已经获得了很大发展的研究领域。对前者而言,通过利用大规模语料库和波形拼接算法,已经可以合成出较为流畅的语音,并已经获得了很大范围的应用。对于后者,人们利用计算机动画和图象处理技术,运用机器学习方法,也已经可以模仿合成出非特定人的任意表情。但当研究人员期望将语音合成技术和人脸动画技术进行融合,构筑能说会道和富于表情的人脸表达时却遇到了困难。由于语音、唇动和脸部表情之间是多对多的复杂映射关系,所以实现高自然度的人脸表达,不仅仅涉及到语音与人脸的同步映射模型的建立,还涉及到其他内容。如在语音韵律特征下的表情生成以及与个性化特征的融合,以及人们对人脸及其运动太熟悉,对其运动的动态同步特性非常敏感。

    构筑个性化真实感强的说话人头像无疑是自然人机交互领域值得深入研究的课题,也受到来自企业界和学术界越来越多的关注。它不仅具有非常广阔的应用背景,而且具有揭示人类交互过程中各种媒介之间相互作用的深刻理论意义。中科院自动化所对相关关键问题作了有益的探索,并取得了不错的成果。但是针对该项研究,仍然需要开展广泛的合作,并在实际应用场景进一步研究,说话人头像技术才会有更加美好的应用前景。

    根据语音-视觉之间构建同步映射模型的基础不同,语音-视觉映射可分为两大类:基于文本的语音-视觉映射和基于语音驱动的语音-视觉映射。基于文本的语音-视觉映射系统的输入是文本信息,在输出合成语音的同时,也需要输出人脸动态图像序列。其语音-视觉映射是基于音素层的,也即整个工作的核心建立人脸视位与特定音素之间的对应。在动画合成过程,输入语音被分解为音素(元音和辅音)后,找到其对应的视位口形,并按照一定的规则抽取和平滑拼接,从而生成语音动画。

    而语音驱动的语音-视觉映射技术路线则是在大量数据的基础上,利用统计学习的方法对双模式数据进行分析。同时利用神经网络,线性预测函数等数学工具学习语音信号特征参数与人脸运动控制参数之间的映射关系,完成由新输入语音直接驱动嘴唇运动的目的。众多的机器学习方法被用来表达双模态参数之间的统计关系,比较有代表性的方法包括: 1)以分析典型的音素-视位对应关系的基于规则(Rule-based)的方法; 2)从直接分析语音和人脸运动参数着手的基于矢量量化(VQ)方法; 3)由于其在时序序列处理上的优越性和语音识别方面取得的出色成果,隐马尔可夫模型(HMM)也被用于完成语音-视觉映射; 4)其他一些源于模式识别理论的方法,比如K近邻(KNN)和混合高斯模型(GMM; 5)具有强有力非线性关系表达能力的多层感知器也被广泛采用。

中科院自动化所也针对语音-视觉映射提出了动态基元选取算法(图3)。该算法受到语音合成中基元选取的方法启发而用于语音-唇动映射,选用音频匹配误差和前后基元间的视觉匹配误差在一定的加权系数平衡下的代价函数。区别在于,语音合成是在语音库里选取合适的语音基元,拼接合成一段新的连续的语音;而语音-唇动映射则是在训练数据库中选取合适的语音-视觉双模态基元,合成一段新的连续的FAP参数流,用来驱动三维人脸动画。


    此外,中科院自动所还采用了一种基于Inversed HMM的方法,更为有效地实现了连续动态的人脸动画序列的拼接和生成。为配合此项工作,不少单位还购置了专业的设备,如中科院自动化所采购了运动捕捉设备。这种成熟常用的光学式运动捕捉方式通过在表演者的脸部表情关键点贴上Marker,然后利用计算机视觉方法来计算得到Marker的运动轨迹。表演者可以比较自由地表演,使用方便,同时marker可以方便地进行扩充或去除。缺点是受外界环境的影响很大,需要比较多的人工干预,后处理的工作量很大。 

posted @ 2008-12-01 21:03  淮北橘子  阅读(700)  评论(1编辑  收藏  举报