APP下载

三维人脸捕获建模和动画技术综述

2012-07-27董洪伟

计算机工程与设计 2012年7期
关键词:插值人脸动画

董洪伟

(江南大学 物联网工程学院,江苏 无锡214122)

0 引 言

自从Parke[1]的开创性工作以来,真实感的三维人脸建模和动画长期以来一直是计算机图形学的热点研究问题,从早期的简单的粗糙的人脸模型到真实感和质量越来越高的人脸模型,从艺术家设计的关键帧插值动画到基于运动捕获和视频的人脸动画,人们提出了多种多样的人脸建模和表情动画的技术和方法。高度逼真的三维人脸模型及动画一直是研究人员追求的目标,如美国南加州大学(USC)ICT图形实验室和Image Metrics合作的数字Emily工程[2]创造的数字Emily三维人脸动画达到了以假乱真的效果。技术的成熟使人脸建模和动画在影视娱乐等行业也得到了广泛的应用,例如越来越多以三维人为主角的电影和动画相继出现。2009年底,3D立体电影 《阿凡达》创造了又一个票房神话,其中的三维虚拟化身的人脸表情给观众留下了深刻的影响。

我们试图从历史发展结合当前的最新研究动态对三维人脸建模和动画的技术及算法进行一个综述,以对现有的算法进行较为深入的梳理,并为进一步的研究提供线索。

1 三维人脸建模

三维人脸建模既属于一般的三维物体重建,又具有自身的特点,其建模过程同样包括:三维信息获取和三维建模。下面在对三维信息获取技术介绍的基础上对三维人脸重建的一些典型算法进行综述。

1.1 三维捕获技术

三维信息测量或捕获技术从早期的接触式测量到近年来得到快速发展的非接触式的、光学的三维捕获技术使三维物体重建过程更加快速和灵活。非接触式三维捕获技术主要有:雷达测距(time-of-ight)、激光扫描三角化、编码结构光、相移、立体摄影测量、从X恢复形状(其中的X可以是轮廓、纹理、光度等)。这些三维测量或捕获技术可以捕获深度图像或三维散乱数据点等三维信息,可用于重建包括静态人脸的一般三维物体。

雷达测距技术通过测量一个光、声、微波脉冲从发射到物体并经物体发射最后回到接受装置的传播时间,得到物体上相应点的深度信息,声波雷达价格低,但精度和速度也低,微波雷达适合于远距离测量,具有较高精度,光学雷达可以获得更高的精度,可同时获取几何和颜色信息,例如3DV系统公司的三维相机Z-Cam和微软的Kinect都是通过发射一个红外光墙获取三维物体的深度图像。

雷达测距技术获取的三维信息精度不高,激光扫描三角化技术通过向物体发射一束激光条,根据相机得到的相应图像基于三角化原理得到激光条对应的物体上点的三维坐标,可以获得很高的精度。激光扫描系统是获取高质量三维信息的主要技术手段,但激光扫描系统通常具有价格贵、只能捕获静态物体以及侵入性等缺点,例如由于激光对人眼具有伤害性,无法用激光扫描系统扫描人眼模型。

编码结构光、相位移、立体摄影测量等技术都同样地基于立体视觉原理,通过同步的多个相机获取的图像及其像素对应关系的建立,应用三角原理可以获得物体的稠密的高精度的三维点云。

从X恢复形状(其中的X可以是轮廓、纹理、光度等)则利用各种图像分析特别是计算机视觉技术从轮廓、纹理、阴影或光度等其他的一些线索重建三维信息。

1.2 三维人脸建模

按照人脸模型的表示方式不同,人脸建模技术可分为基于参数化曲面的人脸建模和设计、基于三维数据点插值的人脸重建、线性混合人脸、基于物理原理或生理仿真的人脸重建及动画等。

1.2.1 基于参数化曲面的人脸建模和设计

Parke认为不同的人脸模型可以从同一个拓扑模型变化而来,为此,他定义了一个参数化的通用人脸模型,通过修改这些保形参数并采用基于双线性插值的方法,他创建了10个不同的人脸模型,然而参数调节是一个费时费力的痛苦过程,产生的人脸质量也不高。

现代人脸建模软件如FaceRobot等通常用一个参数化曲面如B样条曲面表示人脸模型,通过参数化曲线曲面交互编辑进行人脸模型的建模和设计,可以创建较高质量的人脸模型,这种建模方法可以从头设计或通过编辑修改设计各种三维人脸模型,但需要技艺高超的设计师进行较长时间的手工设计,不适合人脸的自动重建。

D.DeCarlo[3]提出基于人脸测量数据的约束优化变分问题求解一个参数化B样条人脸模型。对特定人群测量得到的测量数据(包括距离、约束等)的统计数据以及测量数据的约束关系图,在对人脸进行三维建模时,首先由统计数据生成B样条人脸模板,其控制网格的参数设为p,当通过随机生成或用户指定方式指定初始的测量数据时,根据约束关系图得到其余的测量数据,然后采用约束优化技术求解一个满足测量数据约束并保持与人脸模板的变形薄壳能量最小的B样条人脸模型参数p'。

1.2.2 基于散乱数据插值或拟合的人脸重建

三维捕获技术可以获取物体的稠密三维点云,二十多年来,人们提出了许多基于三维散乱数据点插值或拟合的曲面重建算法,如径向基插值、隐函数重建等,基于三维扫描点云可以重建高分辨率的三维人脸模型。

考虑到三维扫描系统需要专门设备,具有价格高、操作不灵活等缺点,研究人员更热衷于于如何从低成本的普通图像或视频中重建三维人脸。Pighin等[4]通过在不同角度拍摄的人脸图像之间人工指定足够多的对应点,基于立体视觉原理,应用非线性优化技术从这些对应的二维图像点恢复三维数据点以及相机的拍摄参数,采用基于径向基插值方法从这些稀疏的三维数据点中重建三维人脸模型,最后根据人脸图像和相机参数,应用视点独立或依赖的纹理映射技术生成真实感的三维人脸。其表示三维人脸模型变化的径向基插值函数表示如下

式中:pi——基于立体视觉原理和束调整优化技术求得的二维图像点对应的三维数据点,M、t——仿形变换。通过求解满足约束∑ci=0和的一组f(pi)=ui的线性方程组,可求得光滑变形域f(p)。

该方法不需要借助于专门的三维扫描仪等设备获取稠密点云,仅仅从几幅图像就可以重建真实感三维人脸模型,具有建模成本低、灵活的优点,但需要在几幅不同角度图像上指定对应点,且重建的三维几何模型的质量不高。

近年来,随着计算机视觉等研究的深入,基于图像或单相机视频的三维重建技术得到了进一步发展,例如Higo等[5]采用一个带有光源的手持相机,从不同角度拍摄物体的几幅图片,通过图切优化方法求解一个包含图像一致性约束、曲面法矢量约束和光滑性约束的能量优化问题,将立体视觉和光度立体结合起来,有效地避免了单个技术的局限性,从单个相机的几幅图片就可以重建高质量的三维物体模型。

1.2.3 线性混合人脸

“形状混合”技术认为所有人脸构成了一个线性空间,通过对配准的大量三维人脸模型及其纹理的主元分析法(PCA)降维技术,任意一个人脸可以用有限个人脸基的线性组合逼近。这种方法要先建立一个具有类型多样性的三维人脸数据库,建立数据库中特定的个性化人脸的典型方法可采用前述的从三维扫描数据点云或基于立体视觉原理获取的三维数据点云重建人脸。基于人脸数据库,通过主元分析法方法对人脸数据库中的人脸模型进行统计分析,建立统计意义上的参数化通用人脸模型。

例如,Blanz和Vetter[6]通过建立配准的西方人脸数据库,提出了称为“可形变模型”的参数化3D人脸模型。每个人脸网格的所有顶点坐标及其纹理颜色可组合成如下的形状向量和纹理向量

通过对数据库中所有人脸的形状向量空间和纹理向量空间进行主元分析,可以将任何一个新人脸的形状向量表示为平均形状向量和形状主元向量的线性组合,而新人脸的纹理向量表示为平均纹理向量和纹理主元向量的线性组合

Blanz和Vetter将该参数化人脸形变模型拟合到一幅正面图像上,重建该图像对应的三维人脸模型及其纹理,生成了较高真实感的人脸。该技术已经被广泛地集成于各种人脸建模和动画软件如Poser、FaceGen、Maya中,用于快速地低成本地生成三维人脸模型。Liu等[7]的参数化人脸模型也基于同样的思路,只不过没有通过主元分析获取平均人脸和主元人脸,而是借助于艺术家设计了一个通用的人脸模型和一系列的变化模型,通过通用人脸模型和这些变化模型的线性组合表示一个参数化人脸,在本质上是一样的。

基于形状混合的方法需要构建足够大的数据库,不仅需要昂贵的设备或艺术家费时的设计,更需要进行复杂的模型配准、修补、对齐等数据处理工作,以便模型之间、模型和图像之间建立起一致的对应。对于不能被数据库中人脸覆盖的人脸几何和纹理,用该方法建立的人脸模型质量会很差,而人脸图像不可避免地受到光照、噪声等因素的影响,使得该方法具有一定的局限性,难以建立高精度几何的人脸模型。

2 人脸动画

丰富的人脸表情可以充分表达人的内心世界并打动观众,而人的视觉对人脸表情的微妙变化也极其敏感,因此人脸表情动画是计算机图形学的一个极其困难的挑战性问题。三维人脸动画技术主要可分为基于形状插值的、基于参数模型的、基于生理结构或物理模型的、数据驱动人脸动画。

2.1 关键帧插值

关键帧插值技术是最简单也最常见的动画技术,通过对关键人脸表情的插值生成关键帧之间的人脸表情,具体的插值技术有简单的线性插值、余弦插值、样条插值、双线性插值等。不同于基于曲面表示的人脸模型的几何插值,Sera[8]采用了基于其物理表示人脸模型的弹簧肌肉力参数的线性插值生成两个关键人脸表情之间的插值人脸表情。

关键帧插值技术虽简单快速,但只是用于关键帧变化较小的情形,对于差异大的关键帧效果很不理想。

2.2 参数化方法

Parke最早采用一些参数描述表情的变化,通过参数的调整设计不同的人脸表情,但没有有效的方法解决参数冲突,也容易产生不真实的人脸表情,参数表示依赖于人脸拓扑,因此很难设计一个通用的参数模型,只有经验丰富的动画师才能设计高质量的人脸动画。

Blanz与Vette[6]的可形变人脸模型在线性插值技术基础上,通过对一组表示不同形状、纹理以及人脸属性(性别、眼影、鼻形、微笑、皱眉、微胖)的差分向量参数表示不同的人脸表情。这种通过插值权的变化驱动人脸表情的方法具有效率高的优点,已经作为一种经典技术被广泛的应用于三维人脸动画中,数字Emily工程中也采用了这种形状混合方法通过视频特征的捕获直接驱动三维数字人脸Emily的表情变化,给人留下了深刻的印象。

2.3 基于物理原理或生理仿真的人脸建模及动画

基于物理原理或生理仿真的人脸建模技术主要有:伪肌肉模型、质点弹簧肌肉模型、向量肌肉模型、层次弹簧模型。

伪肌肉模型并不真正定义人脸肌肉,而是采用一些肌肉仿真的技术描述人脸不同部位的肌肉运动效果,Ekman和Friese[9]提出脸部运动编码系统(FACS),基于脸部组织器官的解剖学原理和肌肉的运动分析,定义了44个模拟肌肉运动的独立运动单元,通过对每个基本单元赋予相应的数值可产生相应的脸部表情,FACS的主要问题在于运动单元是局部的,而人脸表情变化是整体的,FACS只描述了人脸的空间运动,而不能表示时间的变化。尽管如此,这种用参数表示表情变化的方法具有数据量小、简单的优点,因此,也被MPEG-4标准用于描述人脸表情。

Platt和Badler[10]最早采用质点弹簧原理的弹性网格对人脸结构和肌肉进行建模,通过作用于肌肉弧的力驱动人脸表情变化。Waters[11]提出一种更为成功的向量肌肉模型,一个向量肌肉刻画了从起点沿方向作用衰减的一个锥形影响区域,并定义了用于刻画括约肌的椭球体肌肉,这些向量肌肉用于表示不同类型的肌肉(线性肌、块状肌、刮约肌),产生如拉伸、挤压等不同的肌肉效果。

为了表示细节生理结构和人脸动态效果,Terzopoulo[12]提出三层变形网格人脸模型,分别对应皮肤、脂肪组织、和骨骼相连的肌肉,弹性弹簧连接每个网格结点和每一层,肌肉力通过这三层弹性网格的传播驱动人脸表情变化。为改善构造这种肌肉模型的艰巨的手工设计过程,Lee和Terzopoulo[13]进一步将通用的三层网格模型拟合到从扫描获取的深度和反射数据,通过自动插入收缩肌肉到动态皮肤模型下的恰当的生理结构位置,用一个铰链颌固定到估计的壳结构上。算法同时也自动合成功能性的眼、眼皮、牙齿、脖子并拟合到最终的模型上。

Kalra[14]结合有理自由变形技术和区域肌肉模型,通过肌肉的控制包围盒的控制顶点的变化模仿肌肉的扩张、收缩等效果。

Sifakis[15]提出基于有限元和肌肉仿真的人脸生理模型,每个骨骼表示为一个三角网格,用一个四面体网格和B样条纤维域表示每块肌肉,用一个四面体网格表示所有的软组织。借助于这种表示法,提出了一个从捕获的稀疏标记点数据自动确定面部肌肉活动的算法。

尽管高度复杂的肌肉模型可以产生逼真度高的人脸表情变化,但构造肌肉模型及其参数的设计是一个复杂艰巨的工程,而且复杂的肌肉模型计算量很大,而简单的肌肉模型则很难产生视觉上令人满意的表情,这些都限制了基于伪生理或物理人脸模型的普及和应用。

2.4 数据驱动人脸动画

目前最为成功的人脸动画技术是通过表演数据驱动人脸动画,主要有基于标记运动捕获表情驱动技术和非标记图像或视频的表情驱动技术。

2.4.1 基于标记(Marker)的人脸表情动画技术

基于标记(Marker)的人脸表情动画技术发展已经相当成熟,在影视制作中得到了广泛应用。通过在人脸上施加许多标记(Marker)或安装电磁传感器,通过运动捕获设备获取标记或电磁感应器的三维运动坐标,应用径向基插值等变形技术驱动人脸表情的变化。Bickel[16]根据人脸上的标记的运动应用薄壳能量优化方法捕获大尺度面部运动,通过在人脸上涂印皱纹等细节并捕获这些细节印痕以分析其高分辨率表情变化,并基于这些高分辨率表情变化例子的学习插值精细尺度的表情变化,可以获得较高质量的细节人脸动画。Ma[17]采用“分析后合成”的方法根据运动捕获标记合成高细节人脸动画,在分析阶段,通过分析运动捕获的标记和细节人脸模型的关系得到用多项式位移图表示的细节表情变化,在合成阶段,通过标记的运动捕获数据驱动多项式位移图。采用这种方法,可以生成大尺度肌肉变形、中等和精细的褶皱、动态皮肤孔隙等效果。

2.4.2 非标记图像或视频驱动的人脸动画

基于标记的运动捕获技术具有侵入性、设备昂贵、制作成本高等不利因素,基于图像或视频的人脸动画技术试图从普通的图像或视频流重建人脸动画。

同步的多相机视频流的高质量人脸动画

Zhang等[18]提出基于同步的多个视频流的“时空脸”动画技术,根据多个立体相机捕获的视频流,提出基于光流的时空约束优化技术重建高分辨率人脸模型及其表情动画,该方法可以用于建立高质量的人脸表情动画数据库,然而需要建立复杂的捕获装置。

Bradley[19]通 过 14 个 Sony HDR-SR7 相 机 以 及 9 个LED发光板装置(每个发光板由192个LED组成)构建一个光照均匀的同步相机组捕获环境,14个相机两两配对构成7个双目立体对,分别用于捕获人脸的7个不同部位的精细信息,通过多视立体重建初始的人脸几何,采用基于光流的运动重建方法跟踪运动变化的几何和纹理,获得了很高质量的人脸动画。

基于单相机视频流的人脸动画:这类方法通过综合应用图像特征分析、立体视觉、光流等图像分析和计算机视觉等技术,建立图像之间的匹配关系或检测特征信息,并应用各种网格变形技术驱动人脸模型的表情变化。

Liu等[7]提出一个基于普通摄像头的视频进行人脸建模并通过用户定义位移向量的大小进行表情设计:通过在视频图像中指定语义点和自动检测的角点对应关系,应用立体视觉技术得到三维离散点,再用线性混合模型拟合这些三维散乱数据点,得到三维人脸几何模型,并建立模型的纹理图。用户通过交互编辑位移向量的大小进行人脸表情设计。其方法简单、快捷,但其人脸模型和设计的表情的质量仍然比较粗糙。

沈侯尝了一口,“不错!你们女生可真能折腾,我们男生就用开水泡一泡。”因为锅很小,一次只够煮一包面,颜晓晨开始给自己下面,沈侯一直等着。颜晓晨说:“你怎么不吃?方便面凉了就不好吃了!”

Chai[20]采用主元分析法对基于标记的运动捕获表情数据库进行PCA降维处理得到低维的线性表情模型,通过对任意一个人脸的单视频流进行特征点跟踪和头部运动分析,从中抽取出视频中人脸的表情控制信号,用从运动捕获数据库中抽取的同样的表情控制信号对视频表情控制信号进行过滤,通过k近邻搜索找到运动捕获数据库中的k个表情,并加权线性插值得到视频控制信号对应的捕获人脸表情,再借助基于径向基插值变形的表情传输技术驱动虚拟化身(Avatar)人脸产生同样的表情动画。

Weise[21]提出基于非刚性模型配准方法的实时人脸动画传输驱动技术,先通过对一个中性高分辨率人脸模板及其表情动画的非刚性配准拟合,建立演员的个性化人脸及其表情动画模型,以后通过该演员的现场表情表演实时驱动各种不同人脸模型的动画。

文献[20-21]都属于数据驱动的表情克隆技术,通过将一个人脸模型的表情变化传输到另一个不同的人脸上,使得表情变化得到重用。

人脸表情编辑:不同于数据驱动的直接人脸动画技术,Lau[22]从表情设计的角度,提出了基于表情数据库和交互编辑约束的表情编辑技术,系统从预先记录的表情数据库学习一个先验知识模型,将表情编辑问题表达成一个包括用户交互设计约束(点约束和线画约束)和先验知识的最大化后验概率(maximum a posteriori,MAP)框架

式中:p——待求的模型参数,而c是用户交互约束,pr(p)、pr(c/p)——模型参数p的先验统计概率、约束c关于模型p的条件概率,而pr(p/c)则是约束c下的模型参数p的后验概率,通过负对数法,最大化该后验概率归可结为下述的能量最小问题

3 结束语

我们从历史发展和研究现状结合的角度对三维人脸建模和动画的典型技术的思想、局限性和优缺点等进行了较为系统的描述和比较,并分析了相关研究的内在联系。限于篇幅,对诸如嘴形变化、二维人脸动画、语音驱动表情变化、人脸次表面绘制技术等非密切关联的问题未做介绍,这方面的描述可参考文献[2,23-25]。我们认为未来的研究将集中于下述这些方面:

(1)高质量细节人脸建模和动画技术。尽管现有技术可产生相对逼真的人脸模型及表情动画,但真实人脸具有极为丰富细致的几何和纹理信息,如皱纹、毛孔、人眼及瞳孔等,并且这些丰富的信息随着人的行为、心理、心情等而产生极为丰富细腻的表情变化,如人眼的细节变化可以充分反映人的内心世界。近几年来,对这些更困难问题的研究兴趣已经引起一些国外研究人员的注意,国内的研究人员需要密切关注这方面的研究。

(2)低成本的三维人脸建模和动画,如何设计或结合低成本的感知设备和技术如立体相机、Kinect进行三维人脸建模和动画,特别是实时性的人脸编辑和动画,具有很大的实用价值和市场前景。

(3)基于人脸肌肉和骨骼仿真的伪生理或伪物理人脸模型及其表情变化设计可能会重新引起图形学研究人员的兴趣。这些年来,基于物理仿真的人脸动画技术研究并未取得实质的进展,我们认为,将数据捕获和伪生理人脸模型结合起来进行人脸表情设计,可以给基于物理仿真的人脸动画技术研究开辟新的研究方向。

[1]Parke F I.Computer generated animation of faces[C].Computer Graphics Proceedings,Annual Conference Series, ACM SIGGRAPH,Boston,Massachusetts,United States,1972:451-457.

[2]Alexander O,Rogers M,Lambeth W,et al.The digital Emily project:Achieving aphotorealistic digital[J].IEEE Computer Graphics and Applications,2010,30(4):20-31.

[3]DeCarlo D,Metaxas D,Stone M.An anthropometric face model using variational techniques[C].Orlando,FL,USA:Computer Graphics Proceedings,Annual Conference Series.ACM SIGGRAPH,1998.

[4]Pighin F,Hecker J,Lischinski D,et al.Synthesizing realistic facial expressions from photographs[C].Orlando,FL,USA:Computer GraphicsProceedings,Annual Conference Series.ACM SIGGRAPH,1998:75-84.

[5]Higo T,Matsushita Y,Joshi N,et al.A hand-held photometric stereo camera for 3-D modeling[C].Kyoto:IEEE International Conference on Computer Vision,Institute of Electrical and Electronics Engineers,Inc,2009.

[6]Blanz V,Vetter T.A morphable model for the synthesis of 3D faces[C].Orlando,FL,USA:SIGGRAPH Proceedings,1999:71-78.

[7]LIU ZC,ZHANG ZY,Jacobs C,et al.Rapid modeling of animated faces from video[C].Mexico:Proceedings of The Third International Conference on Visual Computing,2000:58-67.

[8]Sera H,Morishma S,Terzopoulos D.Physics-based muscle model for moth shape control[C].Tsukuba,Japan:Proc 5th IEEE International Workshop on Robot and Human Communication,1996:207-212.

[9]Ekman P,Friesen W V.Facial action coding system[M].Palo Alto,CA:Consulting Psychologists Press,1978.

[10]Platt S,Badler N.Animating facial expression[J].Com-puter Graphics,1981,15(3):245-252.

[11]Waters K.A muscle model for animating three-dimensional facial expression[J].Computer Graphics,1987,21(4):17-24.

[12]Terzopoulos D,Waters K.Physically-based facial modeling,analysis,and animation[J].Journal of Visualization and Computer Animation,1990,1(4):73-80.

[13]Lee Y C,Terzopoulos D,Waters K.Realistic face modeling for animation[C].Los Angeles,California,USA:Computer Graphics Procee-dings, Annual Conference Series,ACM SIGGRAPH,1995:55-62.

[14]Kalra P,Mangili A,Thalmann N M,et al.Simulation of facial muscle actions based on rational free from deformations[J].Computer Graphics Forum,1992,2(3):59-69.

[15]Sifakis K,Neverov I,Fedkiw R.Automatic determination of facial muscle activations from sparse motion capture marker data[C].Los Angeles,California, USA:Computer Graphics Proceedings,Annual Conference Series.ACM SIGGRAPH,2005:417-425.

[16]Bickel B,Lang M,Botsch M,et al.Pose-space animation and transfer of facial details[C].Dublin,Ireland:Proceedings of the ACM SIGGRAPH/Eurographics Symposium on Computer Animation,2008:57-66.

[17]Ma W C,Jones A,Chiang J Y.Facial performance synthesis using deformation driven polynomial displacement maps[J].ACM Transactions on Graphics(ACM SIGGRAPH Asia),2008,27(5):121:1-121:10.

[18]Zhang L,Snavely N,Curless B,et al.Spacetime faces:High resolution capture for modeling and animation[J].ACM Transactions on Graphics,2004,23(3):548-558.

[19]Bradley D,Heidrich W,Popa T,et al.High resolution passive facial performance capture[J].ACM Transactions on Graphics(Proceedings of SIGGRAPH),2010,29(4):1-10

[20]Chai JX,Xiao J,Hodgins J.Vision-based control of 3Dfacial animation[C].San Diego,California,USA:Proc of ACMSIGGRAPH/Euro graphics Symposium on Computer Animation,2003:193-206.

[21]Weise T,Li H,Gool L V,et al.FACE/OFF:Live facial puppetry[C].New Orleans,USA:Proceedings of the ACM SIGGRAPH/Eurographics Sympo-sium on Computer Animation,2009.

[22]Lau M,Chai JX,Xu YQ,et al.Face poser:Interactive facial expression modeling using model priors[C].San Diego,California, USA: ACM SIGGRAPH/Eurographics Symposium on Computer Animation,2007.

[23]Cao Y,Tien W C,Faloutsos P,et al.Expressive speechdriven facial animation[J].ACM Transactions on Graphics,2005,24(4):1283-1302.

[24]Golovinskiy A,Matusik W,Pfister H,et al.A statistical model for synthesis of detailed facial geometry[J].ACM Transactions on Graphics(Proc SIGGRAPH),2006,25(3):1025-1034.

[25]Banf M,Blanz V.Example-based rendering of eye movements[J].Computer Graphics Forum,2009,28(2):659-666.

猜你喜欢

插值人脸动画
Clifford hits the big screen
滑动式Lagrange与Chebyshev插值方法对BDS精密星历内插及其精度分析
有特点的人脸
一起学画人脸
做个动画给你看
动画发展史
我的动画梦
三国漫——人脸解锁
基于pade逼近的重心有理混合插值新方法
混合重叠网格插值方法的改进及应用