位置:成果数据库 > 期刊 > 期刊详情页
非线性联合学习的三维人脸表情合成方法
  • ISSN号:1003-9775
  • 期刊名称:《计算机辅助设计与图形学学报》
  • 时间:0
  • 分类:TP391[自动化与计算机技术—计算机应用技术;自动化与计算机技术—计算机科学与技术]
  • 作者机构:[1]浙江大学计算机科学与技术学院,杭州310027
  • 相关基金:国家自然科学基金(60873124).
中文摘要:

针对人脸表情数据的非线性分布特性,提出一种基于非线性联合学习的三维人脸表情合成方法.首先提出非线性联合学习理论,通过无监督回归将具有相同属性的三维人脸映射到相同的低维表达;其次,基于三维人脸的低维表达对低维表达进行重建操作,为给定的三维人脸合成表情,或基于样例表情进行表情的重定向.另外,非线性联合学习方法还能有效地处理带噪声及不完整的人脸数据,获得完整的表情人脸.实验结果表明,文中方法的表情重定向合成结果及合成效率优于已有方法.

英文摘要:

3D facial expression synthesis has been an important and challenging task in the field computer animation. Inspired by the fact that facial expressions distribute on a nonlinear manifold, propose an approach for 3D facial expression synthesis based on nonlinear co-learning. Firstly, facial expressions with the same attribute are projected onto an identical low dimensional representat according to the theory of nonlinear co-learning, by means of unsupervised regression. Second based on the low dimensional representations of 3D faces, reconstruction operations are needed of we aD ion ly, to synthesize expressions for given 3D faces, and to retarget expressions based on given expression samples. The proposed approach is able to handle noisy/incomplete input faces, and generate intact expressional faces. Experimental results show that the proposed 3D facial expression synthesis outperforms the existing methods both in quality and in efficiency.

同期刊论文项目
同项目期刊论文
期刊信息
  • 《计算机辅助设计与图形学学报》
  • 北大核心期刊(2011版)
  • 主管单位:中国科学技术协会
  • 主办单位:中国计算机学会
  • 主编:鲍虎军
  • 地址:北京2704信箱
  • 邮编:100190
  • 邮箱:jcad@ict.ac.cn
  • 电话:010-62562491
  • 国际标准刊号:ISSN:1003-9775
  • 国内统一刊号:ISSN:11-2925/TP
  • 邮发代号:82-456
  • 获奖情况:
  • 第三届国家期刊奖提名奖
  • 国内外数据库收录:
  • 俄罗斯文摘杂志,荷兰文摘与引文数据库,美国工程索引,英国科学文摘数据库,日本日本科学技术振兴机构数据库,中国中国科技核心期刊,中国北大核心期刊(2004版),中国北大核心期刊(2008版),中国北大核心期刊(2011版),中国北大核心期刊(2014版),中国北大核心期刊(2000版)
  • 被引量:24752