据外媒报道,目前,3D渲染人脸在任何大型电影或游戏中都占有重要地位,但要以自然的方式捕捉它们并赋予它们动画效果却是一项艰巨的任务。为此,迪士尼研究中心正在研究如何使这一过程变得更加顺畅的技术,其中,一种机器学习工具可以让生成和操纵3D人脸变得更加容易。
这种技术已经从早期的木制表达和有限的细节发展了有很长的一段时间。高分辨率、令人信服的3D人脸可以帮助快速、良好地制作动画,然而人类表情的微妙之处不仅是它的多样性而且还有它的假装性。想想看,当一个人微笑时,他的整个面部会发生怎样的变化--虽然每个人的表情都不一样,但却有足够多的相似之处以此来帮助我们分辨出一个人是否真的在笑。那么如何才能在一张人造脸上达到那种程度的细节呢?
现有的“线性”模型简化了表情的微妙性,虽然可以精确地表达“快乐”或“愤怒”的表情,但以准确性为代价--它们无法表达所有可能的表情。现在,迪士尼的新神经模型可以通过观察表情之间的相互联系来学习复杂性,但跟其他类似的模型一样,它们的运作方式也是模糊的,难以控制的,所以目前除了让它们学习各种面孔之外还不具备被推广的能力。它们还不能达到艺术家在电影或游戏中所需要的控制水平。
据了解,迪斯尼研究中心的一个团队提出了一种两全其美的新模型--他们称之为“语义深度面部模型(semantic deep face model)”。这当中不涉及精确的技术执行,其基本的改进是--一个神经模型,它能学习面部表情是如何影响整个脸的且还不是专门针对某一张脸--此外,它还是非线性的,这意味着它能允许灵活的表情跟面部的几何形状和彼此互动。
结果是强大的:您可以生成一千张不同形状和情绪的面部,然后使用相同的表情让它们动画化,这项工作则不再需要任何额外的工作。想想看,随便点击几下就能召唤出不同的CG人物或在游戏中拥有能做真实面部表情的角色是一件多么兴奋的事情。
内容来源:青亭网