iPhone就可以实现的动捕?MetaHuman Animator 为数字人制作降低成本
翻译 | 胡瑞滢
订阅 | 010-86092062
Epic Games 在今年游戏开发者大会上发布了名为 MetaHuman Animator 的全新面部动画工具。
用户可以使用这个工具通过 iPhone 或立体声头戴式摄像系统捕捉表情和动作,并且无需手动操作就可将其作为高保真面部动画应用在MetaHuman中的角色身上。
这一新工具能够更加准确地捕捉人物微妙的表情和情绪,以便将其在数字人身上复制出来。这次发布承诺改进现有的动作捕获流程,同时通过增加更大的创造性控制空间来减少使用者的时间和精力。
新功能包括4D解算器——在 MetaHuman 中将动作捕捉视频和深度数据与表演者相结合。使用GPU硬件在本地制作,几分钟后即可获得最终动画。
《蓝点》是由Epic Games的团队与当地塞尔维亚艺术家合作创作的一部短片。该团队运用MetaHuman Animator,通过极少的精力投入实现了这样令人印象深刻的动画质量水平。
成片见下方视频:
MetaHuman Animator捕捉到的面部动画可以应用于任何MetaHuman角色或任何符合MetaHuman面部识别标准的角色。
MetaHuman 现在只需三帧,以及使用iPhone或立体声头戴式摄像系统捕捉的深度数据,就可以创建数字人。在拍摄过程中,团队可以在虚幻引擎中查看动画数据,以便在最终角色设置动画之前评估捕捉质量。
MetaHuman现在只需三帧,就可以使用iPhone或立体声头戴式摄像系统捕捉的深度数据创建数字人。拍摄过程中,还可以在虚幻引擎中审核动画数据,以便在最终角色设置动画之前评估捕捉质量。
此外,MetaHuman的网格扩展允许用户直接设置模板网格点的位置。只要它严格遵守MetaHuman拓扑,用户就可以得到完全装配的网格模板,而不是近似值。它与DNA Calib功能一同协作,为网格和关节设置中性姿势,以快速锁定自定义角色。
更多关于 MetaHuman的使用信息可见于Epic开发者社区,在那里用户可以了解Epic工具并与他人交换信息。它还提供论坛和教程部分,其中包含Epic和用户制作的教程内容。
推荐阅读
我知道你在看哟