用计算机“造人”,这家公司认为“虚拟人”才是「新一代人机交互界面」
文 | 茉小莉
图片来源 | Pexels
3 月全球上映的《阿丽塔:战斗天使》重燃了大众对影视特效的讨论。
由影视科技教父卡梅隆监制的《阿丽塔》,使用了动作捕捉、表情捕捉等技术,使电影主角的表情动作能基于真实的人类演员生成。
但近期,36氪发现一家中国公司「原力动画」,他们想做的是:直接跳过人类演员,让计算机直接生成无限逼近人类、难辨真伪的虚拟演员。
先来看看下面这张动图。
数字虚拟人 图像来自原力动画
初看还以为这是哪位新晋艺人,因为动图里的人物,从细微表情、大幅度动作、皮肤质感,甚至到眼神都相当细腻传神,用“以假乱真”来形容实不为过。
但原力动画创始人兼 CEO 赵锐告诉我,“这是我们做的虚拟人,真实世界不存在”。
赵锐说,这个虚拟人形象是由计算机动画创造的。经过近 3 年研发迭代,原力具备了完整的虚拟人生产流程,相对于研发之初的「高成本全部渲染模式」,已经实现了「低成本实时动画」模式。
而这项研发成果的商用范畴,未来将突破影视圈,陆续落地金融服务、教育、医疗等领域。
甚至赵锐认为,虚拟数字形象将可能成为未来最有潜力的「新一代人机交互界面」。
硬核科技,驱动虚拟世界无限逼近真实
《圣经》旧约开篇,上帝依照自己的形象创造了人类,为其注入灵气,于是人类可以行走坐卧、起心动念。类比这两个步骤,原力研发虚拟人时也有类似的“操作”。
原力按照人体力学、生物学原力,搭建了整套模拟系统,包括最新的面部肌肉系统、全身肌肉系统、表演捕捉系统、以及面部动画自动识别系统等。
赵锐告诉36氪,“制作超写实的虚拟人物数字影像,绝非几个系统就能独立完成,最核心的是用完整的生产流程,把不同的科技进行串联,例如肌肉系统只是底层,上层需要数据来正确驱动肌肉的运动。让各系统的数据连接、协同是整个技术的关键。”
赵锐透露,原力正在开发用机器学习算法来全面模拟人面部动作的自动动画系统。可以设想,未来虚拟人的表情动作会更“自然”、“智能”甚至“自主”。
肌肉系统示意图 图像来自原力动画
我们先说说「肌肉」系统。
人体的动作,是骨骼、筋膜和肌肉的运动效果呈现,不少 3D 形象之所以僵硬,是因为它们只调动了骨骼做粗线条的移动。这不难理解,和人类「瘫痪」类似 —— 由于运动神经缺失,无法调动骨骼、肌肉运转来作出指令动作。
怎么让动作指令能直达、调动每一寸肌肤?首先得有一套人体解剖学指导下的身体系统。
为了实现人物角色真实的肌肉效果 ,原力研发团队搭建出了 147 根肌肉,来对应人体真实肌肉反应,再依次多环节解算,得到最终皮肤效果。
原理层面,他们将运动过程的实现分为五个阶段:骨骼动画,肌肉解算,筋膜解算 ,脂肪解算和皮肤解算(及皮肤与表情合并),通过连环反应,来“还原”真实肌肉的挤压拉伸、滑动和抖动效果。
据了解,目前国内鲜有团队将肌肉系统应用在人物、特别是人物面部动画上。
其次是「3D 实时表情训练系统」。
怎么让虚拟人的表情更细腻、真实?为此原力投入重金研发了自己的面部表情流程,可以理解为一个便捷、高效的人工智能 CG 表情系统。
它可以将「动力学解算生成的肌肉数据」,和人类 3D 图像工程师「手工雕刻的数据」或者「扫描数据」转化导入「表情控制器」,高效产出表情动作。举例来说——
以往,数字形象每做一个表情动作,需要动画、绑定、特效工程师配合完成,其中绑定(blendshape)的工作量最大,他们需要把一个连贯的表情切分到每一帧的动作,通常一个眨眼、微笑需要完成数百帧的工作量,大约一个人要工作数百个小时才能完成。
而原力基于肌肉的「facs 面部系统」,从数据结果倒推,通过神经网络的计算方式反向计算回控制器,不需要绑定师再去设计 MAYA DAG、去连接到每个目标体里,减少了多余的层级和节点,以往 Hero 角色需要 1000 多个设计节点,现在只需要 300 个左右,且灵活度、顺畅度,以及整体运算速度、制作效率成倍提升。且目前面部的肌肉效果已经可以在 unreal 引擎里导出实时图像。
数字虚拟人 图像来自原力动画
上万小时运算训练,压缩 83% 的制作时间
在虚拟人的视频里,我们看得到的层面,是一个让人类惊异的虚拟人在呈现超写实表演;我们看不到的层面,是计算机模拟人体各个系统的复合运算。
赵锐告诉36氪,“之前的技术,生成一个虚拟人需要半年以上的时间,应用原力自主研发的新技术后,初始角色制作可以缩短到一个月左右。”
说起来驾轻就熟,其实虚拟人能呈现出流畅自然的效果,原力付出得是超过 50 人的科研团队 5 年来的人像制作经验、上千 TB 量级的数据积累,上万小时的计算机运算训练,和每年超过千万元的软硬件研发投入。
此外,据了解,原力成立以来,便开始系统性积累人像数据,这也是原力的壁垒之一。过往项目中,数千小时的数据积淀,作为机器学习的样本,是原力研发虚拟人技术的支撑。赵锐表示,“市面上除了原力,可能很难再找到数量如此庞大、完整的 3D 人像数据源。”
赵锐告诉36氪,“公司目前正在做的课题是「虚拟人的深度学习」,同样需要把数据集,也就是学习素材提供给计算机。以往,虚拟人物的面部表情、长相,需要 3D 艺术家来做原画、3D 模型。基于我们的数据,很快可以全部交给机器,让机器模拟人类的思考过程、创造路径,产出指定的形象、表情和动作。”
“当然,计算机永远是辅助人的,艺术家仍然是这个流程中的关键动力,但是未来艺术家的时间精力将得到释放,可以从事更多更有创造性的工作。”
现在原力已经着手研发下一代 AI 和机器学习方案,希望计算机能根据指令特征,数秒内生成上百个虚拟人的 AI 系统,并且后期内容制作能够实时生成。
未来,计算机自动生成人像过程中,将加载上匹配角色特征、人物性格设定、AI流程科技(如灯光、渲染等)等的复合系统,虚拟人的真实感和画面的精细度,以及内容生产的智能化程度将成倍提升。当机器能够规模化生产形象、性格设定各异的虚拟人时,商用的可能性将变得更加有趣。
https://v.qq.com/txp/iframe/player.html?width=500&height=375&auto=0&vid=n0857lm9zdb
未来想象空间:金融、教育服务,以及「新一代人机交互界面」
赵锐向36氪表示,关于虚拟人的商用,虽然大众首先会联想到虚拟偶像、虚拟演员等影视、游戏产业的应用,但原力却打算突破“影游次元壁”。对话中他多次提到金融服务、教育、医疗等落地场景。
以金融场景为例,某大型银行正在使用原力的技术,提供 3D 虚拟智能客服。由于金融服务有其特殊性,在客户服务中对信任、安全、可靠的诉求比较高,对虚拟客服的要求也比较高,相对于人工拍摄录制视频、2D 卡通视频,通过「AI 虚拟人」配合「AI 语音识别」来完成服务,是行业正在发生的新变。
此外,联想到《失控》作者凯文·凯利在对未来世界进行展望时提到的「镜像世界」观点,我们的视角将变得更广阔。「镜像世界」由耶鲁大学计算机科学家大卫·盖尔纳特(David Gelernter)首次提出, 作家豪尔赫·路易斯·博尔赫斯(Jorge Luis Borges)也对此做过畅想。
不久的将来,现实世界中的每一个地方和事物 —— 每一条街道、每一个灯柱、每一栋建筑物和每一个房间 —— 都会在镜像世界中拥有它的全尺寸“数字孪生兄弟”。
镜像世界不仅反映出事物的样子,还反映出它的场景、意义和功能。
如果你也相信这些言论,原力的虚拟人技术就变得更有想象空间了。
我们每个人都需要一套虚拟世界的印照物,需要虚拟世界里的自己和朋友,也就意味着每一个数字平台都需要 VR、AR 内容,原力正在研发的虚拟人技术能满足以上两大阵营对个性、多元的数字人像内容的需求。
对此,赵锐提到,随着 5G 的推广,高带宽对内容将有更大的需求,他认为虚拟数字形象将可能成为未来最有潜力的「新一代人机交互界面」。
当然,在此之上,新世界的构建离不开 Google、微软、HTC、IMAX 等平台级公司的科研推动。基于它们的技术突破,人类对“未来”设定的时间节点,可能会加速到来。
最后,为了便于大家了解「原力动画」,我们再补充对其进行简短介绍:
原力动画 Original Force 成立于 1999 年,主要从事高科技数字娱乐内容创制,擅长人像数字内容的研发。也是国内最大的 3D 计算机动画公司,国内已知的在科技领域投入最多的动画公司之一。2016 年原力获得了来自腾讯的过亿元融资,目前该公司年收入规模近 4 亿元。
其原创代表作有《妈妈咪鸭》, 制作的影视、游戏作品包括《爵迹》《驯龙高手》《GTA》《战神》《神秘海域》等多部作品。
原力总部位于南京,迄今在中、美、泰等国家设有分公司,业务覆盖了影视相关的 IP 开发、项目投资、内容创制、技术研发、衍生授权、人才培养等领域。现有员工 1500 人,其中包含全球近千名 3D 动画艺术家、工程师。创始人 & CEO 赵锐,SIGGRAPH(图形学及互交技术协会)委员会成员,带领团队进行技术研发、战略规划,长期与索尼、梦工厂等国际顶级电影公司合作。
如您对“36氪Pro”上报道的项目感兴趣,欢迎添加创投小助手交流合作(ID:chuangtou36kr)。
相关推荐