其他

玩腻了iPhoneX,不如试试这款基于AI的Animoji

2018-03-29 雷锋字幕组 雷锋网

雷锋网按:这里是,雷锋字幕组编译的Two minutes paper专栏,每周带大家用碎片时间阅览前沿技术,了解AI领域的最新研究成果。

原标题 AI-Based Animoji Without The iPhone X

翻译 | 廖颖    字幕 | 杨青    整理 | 李逸帆  凡江

本期论文:Avatar Digitization From a Single Image For Real-Time Rendering

https://v.qq.com/txp/iframe/player.html?vid=l0612tv353y&width=500&height=375&auto=0▷每周一篇2分钟论文视频解读

本期的两分钟论文是介绍使用AI技术来实现iPhone X上功能——Animoji。自从iPhone X面世以来,这项功能受到很多人的喜爱。它可以轻易地模拟你的表情,用emoji里的图案来表现,看起来实在是妙趣横生。这项功能是如何实现的呢?它使用的是点阵投影器(Dot Projector)来捕捉、理解人脸的几何特征。

现在问题来了,假设我们不使用这项技术,如何能达到Animoji的效果呢?AI可以帮我们做到。很简单,你甚至不需要上传一段视频,仅仅一张图片作为输入,就可以训练神经网络来制作实时动作的动画图像,听起来很有趣吧?

在训练过程中,可以看到,图像包含一些基本的元素:眼睛、牙齿、舌头、牙龈。但是这样其实是不够的,为了让图像更生动,还需要用户的外貌和姿态。有意思的是,头发的部分不是像之前的技术那样,一根一根地生成,因为这样实在是太耗时耗力了。

这一切究竟是如何实现的呢?首先,我们将图片分割为面部和头发两个部分,然后将头发部分放入神经网络,试图去提取一些特征,例如头发长度、刺头等资讯,判断是否丸子头、马尾,找出发际线位置。这个神经网络非常深,大概有50层左右,训练用的素材多达4万张。

下一步,我们使用一种多视角的方式来展现完成之后的图像,这项技术可以重新定位,也就是说,我们的姿势可以转换到不同的特征。这个训练的模型受光照的影响不大,在各个光照条件下都表现优异。是不是超赞?

现在脸部建构技术愈来愈丰富了,看着《头号玩家》,虽然目前展现的虚拟头部还没很精细,但离在虚拟世界生活的距离是不是愈近了呢?


- END -

雷锋网诚招编辑、运营、兼职外翻等岗位

详情点击招聘启事


  ◆  

推荐阅读





关注雷锋网(leiphone-sz)回复 2 加读者群交个朋友

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存