查看原文
其他

拿高通的钱,与英伟达合作,我们跟这家眼控技术公司的创始人聊了聊

2017-05-17 87870 87870虚拟现实



七鑫易维官网的slogan写着这样一句话:让世界读懂你的眼神。

 

这家刚刚从中关村搬到望京的技术公司,最近有点火。前不久,HTC Vive与七鑫易维合作推出拓展眼控配件aGlass DK II(二代开发者版本),让这家初创公司走进了中国乃至全球媒体的视线,这其中自然也包括87君。

 

在七鑫易维位于望京的新办公楼,87君体验了尚未上市的aGlass DK II,并采访了其创始人黄通兵。后者向87君讲述了七鑫易维的成长史,以及自己如何看待眼球追踪的未来。


尚未上市的aGlass DK II

 

丨让世界读懂你的眼神


在去年11月七鑫易维的发布会上,87君曾经体验过aGlass的DK I版本。aGlass是可以装在HTC Vive头显眼部位置的配件,上面有摄像头和计算模块,可以采集人眼数据,包括追踪眼球移动、瞳孔的注视点、采集虹膜数据等等,提供给头显的计算单元,让计算机知道你的眼睛在做什么。

 

这项技术在很多领域有着广泛的应用,比如为霍金这样全身瘫痪只有眼球能移动的人,制作用于交流的计算机;三星13年推出的S4,可以追踪用户的眼镜是否在屏幕上,从而智能锁屏;而在VR领域,这项技术主要被应用在注视点渲染、眼控交互以及广告分析。

 

87君最先体验的是注视点渲染,戴上已经装好aGlass DK2的HTC Vive,打开一个Demo场景,转动双眼——作为体验者感觉不是非常明显。站在旁边观看看电脑屏幕上显示的画面就会发现,体验者的视野中心是清晰的,而周围的区域则会相对模糊一些。


注视点渲染

 

根据七鑫易维工作人员的介绍,这项技术基于aGlass的眼球追踪与英伟达的视网膜中央凹成像渲染技术(Foveatedrendering)。用户专注于画面的某个小区域时,眼球追踪软件将会不断调整渲染焦点,高清渲染视野中心的画面。


这种技术可以大大降低GPU的负担。以在2K分辨率下,保持90FPS的帧率为例,意味着400万像素的画面必须每秒渲染接近100次。但如果只专注于渲染用户的视线聚焦处,那么计算任务将会减少到原来的十分之一。

 

接下来,87君尝试了眼控交互。在一个RPG Demo游戏中,可以通过双眼注视进行移动,或者通过注视NPC的方式展开对话。基本上,在交互Demo中眼控代替了鼠标、手柄的功能。体验Demo的时候,87君还觉得比较新奇。但仔细想了一下,如果一个游戏时长几个小时的VR RPG游戏,全部使用眼睛指挥身体移动,根本没有多余的精力欣赏游戏场景,作为一个玩家87君很难接受。


眼控RPG游戏Demo

 

最后,工作人员向87君展示了如何把眼控应用到广告营销上。87君的同事戴上Vive头盔,开始在在一个虚拟房间中闲逛。而在旁边的监控软件上,我们可以看到他的“目光热图”,当他的目光停留在台灯、餐桌之类的地方,监控软件的热图就慢慢变色……这时候,如果有一个美女在电脑上出现,那么根据观者的喜好不同,大腿、胸部、脸蛋等等不同的部位,热图颜色的深度也就会不尽相同。

 

作为“媒体狗”,87君常年与各路“广告狗”打交道,这项技术的价值不言而喻。目前衡量广告效果的指标,只有播放量、观看量这种简单的数据,比如电视剧植入了一个广告,只能根据电视剧播放的次数来计算广告的价值,一个广告植入的效果究竟如何,缺少判断的依据,只能根据创意工作者过去的经验来进行判断。而加入了双眼追踪热图,就能判断出用户在植入的宣传标示上停留了多久,通过数据验证广告的效果。


体验者的注视热图

 

体验完产品,在最里面的办公室中,七鑫易维创始人兼CEO黄通兵接受了87君的采访。

 

丨一家拿高通的钱,和英伟达合作的公司

 

七鑫易维创始人黄通兵


黄通兵告诉87君,七鑫易维成立于2009年,最初是把眼控技术应用到Google Glass这样的可穿戴产品上面。从2013年开始,七鑫易维开始接触VR,到了2016年,与HTC合作推出了可以应用到Vive上的aGlass配件。

 

眼控追踪可以应用到非常广泛的领域,从医疗、机器人到AR/VR、人工智能、智能驾驶等等,黄通兵举了个在汽车上应用的案例:通过在车内安装眼球追踪配件,可以监控驾驶员的生理状况,提醒疲劳驾驶等等,从而降低交通事故发生的可能性。

 

放眼全球,除了七鑫易维,名气比较大的眼球追踪技术公司还包括老牌德国企业SMI、去年11月宣布计划融资5000万美元的瑞典厂商Tobbi、在去年分别被谷歌和Facebook收购的Eyefluence和TheEyeTribe,以及做出了号称世界第一款集成了眼球追踪模组的日本VR头显厂商FOVE。

 

按照黄通兵的说法,精度、稳定性以及设备的可用率是衡量一个眼球追踪企业的技术水平的重要指标。精度和稳定性比较好理解,“设备可用率”指的是眼球追踪设备能够识别出用户的比例。全球70亿人,每个人眼镜的各种参数都不相同:有的人戴眼镜、有人是斜视、还有人的眼睛可能存在各种病变……这就加大了一种眼球追踪设备在识别人眼时的难度。黄通兵表示,七鑫易维过去致力于医疗康复领域,积累了大量的个例个案,所以在实测的时候,识别率会比较高。

 

此外,在最核心的眼球追踪技术上,黄通兵表示,目前行业没有一套特别好的眼球追踪的数学模型,七鑫易维使用的是深度学习的方法,让机器通过人工智能深度学习,求解注视点。“巨头(英伟达)把我们称作全球第一个用人工智能做眼球追踪的企业。”

 

巧的是,87君到访七鑫易维的这一天,英伟达最新的深度学习超级计算机DGX-1刚刚到货。去年的发布会上,英伟达的老黄表示这款超级电脑售价12.9万美元。据悉,虽然是英伟达的合作方,买这台售价12.9万美元的超级电脑却一点折也没打……

 

而说到与英伟达的合作,就不得不提到另一家芯片巨头高通。从13年开始,高通已经连续参与了七鑫易维三轮的融资,最近的一轮是在2014年12月,高通4000万美元投资了包括七鑫易维在内的四家公司以及一个中国科技创投基金。

 

而在去年高通发布概念头显VR820一体机中,也加入了七鑫易维的眼控模组。

 

丨轻交互才是眼控的未来

 

aGlass


在过去的一年中,或合作、或并购,包括谷歌、Facebook、索尼、英伟达、高通,巨头们都在眼控交互上进行了布局。但是在落地上,眼球追踪技术还面临着几个重要的瓶颈。

 

首先是成本。aGlass DK II的售价大约是单眼220美元,包括一个眼控追踪配件和三个分别是200度、400度、600度的近视镜片。黄通兵表示,如果模组化集成到头显内,预计成本会降低到二三十美元左右,具体的数字会随着上游厂商有所浮动。

 

但即使降低到二三十美元,要HTC、Oculus或者其他一体机厂商消化这部分硬件成本,眼球追踪技术的应用场景是一切的关键。对此,黄通兵有自己的思考。

 

目前,眼球追踪最大的技术价值,在于与英伟达、AMD这样的GPU厂商合作,通过注视点渲染技术,降低VR头显对GPU的需求。上文中,87君体验了这项技术,黄通兵表示根据他们的实测,像Vive这样的设备,原来最低要求GTX960级别的显卡,加入眼球追踪和注视点渲染技术之后,只需要GTX950就能运行。当然,同等级显卡跑VR游戏也会更加流畅。

 

随着技术的发展,未来屏幕的清晰度会越来越高,目前Vive是“准2K”(2160*1200),未来会有4K甚至8K的屏幕。而摩尔定律在GPU行业的技术发展中已经失效,在未来,当GPU计算能力的发展渐渐跟不上屏幕显示技术的发展速度时,使用眼球追踪将成为头显厂商”曲线救国“的方式。

 

除此之外,眼球追踪会收集用户大量的眼部数据,包括虹膜信息、瞳距等等,就像指纹识别是手机用户认证最自然的方式,红膜识别会是将来VR头显最自然、最安全的用户认证方式。而比起手动调节或者某厂商宣称的,通过“回归方式”计算人脸大小与瞳距比例这种自动调节方式,在获得精确的瞳距信息下自动调节,无疑更加准确、方便。

 

在利用眼部追踪技术进行交互控制的问题上,上文中87君提到了体验用眼进行游戏的移动或者启动与NPC的对话,黄通兵认为,这种方式并不是眼球追踪的未来。

 

黄通兵把在虚拟世界中移动、抓取物体,这种代替人们现实中手脚的交互方式,称为“强交互”。在他看来,强交互并不适合眼球追踪。“我们习惯了用手做这些事情,所以不论是鼠标键盘还是触屏,人们会更适应。”


黄通兵认为眼控交互的未来在“弱”交互。并不是让眼控代替手柄,而是让机器理解用户的视线,机器根据用户关注的焦点反馈。举例来说:如果在VR中购物,眼睛停留在某个商品上,这个商品的信息也会随之浮现。“就像在PC上,把鼠标箭头悬浮在网页的某个标签,会有小提示一样。”

 

对于眼球追踪技术在VR行业的前景,黄通兵还是非常乐观的,“现在的VR行业,大部分的小厂商都在跟风大厂,就像去年HTC Vive发布无线之后引起的热潮,今年随着包括HTC Vive在内,部分领先的厂商开始尝试眼球追踪,看到效果之后,会有更多的硬件和内容开发者跟进。” 



近期更多精彩刺激VR内容小荐:

(老铁,直接戳,别客气)


《2016中国虚拟现实白皮书》

87870主办“VR+产业生态联盟大会

87人物志:庞际李宏利已经找准了方向 看看你是否会一道同行

HTC的豪赌:虚拟现实起死回生,就靠这本网游小说?(上)

HTC的豪赌:虚拟现实起死回生,就靠这本网游小说?(下)


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存