—— 青亭网
灵活对焦,大适眼区,剑桥大学与华为联合研发AR全息显示方案
Esther| 编辑
此前,已经有各种消息透露华为似乎在开发AR眼镜,不过目前关于它的信息并不多。近期,从华为欧洲实验中心与剑桥大学先进光子电子中心的科研人员联合发表的一篇新论文中,可以看出其正在研发一款视网膜成像的AR光学模组,其特点是能够实现灵活的对焦能力,且具备3D全息显示能力。
规格方面,当前公开的方案FOV达36°,支持3D显示,与普通的无调节式光学模组(麦克斯韦光学理论)相比,eyebox(适眼区)更大(通过光分束器来实现)、清晰度更高、色差更小。
科研人员还基于此开发了一款可兼容普通眼镜的AR头显原型,当前的光源分辨率仅为720P(单眼),刷新率为60Hz。
论文指出,当AR眼镜对焦能力差时,则容易与人眼视觉焦点产生冲突而引起视觉辐辏调节冲突,而视觉辐辏调节冲突可能会引起视觉疲劳和错误的深度感知,甚至恶心和眩晕。
https://v.qq.com/txp/iframe/player.html?width=500&height=375&auto=0&vid=b0927j1vgct
目前,可通过一些传统方法避免视觉辐辏调节冲突,比如通过模拟视觉调节线索,以及双目视觉差异来降低焦距冲突。而全息显示方面则可以解决这些问题,不过考虑到实时渲染3D影像对于带宽要求较高,目前还难以实现足够高清的画质。此外,3D影像视场角也会受到限制,目前的技术大约可让3.7微米带来±4.9°视场角。
除了上述方式,还可以通过可调节透镜来临时调节光学模组焦距,或者提供数个可调节的焦点平面。不过,这些方法对于带宽的要求依然不低,而且光学元件的体积也较大。而科研人员研发的AR头显,将有效缓解用户在AR中因视觉辐辏调节冲突而产生的视觉疲劳和眩晕感,不易引起恶心或视觉疲劳。
他们所提出的方法则是完全移除调节线索,不再需要眼球追踪或者动态调节透镜,而是不管聚焦在哪里,虚拟图像都是清晰的。同时,这种方法可大幅降低对于带宽的需求。
这种方式的灵感来源于麦克斯韦光学理论,与之不同的是,该AR头显所采用的光学方案利用狭窄且平行的像素光束将图像在瞳孔聚焦,并投射进视网膜,形成光栅图像,每只眼睛视网膜分别接收不同的光栅图像,以此来形成3D观感。
由于人眼的光学对于每个束斑(投射在视网膜上产生的光斑)大小的影响很小,因此不管眼球聚焦在哪里,每个束斑和光栅图像看起来都是清晰的。
据了解,麦克斯韦光学理论的原理分为三种:平行照明、图像滤波、激光投影,科研人员采用了激光投影的方式。
激光投影式麦克斯韦光学理论通过调节激光强度来创造图像,这种方式先是以一定角度进行扫描,接着通过透镜将图像进行准直,最后再通过一个透镜将准直光束对准眼球,投射到视网膜上,图像光束的焦点则是整个光学显示系统的出瞳距离。
光学模组显示范例(a-c展示不管聚焦在那里,AR图像都足够清晰,d展示手臂距离的AR图像)
激光扫描方案的优势在于,不需要体积大的准直光学元件,针孔滤波器的透光性足够强,激光扫描仪的光束直径可调整成优化的视网膜像素大小。此外,使用搭载微电机系统的扫描镜可将光学模组的体积变得非常紧凑。
此外,头显还采用神经密度滤光器,将光学功率降低了三个数量级。为了安全起见,还在激光光源中内置电子故障保护开关,可在MEMS系统出现故障时关闭激光,避免伤害视网膜。
为了验证这款AR头显原型的效果,科研人员进行了一场主观的用户调查,找来50名熟悉3D显示技术的工业代表和学术研究者作为参与者,他们的年龄范围在16到60岁之间。戴上AR头显后,参与者会看到一系列画质清晰的彩色3D立体场景,这些场景的深度范围在10cm到10m之间。
科研人员会询问参与者们一系列问题,比如:图像看起来是否立体?虚拟目标看起来距离多远?以及能否阅读操作系统UI的文字?以及画质、色差、重影、纱窗效应,观感舒适度、视觉疲劳等情况。
根据手机的反馈,全部参与者均认为在20cm到10m范围内的3D效果足够逼真,并能指出虚拟目标的正确距离为1m。同时,大家对于其鲜艳的色彩表示满意,并谈及几乎没有明显色差、重影等情况,虚像与实景融合足够自然。
全部认为观感足够舒适,同样没有出现视觉疲劳或恶心状况。和预料的一样,当多个虚拟目标同时显示在不同的深度,参与者还是会看到双重影像,不过认为效果并不会分散注意力,也不影响视觉舒适度,大部分参与者其实都没有意识到。
不过,过大的体积和重量也是当下体验者反馈最多的。科研人员表示,下一步的工作目标就是缩小AR头显的体积和重量,预计外观和尺寸能够接近常规太阳镜。
(END)
推荐阅读
—— 青亭网