计算专题 | 10K+Hz级基于帧事件的近眼注视跟踪技术(IEEE TVCG/VR)
本期导读
在虚拟现实/增强现实(VR/AR)中,为了获取更加逼真的沉浸式观看体验,多采用眼动跟踪装置来追踪眼球的注视方向并实时渲染相应的高质量图像。现有视线跟踪系统中的相机受限于基本带宽和功率,在实际应用中的数据采集速度常被限制在300Hz。因此,极大地阻碍了移动眼动跟踪器的使用,譬如:研究低延迟预测渲染,或利用头戴设备来研究比如微眼跳等快速、微小的眼球运动。鉴于此,来自加州大学伯克利分校、斯坦福大学和瑞典皇家理工学院的研究人员提出了一种基于帧事件的混合近眼注视跟踪系统,在相同条件下评估时,该系统的更新速率超过10,000 Hz,而精度又与高端的商业眼动跟踪器相当。该研究工作提出了在线二维瞳孔拟合方法并实时估计参数化瞳孔模型的注视点,构建了第一个基于事件的人眼注视数据集,并利用该系统在45°~98°视场角上实现了0.45°~1.75°的追踪精度。此项技术将助力VR/AR技术实现超低延迟的视景渲染和显示。该研究工作近期发表于计算机图形学顶级期刊《IEEE Transactions on Visualization and Computer Graphics (TVCG)》上。
技术路线
图1. 实时二维瞳孔拟合及参数化瞳孔模型的注视点流程示意图
图2. 实验示例:系统的输入(A&B)和输出(C&D)
基于这一数据集,该研究还对不同用户的平滑追踪和随机眼跳进行了测试,结果如图4所示。在47°视场下,平滑追踪数据的平均视角精度为1°,而当覆盖113°视场角时,平均精度为3.9°。
为展示微型化的潜力以验证在可穿戴领域的应用价值,该研究搭建了一个头戴式眼球追踪系统的原型样机,如图5所示。该系统利用“树莓派”进行控制,连接安装在头戴支架的DVS相机,以获取眼动事件以及图像等信息。
图5. 头戴式样机系统示意
总而言之,该研究工作从理论推导,模型参数化,实验论证,以及头戴式样机开发等都提供了很好的思路。就大环境而言,近年来,基于帧事件的传感器(Event-sensor)取得了长足发展,随着性能的显著提升和成本的逐渐下降,亦激发了更广泛领域的诸多应用。尤其地,在VR/AR领域,基于帧事件的混合近眼注视跟踪系统具有较高的优势,其超高帧率和高精确性的特点,将助力VR/AR技术实现超低延迟的视景渲染和显示,非常值得关注。
论文信息:
Anastasios N. Angelopoulos, Julien N.P. Martel, Amit P.S. Kohli, Jorg Conradt, Gordon Wetzstein, Event Based, Near-Eye Gaze Tracking Beyond 10,000 Hz, IEEE Transactions on Visualization and Computer Graphics (Proc. VR), 2021.
技术细节详见:
https://www.computationalimaging.org/publications/event-based-eye-tracking/
本公众号长期关注斯坦福大学该研究小组的工作,往期技术解读涵盖了计算全息显示、非视距成像、端到端优化透镜成像等技术方向,欢迎点击回顾。
回顾与预告
上期回顾:成像专题 | 智能手机显微镜: 单透镜物镜的深度学习成像(Optics & Laser Technology)欢迎点击查阅
Contact: intelligent.optics.sharing@gmail.com
由于近期微信公众号改版因素,部分用户反映更新通知不及时问题,根据网络资料,可以通过在设置里把我们地公众号加星关注实现对我们的支持,也可以通过点击右下角“点赞”和“在看”标识,以便及时收到更新通知,再次感谢大家的理解和支持!
INTELLIGENTOPTICSSHARING (I.O.S.) 运营以该领域的研究学者为主,非盈利非广告,希望能够结交共同兴趣方向的读者们,建立光学和计算机交叉学科领域内一个资讯分享交流的平台,还望大家多多支持,欢迎来稿,欢迎拍砖。
END