查看原文
其他

VisionPro 眼动追踪精度 推算讨论

AR圈 2023-10-15

Editor's Note

李康Max是著名的VR产品经理,近期他围绕苹果Vision Pro撰写了多篇设计指导与分析文章,这些指导对于VR产品的设计师、应用开发者及空间计算的爱好都很有价值,警长特此转载。

The following article is from 九棱镜的笔记 Author 九棱镜的笔记

大家好,我是李康Max。
本文讨论VisionPro眼动追踪精度测算问题,然后讨论对比肉眼直接观看的差别,以及行业内其他公司的眼动追踪数据对比。
本文约1400字,预计阅读时长8分钟。


一、精度推算

1.1 计算结果
精准度0.3度~0.61度,采样频率200hz

1.2 精准度推算方案
因为Apple Vision开发者教程中提供了基于Points设计的方案,其中非常明确的提到需要留8pt的buffer。


所以我们暂时可以把8pt当成最大误差,这时候我们只要计算在实际使用中角落里的两个button的误差放在现实世界中是多少就好了。


同时Apple也提到了相当于在2米远的地方放置一个3米宽的屏幕。而官方的button是放置在屏幕右上角依旧可以完成准确的目光捕捉。如下图。


抽象一下,我们实际需要测量的就是图下两个点和人眼构成三角型的角度。


假设人眼是A点,线段CE是最小分辨单位8pt,求解角CAE是多少度。
已知信息,线段AO=200cm,线段BC=300cm,线段AO在矩形BCDO的垂直中分线上。
根据官方设计文档中提到屏幕Points数据,线段BC=1306pt,线段DC=734pt,线段CE=8pt。



使用高中几何知识余弦定理,即可求解线段CE=1.83767cm,角CAE=0.304度
官方设计文档又提到两个button元素之间的距离至少16pt,对应就是0.61角度。
官方设计文档又提到一个元素起码60pt的热区,对应就是2.3角度。

1.3 采样频率推算方案
因为Apple从采集到渲染输入只需要12ms,对应就是83hz。在整个流程中从采样、输入,处理,渲染、输出、UI展示,共计12ms。那么留给采样的时间肯定是远低于这个的。
这里就假设给到采样的时间是5ms,那么对应采样频率就是200hz。


二、眼动追踪的参数讨论

2.1 精准度
就一般健康的人来讲,肉眼一般很难观察细小物体,所以目光一直被认为是一种锥形光模型。当人眼盯着一个细小的物体看时,会存在微跳视,通过细小的改变观察的位置,保持感光细胞始终保持活跃。而这个微跳视造成眼睛移动一般认为小于0.2角度。所以可以认为眼动追踪精准度最高也就是0.2度。
Apple Vision Pro眼动追踪在0.3角度,实际上已经逼近肉眼极限了。所以这次没有像“视网膜屏”概念出来,因为不够格。

2.2 采样率
因为人眼在看到物体后,感光细胞将信号反馈到大脑,大脑再建立认知。这个时间一般为100ms~400ms。大家也可以自己试一下自己快速专注一个细小的物体要多久。
所以Apple Vision Pro当前约200hz采样率,远高于用户肉眼的10hz。

2.3 注视范围
相对于注视,人眼更习惯于扫视。所以当你尝试用双眼注视一个字时,就会发现很快目光就自动发散了。除非这个
上下左右都是留白,这时候人眼在几秒的可注视范围可以缩小1.5度~2度。所以Apple Vision Pro设计中要求了60pt热区概念,对应角度是2.28度,刚好可以满足用户长时间注视,而且还有两个button元素之间16pt的留白。可以说是树立行业标准了

三、补充说明

3.1 对于精准度的描述问题
需要提供精度和准度两个数值,大家可以从这个地址学习。https://connect.tobii.com/s/article/eye-tracker-accuracy-and-precision
我主要是从使用的角度来讨论,没有引入这个复杂的概念。

3.2 当前消费级头显的精准度
当前市面上做的最好的应该是VIVE的独立设备 VIVE Focus 3眼球追踪器。精准度0.5度~1.1度,采样率120hz。


3.3 欢迎讨论交流

微信公众号:九棱镜的笔记
个人微信号:LikangMax





您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存