当前位置: 首页 -  数码资讯 - 正文

浅谈眼球追踪解决VR/AR三大问题

2019-12-13 18:21 数码资讯 瑾澜90°c
A+ A-

但是这只是比较初级的动作捕捉,人其实大多数时候都是通过转动眼球而不是头部来改变视觉。人们习惯用眼球转动(而不是头部转动)去观察。

VR中的交互目前还是一个尚需探索的领域,用户已经习惯了2D的平面界面信息呈现,在进入VR里时会出现信息迷失的状态。在很多的试验中发现,用户不会通过转动头部来获取整个环境信息,也很难自己找到隐藏的菜单和选项,通常需要工作人员的指引或者是游戏语音的引导。

(2)注视点渲染

场景的变化很必要,但是要让VR呈现出同自然世界一样的场景和空间感所需的信息量和计算量是极大的。目前的VR大多数是将全部场景以同等的清晰度来呈现,用户移动头部和身体时虚拟物体也会相应地变换位置,视点拉近和退后都会影响景深,这些变化都需要大量的计算和不断更新。

早在2012年,眼控技术研究科技公司Tobii宣布研发出了适配Windows 8的眼控Gaze界面。这是一家做眼球追踪技术较早的瑞典公司。2007年公司估值1400万美元,2009年则达到了2680万美元。2012年,英特尔注资2100万美元进Tobii公司,也是出于对windows 8操作系统一次投资。2014年,Tobii 推出了第二代智能眼镜 Glass 2,利用每个镜片配备 2 个摄像头以及相应的软件技术,实现对眼球动作的精准捕捉。

目前的VR只追踪头部不追踪眼球运动容易使人眩晕(MoTIon Sickness)。人类对于头部转动和相对应的视野的变化是极度敏感的。如果用户的头转动了,而相对的,视野转动有延迟,只要很微小的延迟就能感觉得到。有多微小呢?研究表明,头动和视野的延迟不能超过20ms,不然就会非常明显。而眼球追踪技术运用在这里正好可以解决这一问题,以眼球的变化来控制场景的变化。

目前的VR能达到每秒36次的刷新,而要达到人眼场景转换的速度则需要2000-3000次每秒,要实时渲染出这些场景,就连很高配的电脑都达不到。