VR普及入门知识(二)

 

上次我聊了些VR的基础知识,并大概解析了目前市面上的主流VR头显,今天这里再为大家稍微深入分析下人们是如何在...



上次我聊了些VR的基础知识,并大概解析了目前市面上的主流VR头显,今天这里再为大家稍微深入分析下人们是如何在VR世界中进行移动、如何进行自然交互的。

VR最大的一个特点就是沉浸感,让体验者感觉真的在一个虚拟世界,而非在眼前放了一块巨大的屏幕,当一个虚拟物体在眼前,你走近些,它就显得大些,走远点就小些,那么,体验者是如何在VR里移动的呢?答案就是“空间定位追踪”。
VR空间定位追踪主要有两种技术方向:
第一种是Outside-in Tracking,即是用外置的追踪设备,如摄像头或Lighthouse,并给头显加标记,对头盔进行追踪,另一种则是Inside-out Tracking,即让VR头显自己去检测环境变化,反向可以计算出 VR 头显自身的运动。
对移动VR来说,如果使用Outside-in Tracking就丧失了移动和便携的优势,因此移动VR主要考虑的是 Inside-out Tracking。基于结合SLAM算法、 深度摄像头等、手机摄像头等,微软Hololens和Google的Project Tango都用的是深度摄像头。不过Inside-out Tracking技术上要比 Outside-in Tracking困难,如果能够实现稳定追踪,Inside-out Tracking在理论上可以实现无限空间定位追踪。
有了空间定位技术,还需要空间定位方案,从沉浸感的角度讲,自由度越多,沉浸感越好,HTCVive这样的具备空间6自由度定位追踪方案(后面我会专门“解剖”HTCVive,为大家深入解读其追踪定位远离),相比于单纯的Gear VR这样的3自由度方案,沉浸感高了很多,所以,很多移动VR厂商也在积极研发空间定位追踪方案。此外,大量VR体验馆需要多人交互的VR方案,也需要廉价而灵活准确的空间定位方案。
这里所说的定位,主要考虑精度和速度,比如确定VR体验馆中的参与者在场馆中的绝对空间位置,并反馈到所有参与游戏的玩家和游戏服务器上,进而执行群体游戏所必需的各种游戏逻辑,如果玩家在游戏场地内的位置无法得到有效识别,那么相应的乐趣和复杂度自然也就少了很多。
目前已有的定位方案主要有八种:体感摄像头、光学定位与图像识别、激光雷达、Light House、RTKGPS、UWB、SLAM、全向跑步机。

有了VR空间定位追踪,体验者在虚拟世界中,又是如何进行自然交互的?
首先是手柄
HTC Vive、Oculus CV1都使用了手柄作为基础输入方式。手柄可以定位手的位置,并用触摸板、扳机、按钮实现多种交互输入,模拟射击、抓取、挥舞等多种交互操作,可是手柄通常不能准确知道每个手指的动作。

力反馈手套
力反馈手套不止可以追踪到每个手指的精确动作,还可以在每个手指施加力反馈,让使用者感觉到接触物体时受到的力的作用。不过力反馈手套的主要问题是成本偏高,使用稍麻烦。

手势识别
自然交互的一个重要方式就是直接追踪和定位人的手,把手势作为输入。具体的技术方案有基于单目摄像头,基于双目摄像头,基于深度摄像头,基于超声波的等。
双手十指追踪
暴风的最新一代头显就引入了Leapmotion的十指追踪技术,对十指进行追踪,可以把十指作为输入使用,模拟抓取,捏取等各种形式的交互。十指追踪的典型代表是 Leap Motion。leapmotion 推出的Orion把十指识别的可用性提高了很多,Leapmotion成本不算很高,体积也不大,刚好可以嵌入 VR 头显。

体感输入
人的肢体运动也是一种重要的自然输入形式,之前基于微软 Kinect 已经有不少体感游戏,这同样适合VR。

眼球追踪
眼球追踪技术已经发展了很久,但眼球追踪技术本身不适合作为输入方式使用,但基于眼球追踪的注视点渲染技术则对VR意义重大,因为其可以显著降低对电脑性能的要求,这对很多VR爱好者来说是一个好消息。

脑波识别
直接用意念控制或许是输入的终极形态,但脑波检测技术目前看只能识别情绪状态及注意力集中程度等,虽然不能作为控制,但其跟VR头显戴在头上很契合,刚好可把情绪检测集成到VR头显中,为VR应用增加一种输入可能。

除了上面说的各类方案,还有双脚做输入,语音输入,电前庭刺激 GVS等自然交互方案。
今天给大家大概讲了下VR追踪定位技术、VR如何进行自然交互,下次我会再给大家讲解下VR内容是如何制作的以及相应的制作设备。

众视VR
这里记录VR/AR时代的创造者
这里有行业第一批
最性感、最有趣的CEO
分享您的故事 ☏ 13764587978
微信号 ZhongshiVR
点击右上角分享
长按二维码关注


    关注 众视VR


微信扫一扫关注公众号

0 个评论

要回复文章请先登录注册