沉浸感金线不再遥不可及 追踪技术推进ARVR交互2.0?
发表于2016-08-19
交互是VR关键
不久前,HTC VIVE 终于宣布有条件开放lighthouse定位追踪技术方案,尽管官方再三解释不是“开源“而是”开放“,但仍旧让很多期盼已久的伙伴有了盼头。2016年的VR市场,仍处于技术上层层推进的阶段,除了lighthouse的追踪技术方案外,不同空间定位技术方案的逐渐成熟,让普通用户离“沉浸感”这条”金线“更近了一步,物美价廉效果好,才能走进寻常百姓家,而这里面核心指标还是看追踪技术。
沉浸感,简单说就是得“入戏”。如何实现?位置追踪及交互是门槛。先来看位置追踪,我们经常在媒体报道中看到“6DOF”(degrees of freedom)位置追踪系统,这是什么意思呢?在VR场景中,为了定位用户在虚拟空间中的位置和姿态,跟踪系统需要计算出用户在真实场景中的3D坐标和3D朝向,使得用户在做不同动作,比如移动,转动头部的时候,VR场景也可以做出相应的变化。
那么,如何实现这个6自由度数据的捕捉?比如Lighthouse使用的是outside-in方案,也就是外部架设两个摄像头,配合头盔上的传感器实现。另有一种方案刚好相反,是inside-out方案,省去了外部设备,成本也低,将摄像头直接整合在头显上,拿到家里客厅也能用,随拿随用,方便携带和移动,通过计算机视觉及图像识别算法,识别外部环境中的特征点,实现6自由度追踪,这种方案的稳定性及效果比较考验算法,目前HoloLens、uSens凌感等公司掌握这种技术。
再来说交互。带上头盔,只是过眼瘾,那已经是菜鸟级VR时代了,要在虚拟世界中实现和在现实生活中一样的自然交互,这才能释放VR真正的价值。Oculus、HTC vive、PSVR,都用的是手柄等外设,其精度高,准确度高,现在通过背包主机的方式,一定程度上解决了线的问题,但以笔者的体验来说,重量、发热、续航能力还有待优化,最重要的是手柄等外设操控,总有一种“跳戏”的感觉,不熟悉手柄使用的,得有个贴身教练现场指导。有没有更简单的交互方式?手势、眼球、脑电波……?这几种交互用的都是人自身带的“遥控器“,仅就这三种来说,手势相对靠谱。
再来”剥洋葱“,手势交互也有很多方式,有带传感器手套的,这种精度高,可在室外使用,麻烦的地方就是每个人每次使用时都需要校准。还有一种就是空中徒手的,用自己的双手直接来操控,和在现实中是一样的,拿来就能用。这个方向有比较高的技术门槛,因此涉足的公司较少,比如在PC端表现比较好的leapmotion,以及卡位移动端的uSens凌感,这种方式虽然从移动性、最小穿戴化、成本以及消费级市场潜力上,都有不少的优势,但业内唯一担心的就是识别的效果如何?Leap motion已经和暴风达成合作,据了解,各大头显厂商都与这两家公司有过深度沟通,可见市场对手势交互这种方式的预期还是相当之高。 uSens凌感官方预告8月底将在中国和美国同步正式发布Fingo SDK和配套硬件模组,这是他们的第一次正式亮相,效果如何,拭目以待,这也将给VRAR进入交互时代打开一扇门。
腾讯GAD-VR交流群:476511561