技术推动行业的成长 盘点2016年VR技术的发展与突破
2016年,以HTC Vive、Oculus Rift、PSVR为代表的VR头显设备正式进入消费者市场。人们在感叹虚拟现实世界奇妙的同时,也对更深层、更真实的沉浸感充满期待。VR行业内各类关键性技术的发展理所当然地成为包括开发商在内无数人关注的焦点。
资本对VR关键性技术前景向来比较看好,尽管2016下半年出现了所谓“资本寒冬”,但是依旧有不少技术厂商都获得了一笔数额可观的融资。那么究竟有哪些VR关键性技术呢?VRZINC今天也给大家来盘点一番。
眼部追踪
代表性公司:FOVE公司
代表性产品:FOVE 0眼球追踪头显
在2016年,眼部追踪的概念可谓火爆。Oculus收购眼部追踪公司The Eye Tribe、谷歌收购Eyefluence,微软、三星曝出眼部追踪新专利,知名VR头盔厂商都在开始布局眼部追踪技术。
眼部追踪
眼部追踪技术在VR领域的重要性已经显而易见,Oculus的创始人Palmer Luckey也曾表示,眼部跟踪技术会成为VR技术未来的一个“重要组成部分”。
在目前的VR中,由于眼球追踪技术的缺失,采用基于陀螺仪的头动感知方式来锁定目标,这种方式让目标锁定的过程变得不自然并且效率很低。而眼部追踪会识别人们眼球的移动,并让VR的视野做出像真实世界里一样的变化,无需要求用户必须转动脖子。
除了交互方面, 眼部追踪能更好的解决畸变和色散问题。由于人的瞳距、佩戴方式、注视点的不同,都会导致人的瞳孔偏离出瞳位置,造成VR体验不佳。如果通过眼部追踪技术则可以获得人眼的注视点,人眼和镜片的相对位置,实时矫正瞳孔位置避免畸变、色散等问题。
需要注意的是,眼球追踪技术可以实现局部渲染,也就是说只需要在用户的集中注视区域进行全高清渲染,这一定程度上降低了VR设备对GPU的运算量和对PC配置的要求。而PC配置的要求降低也就意味着用户使用门槛的降低。
虽然在VR设备上成功搭载眼球追踪技术的案例并不多,目前进入消费者市场的也仅有FOVE头显一家,但是参照目前VR显示方案的快速迭代,可知眼球追踪技术将会成为VR设备最不可或缺的技术模块。
输入控制(动作捕捉)
代表性公司:诺亦腾
代表性产品:Project Alice,商用全身动作捕捉解决方案,可多人交互。
代表性公司:Rokoko Electronics
代表性产品:SmartSuit Pro,全身动作捕捉方案
当谈及输入控制,首先想到的是动作捕捉技术。动作捕捉技术起初广泛运用于电影制作之中,随着VR的兴起与发展,才逐渐进入虚拟游戏开发领域,也逐渐被人关注,动作捕捉技术公司诺亦腾就曾因此获得2000万美元B轮融资。
从技术的角度来说,运动捕捉的实质就是要测量、跟踪、记录物体在三维空间中的运动轨迹。典型的运动捕捉一般由传感器、信号捕捉设备、数据传输设备、数据处理设备四个部分组成。
手部进行捕捉
动作捕捉技术离不开传感器,每个传感器都包括陀螺仪、加速计和磁力计。它可以感应绕空间3轴的旋转,通过复杂的算法来计算横滚俯仰和航向。
通信设备包括传感器输出的数据,并计算四肢相对“主心骨"的位置。同时运用特别的算法来帮助计算出主心骨相对地面的位置。所有数据将通过无线蓝牙传送到计算机进行处理,所有步骤都在动态中用最小时间间隔完成,做到实时的动作捕捉。
目前来看,许多动作捕捉仅仅停留在手部等细节方面,全身捕捉方案还是少数(如诺亦腾、Smartsuit Pro)。
另一方面,由于反馈系统的不健全,用户很难感觉到自己的操作是有效的,动作捕捉依旧有许多问题亟待解决。
输出系统(触觉反馈)
代表性公司:Cerevo
代表性产品:Taclim,手、足触觉反馈
再说到“不健全”的触觉反馈系统,触觉的实质是在虚拟世界中创建一个完整且自由的人。目前来看,国内资本对这一方面也比较热衷,网易、优酷也都曾投资相关初创公司。
开发出能够在虚拟空间进行全身反馈的系统并不是简单的事情,大多数开发者选择了从手部细节做起。起初的触觉反馈是通过手柄按钮实现的,当用户按下按钮摸到虚拟物品时手部会传来震动的反馈。
随后开发者又尝试制作触感反馈手套。通过这类手套内置的大量的元件,用户能够与VR体验进行交互,可帮助他们感觉握在双手中的虚拟物体,感受到虚拟物体的大小、形状和坚硬度。
实际上,在触感手套中也有许多种解决方案。一些开发者选择只做指尖的交互,通过产生不同频率与强度的振动,让指尖能够真实触摸到虚拟物品。另外大部分开发者选择做成手套的样式,针对双手的机械外骨骼捕捉手部运动,以及提供即时的力反馈。
指尖触摸反馈
触觉反馈手套
除了手部触感反馈,现在开发者也尝试地面触感反馈。在最近的CES2017中,日本公司Cerevo推出了一款搭载触觉传感器的Taclim系统,可以让用户到沙漠、草原、水边等地面触感的差异。
触觉反馈系统的核心主要是两点:触碰检测和力反馈技术,所谓力反馈技术,简单说来,是利用操作设备产生的机械反作用力,来表现电子计算机中的场景和指令参数,使操作者产生即时的、身临其境的真实感受。
纵观这么多触觉技术,大部分还是基于物理层面的反馈,人们已经能模拟出硬物的触感。但是现实世界中可不仅仅只有这些,短期内触觉反馈将是VR技术难突破的方向之一,但它却是虚拟世界向现实进化的关键环节。
空间定位
代表性公司:HTC Vive、Oculus 、索尼
代表性产品:激光扫描定位技术、主动式光学定位技术、可见光主动式光学定位技术
过去的2016年,空间追踪方案被认为VR头显的代表性技术之一。三大头显中也都相继加入了空间定位来增强用户的体验。
HTC的Lighthouse室内定位技术属于激光扫描定位技术,靠激光和光敏传感器来确定运动物体的位置。两个激光发射器被安置在对角,形成大小可调的长方形区域。
Lighthouse空间定位技术
激光束由发射器里面的两排固定LED灯发出,每秒6次。每个激光发射器内有两个扫描模块,分别在水平和垂直方向轮流对定位空间发射激光扫描定位空间。
HTC Vive头显和手柄上有超过70个光敏传感器。通过计算接收激光的时间来计算传感器位置相对于激光发射器的准确位置,通过多个光敏传感器可以探测出头显的位置及方向。
Oculus Rift采用的是主动式光学定位技术。Oculus Rift设备上会隐藏着一些红外灯向外发射红外光,并用两台红外摄像机实时拍摄。
Oculus光学定位标记点
获得红外图像后,将两台摄像机从不同角度采集到的图像传输到计算单元中,再通过视觉算法过滤掉无用的信息,从而获得红外灯的位置。
再利用PnP算法,即利用四个不共面的红外灯在设备上的位置信息、四个点获得的图像信息即可最终将设备纳入摄像头坐标系,拟合出设备的三维模型,并以此来实时监控玩家的头部、手部运动。
不同于Oculus Rift的是,PS VR采用的是可见光主动式光学定位技术。PS VR设备采用体感摄像头和类似之前PS Move的彩色发光物体追踪,去定位人头部和控制器的位置。
PS3的平面映射关系
PS3通过计算光球在图片中的半径来推算光球相对于摄像头的位置,并最终确定手柄和头显的位置,而PS4则是利用两个摄像头拍摄到的图片计算光球的空间三维坐标。
尽管PC、主机VR在空间定位上的技术已经初步成熟,但是空间定位依旧有一个很大的问题就是移动VR的定位无法实现。
据了解,阻碍移动VR空间定位技术实现的一大障碍是位置追踪所需的传感器没有多少其它用处,移动设备受限于产品形态,手机厂商制作产品时并不会专门将普及度不高的VR传感器加入。
除此之外,处理器的性能也是一大问题。不过,相信随着未来移动VR的发展,空间定位也将不是问题。
无线传输
代表性公司:HTC Vive
代表性产品:TPCAST的无线套件
去年9月,一份Quark VR的订阅邮件引起了许多VR业内人士的关注,其内容透露Quark VR正在与Valve合作开发无线版本的HTC Vive,原型产品将会在秋季亮相。
尽管当时此事HTC与Valve高管均已否认,但是许多人依旧对此抱有期待。在去年双11期间,HTC终于推出了一款名为TPCAST的无线套件,让用户摆脱线缆的困扰。
TPCAST的无线套件
其实数据进行无线传输是未来头显发展一个最重要的趋势。然而无线传输首先就是要解决传输速率的问题,如果在不成熟的条件下改为无线,体验就会产生延迟。
延迟是制约VR无线解决方案发展的重要因素,而VR对于延迟又非常的敏感,传输高分辨率屏幕来营造沉浸感这就提出了很高的带宽要求。
另外,在传输方面,Li-Fi技术(光保真技术)、WiGig技术、SiBEAM Snap无线连接技术等虽然在理论上也能够解决VR数据传输问题,但一方面是这些技术大多还处于研发阶段,离真正的商业化还有漫长距离,另一方面则是它们是否能够真正的打破当前原有的网络传输技术秩序壁垒也是个问题。
不过随着HTC Vive无线套件的推出和5G的研发,未来VR也将逐步摆脱线缆的束缚。
结语
尽管VR还是处于初期阶段,但是我们可以看到很多关键性技术已经有所突破,一时间许多被人忽视的技术得到迅速发展。
无论是无线版的HTC Vive,还是触摸反馈的手套、鞋子,我们都已经看到了原型产品出现。在今年CES上,我们也发现许多新技术衍生产品的出现。VR的发展决定了对技术的高要求,同时VR关键技术的变化也必然会推动整个VR行业的成长。