BBC公测5G+云计算+AR/VR旅游,往返延迟超200ms
BBC曾于2018年12月对智能旅游应用展开了5G测试,而现在他们已经完成了第二次公开测试,通过智能 手机 演示了低延迟高带宽的视频。
第二次测试使用了与第一次相同的“时间窗”概念,亦即数字重建与现实世界中的相同位置对齐叠加,但BBC不是将预渲染的360度视频流式传输至用户的智能手机,他们同时测试了“远程渲染”的 VR 版本:智能手机的物理位置发送到远程计算机,后者相应地绘制历史场景的实时VR视图,然后将其流式传输回智能手机。
与预渲染的360度视频相比,实时创建历史视图有几个优点。首先,360度视频是根据单个物理位置绘制,所以用户需要站在同一个位置,从而准确地将历史视图与现实世界对齐,但VR版本可允许用户完全自由移动。其次,由于VR版本是实时绘制的,因此你可以像 游戏 一样直接向其添加交互式或个性化元素。第三,用户在VR版本中可以无损地“缩放”视点,仔细查看场景中的细节。
当然,VR场景可以由智能手机直接绘制,但这存在多个缺点。例如,渲染质量不及PC,需要安装相当臃肿的应用程序,以及非常高的耗电量。
关键的技术要求是,智能手机的移动和屏幕的视图更新实现最低限度的延迟。对于巴斯罗马浴场的历史创建,布里斯托尔大学为BBC提供了60 GHz的5G网络,由布里斯托尔大学的物理服务器集群执行VR图形绘制,并通过LTE实现5G网络和智能手机之间的最终对接。
布里斯托大学利用OpenStack配置了10台虚拟图形绘制PC,并对其进行了优化,以便其能够快速访问物理内存和图形硬件。每个虚拟机都安装了BBC的图形应用程序和流 媒体 软件。在测试期间,用户的智能手机向布里斯托尔的服务器请求图形绘制功能,然后分配相应的IP端点以发送控制数据和接收绘制的视频。
利用谷歌的ARCore SDK,每个智能手机都可以在巴斯罗马浴场中定位,然后将其位置,方向和其他控制数据作为原始UDP数据包发送至布里斯托大学的图形绘制PC。然后将利用历史3D模型,以及基于NVIDIA Capture SDK的服务器应用程序,图形绘制应用程序可以从智能手机的角度绘制历史场景,生成H264视频,并利用SRT流媒体协议将其传输至智能手机。接下来,智能手机通过Android MediaCodec实例对视频进行解码。这个过程的结果可以参见下面这个视频。我们可以看到,当用户移动智能手机视图时,大约15英里之外的图形绘制PC正在创建相应的视图并实时发回。
对于这一测试,往返等待时间大约为200毫秒。测试参与者的反馈表明,这样的移动VR应用令人感到满意。但对VR头显而言不可接受,因为理想的延迟应该小于大约50毫秒(注:50毫秒是BBC的设定,行业的设定是动显(MTP)延迟小于20毫秒)。BBC表示,如果要将这种技术用于头显体验,团队需要进一步的优化,可能性包括:
绘制比显示器要求更宽的视场,并在更宽的视场中移动用户视点。用户位置延迟将保持不变,但方向延迟将大大降低。使用子帧视频编码器,以便流媒体服务器不必等待绘制完整个图像帧才把数据发回至智能手机。提高图形应用程序的帧速率(以及相应的传输带宽)通过仅使用UDP将视频发送回智能手机,用网络可靠性交换速度。
BBC通过参与者访谈获得了大量的用户反馈,并正在进行分析以确定未来的计划。对于用户反馈,测试者特别渴望的一个功能是,能够根据用户的知识水平和兴趣来“个性化”场景的历史解读。另一个受欢迎的要求是,将5G内容与导游解说相结合。
原文链接:https://yivian.com/news/59668.html
来源:映维网