苹果申请AR/VR注视点渲染专利,用传感器追踪用户注视点
在AR/ VR 领域,注视点追踪是一项十分有意义的技术。例如,由于人眼视场的自然属性,设备可以利用注视点追踪来优化性能,只集中渲染注视点区域,并降低外围视场的视觉质量。对于一直在幕后研发AR/VR产品的 苹果 而言,他们早已在探索基于注视点追踪的应用,而映维网已有多份关于相关技术的苹果专利报道,如2018年2月公布的8K微型显示器注视点渲染发明。
延伸阅读 :新专利显示,苹果在研究8K微型显示器注视点渲染
现根据美国专利及商标局日前发布的又一批苹果专利,映维网发现了一项名为“Gaze Direction-Based Adaptive Pre-Filtering of Video Data(基于注视点方向的自适应视频数据预过滤)”的技术发明。
苹果在文件中写道:“多层低通滤波器用于过滤表示用户环境至少一部分的第一帧视频数据。滤波器的第一层具有用于第一帧第一子集的第一滤波分辨率设置,而第二层具有用于第二子集的第二滤波分辨率设置。第一子集包括沿着用户注视方向定位的数据元素,而且帧的第二子集围绕第一子集。压缩过滤的结果并通过网络传输到视频处理引擎,而后者配置为生成环境的修改视觉表示。”
相关专利:Gaze Direction-Based Adaptive Pre-Filtering of Video Data
简单来说,苹果潜在的AR/VR设备可以利用传感器来追踪用户注视点,然后相应地以不同性能处理注视区域和其他区域,从而提高系统的效率。
当然,这只是一份专利,尚不清楚苹果将于何时 商业 化发明描述的技术。名为“Gaze Direction-Based Adaptive Pre-Filtering of Video Data(基于注视点方向的自适应视频数据预过滤)”专利最初于2018年7月提交,并于日前由美国专利及商标局正式公布。
原文链接:https://yivian.com/news/55872.html
来源:映维网