苹果最新iPhone/iPad专利提出『远程眼动追踪』解决方案
来源:映维网 作者 流水原
眼动追踪主要分为两种不同类型。第一种类型是安装式眼动追踪。所述技术包括一个可随用户移动的传感器。例如,头戴式显示器可随用户移动并提供眼动追踪。
第二种类型是远程眼动追踪。所述技术包括一个独立于用户物理移动的传感器,如智能 手机 或平板电脑等设备。在远程眼动追踪的一个实施例中,两个红外光源以最小的基线距离相隔,并产生单独的角膜反射。
苹果 认为,现有的计算系统、传感器和应用不能充分提供远程眼动追踪功能。日前美国专利商标局公布了一份名为“Sensor Fusion Eye Tracking”的专利申请,其主要描述了用于智能手机或平板电脑等设备的远程眼动追踪系统和方法。
在一些实施例中,远程眼动追踪使用单个主动照明源和深度信息确定三维坐标系中的两个位置(如角膜中心和眼球旋转中心),并因而确定注视方向。在一些实施例中,使用基于主动照明源和深度传感器信息的闪烁来确定第一位置(如角膜中心),并且使用RGB传感器和深度信息确定第二位置(如眼球旋转中心)。在一些实施例中,使用同一主动照明源的单一传感器确定第一位置(如角膜中心)和第二位置(如眼球旋转中心)。
在一些实施例中,远程眼动追踪在三维坐标系中确定头部姿态,确定眼睛在三维坐标系中的位置(如眼球旋转中心),然后确定头部姿态和眼睛位置之间的空间关系。在一些实施例中,空间关系是唯一确定。
远程眼动追踪的一种用例是确定用户注视点。例如,可以在注视方向与设备显示器相交的位置确定一个注视点(POR)。POR可用于促进用户与设备的交互。例如,系统可以确定用户视线已经到达显示器底部,并响应地自动向下滚动以向用户显示更多内容。
一些实施例涉及具有一个或多个处理器、一个或多个图像传感器和照明源的设备。其可以根据与眼睛第一图像中的不同波长光相关联的像素差异来检测眼睛的第一属性。所述实施例可以根据深度传感器信息在三维坐标中确定与第一属性相关的第一位置。所述实施例可以照明源光线从眼睛角膜反射而产生的闪烁来检测眼睛的第二属性。所述实施例可以根据深度传感器信息在三维坐标中确定与第二属性相关的第二位置,并根据第一位置和第二位置确定三维坐标系中的注视方向。
值得一提的是,苹果在发明的用例中提及混合现实。例如,系统包括MR体验应用或查看器,后者配置成在用户界面内显示MR环境。在一些实施例中,系统包括内置的远程眼球跟踪功能。
相关专利 :Sensor Fusion Eye Tracking
名为“Sensor Fusion Eye Tracking”的苹果专利申请最初在2019年9月提交,并在日前由美国专利商标局公布。
原文链接:https://yivian.com/news/73530.html