苹果最新iPhone/iPad专利提出『远程眼动追踪』解决方案

VR/AR
2020
04/09
14:04
映维网
分享
评论

来源:映维网 作者 流水原

眼动追踪主要分为两种不同类型。第一种类型是安装式眼动追踪。所述技术包括一个可随用户移动的传感器。例如,头戴式显示器可随用户移动并提供眼动追踪。

第二种类型是远程眼动追踪。所述技术包括一个独立于用户物理移动的传感器,如智能手机或平板电脑等设备。在远程眼动追踪的一个实施例中,两个红外光源以最小的基线距离相隔,并产生单独的角膜反射。

苹果认为,现有的计算系统、传感器和应用不能充分提供远程眼动追踪功能。日前美国专利商标局公布了一份名为“Sensor Fusion Eye Tracking”的专利申请,其主要描述了用于智能手机或平板电脑等设备的远程眼动追踪系统和方法。

在一些实施例中,远程眼动追踪使用单个主动照明源和深度信息确定三维坐标系中的两个位置(如角膜中心和眼球旋转中心),并因而确定注视方向。在一些实施例中,使用基于主动照明源和深度传感器信息的闪烁来确定第一位置(如角膜中心),并且使用RGB传感器和深度信息确定第二位置(如眼球旋转中心)。在一些实施例中,使用同一主动照明源的单一传感器确定第一位置(如角膜中心)和第二位置(如眼球旋转中心)。

在一些实施例中,远程眼动追踪在三维坐标系中确定头部姿态,确定眼睛在三维坐标系中的位置(如眼球旋转中心),然后确定头部姿态和眼睛位置之间的空间关系。在一些实施例中,空间关系是唯一确定。

远程眼动追踪的一种用例是确定用户注视点。例如,可以在注视方向与设备显示器相交的位置确定一个注视点(POR)。POR可用于促进用户与设备的交互。例如,系统可以确定用户视线已经到达显示器底部,并响应地自动向下滚动以向用户显示更多内容。

一些实施例涉及具有一个或多个处理器、一个或多个图像传感器和照明源的设备。其可以根据与眼睛第一图像中的不同波长光相关联的像素差异来检测眼睛的第一属性。所述实施例可以根据深度传感器信息在三维坐标中确定与第一属性相关的第一位置。所述实施例可以照明源光线从眼睛角膜反射而产生的闪烁来检测眼睛的第二属性。所述实施例可以根据深度传感器信息在三维坐标中确定与第二属性相关的第二位置,并根据第一位置和第二位置确定三维坐标系中的注视方向。

值得一提的是,苹果在发明的用例中提及混合现实。例如,系统包括MR体验应用或查看器,后者配置成在用户界面内显示MR环境。在一些实施例中,系统包括内置的远程眼球跟踪功能。

相关专利:Sensor Fusion Eye Tracking

名为“Sensor Fusion Eye Tracking”的苹果专利申请最初在2019年9月提交,并在日前由美国专利商标局公布。

原文链接:https://yivian.com/news/73530.html

THE END
广告、内容合作请点击这里 寻求合作
VR
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

光学反射镜对于沉浸式现实系统而言十分重要。在日前由美国专利商标局公布的一份专利申请中,苹果就描述了一项基于反射镜的场景摄像头发明。
VR
相信不少VR从业者都不会对异步空间扭曲技术感到陌生。这项技术在Oculus的推广下得到了相当的普及。
VR
通过OpenXR API,热门的免费开源建模和动画工具Blender即将获得VR支持。用户在一开始能够步入3D场景,并近距离地以任何比例进行查看。预计未来的版本会纳入更多的功能。
VR
专为老年人社区提供虚拟现实解决方案的MyndVR日前宣布与Pico和Littlstar达成合作,并将向美国50个州的老年人社区捐赠VR头显,从而帮助其应对因新冠病毒COVID-19而造成的社交隔离影响。
VR
苹果在过去一个月里为AR和VR发布了十多份相关的招聘启事。其中,这家科技巨头正在寻找能够为未来苹果产品孵化先进显示技术的Computational Display Engineering Manager(计算型显示器工程经理)。
VR

相关推荐

1
3