苹果最新AR专利可用多设备辅助实现更稳定虚拟对象定位

VR/AR
2020
04/09
14:05
映维网
分享
评论

来源:映维网 作者 广州客

随着AR技术的兴起,越来越多设备开始支持这种数字增强功能。但有时候,设备无法精确地使用计算机生成内容来增强物理环境。例如,设备会在不合适的位置显示虚拟对象。

针对这种情况,苹果希望利用多设备的图像来进行定位和映射,从而提高虚拟对象显示位置的精确性。

名为“Localization And Mapping Using Images From Multiple Devices”的专利申请指出,所述映射和定位方法由包含显示屏、摄像头传感器和运动传感器的第一电子设备执行。所述方法包括:通过摄像头获取第一图像数据;使用运动传感器获取运动数据;接收与第二电子设备对应的信息;使用第一图像数据、运动数据,以及与第二电子设备对应的信息生成第一电子设备的第一姿态表示;以及在显示器中显示虚拟对象。其中,虚拟对象的显示是基于第一电子设备的第一姿态表示。

例如在上面的专利图中,电子设备200A和电子设备200B用于增强用户的物理环境视图。电子设备200a和电子设备200b显示由各自摄像传感器所捕获的物理环境图像。除了显示诸如立方体202a和202b等物理对象的图像之外,电子设备200a和电子设备200b同时可以显示虚拟对象,从而增强用户的物理环境视图。

针对这种情况,电子设备200a和电子设备200b可以相对于物理环境确定自己的姿态(如位置和方向)。

电子设备200a可以使用例如视觉惯性里程计等SLAM技术来启动关于物理环境的映射和定位过程。但为了提高电子设备200a的位置估计精度,系统需要更多的数据,特别是关于物理环境中的显著特征的三维位置数据。

所以,除了利用电子设备200a产生的数据之外,苹果指出可以使用第二设备(如电子设备200b)产生的数据。

在一些实施例中,电子设备200a接收由电子设备200b捕获的图像数据和/或电子设备200b的相应姿势估计。在一些实施例中,电子设备200a使用接收到的图像数据和/或电子设备200b的相应姿态估计来生成电子设备200a的姿态估计,亦即在现有的姿态估计基础进行优化精细。

通过增加用于估计设备姿态的数据量,我们能够减少与姿态估计相关的误差,从而在执行计算机内容生成技术时提供更优的用户体验。

相关专利:Localization And Mapping Using Images From Multiple Devices

名为“Localization And Mapping Using Images From Multiple Devices”的专利申请最初在2019年8月提交,并在日前由美国专利商标局公布。

原文链接:https://yivian.com/news/73523.html

THE END
广告、内容合作请点击这里 寻求合作
VR
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

当一束激光照射到对象表面时,所反射的激光会携带方位和距离等信息。若将激光束按照某种轨迹进行扫描,系统可以边扫描边记录反射的激光点信息。由于扫描极为精细,我们能够获得大量的激光点,而它们可以形...
VR
眼动追踪主要分为两种不同类型。第一种类型是安装式眼动追踪。所述技术包括一个可随用户移动的传感器。例如,头戴式显示器可随用户移动并提供眼动追踪。
VR
光学反射镜对于沉浸式现实系统而言十分重要。在日前由美国专利商标局公布的一份专利申请中,苹果就描述了一项基于反射镜的场景摄像头发明。
VR
相信不少VR从业者都不会对异步空间扭曲技术感到陌生。这项技术在Oculus的推广下得到了相当的普及。
VR
通过OpenXR API,热门的免费开源建模和动画工具Blender即将获得VR支持。用户在一开始能够步入3D场景,并近距离地以任何比例进行查看。预计未来的版本会纳入更多的功能。
VR

相关推荐

1
3