据外媒 AndroidPolice 报道,谷歌即将利用手机的双摄像头来提升 AR 性能。ARCore是Google的构建增强现实体验的平台。通过使用不同的API,ARCore使您的手机能够感知其环境,了解世界并与信息进行交互。某些API可在Android和iOS上使用,以实现共享的AR体验。苹果公司也有自己的增强现实体验平台arkit。
增强现实就是把虚拟世界的物体和现实世界进行结合在一起。Arcore引擎是如何做到把虚拟的内容和现实集合到一起的?谷歌的Arcore是通过三大主要功能将虚拟世界与现实世界结合的,三大主要功能分别是:运动跟踪、了解环境、光线估计。
运动跟踪:让手机能够及时了解和跟踪其相对于世界的位置。当手机在现实世界中移动时,ARCore使用称为同步本地化和映射(SLAM)的过程来了解手机相对于其周围现实世界中的位置。 ARCore通过摄像头获得现实世界的图像,检测这些图像中视觉上有明显不同的特征,并使用这些不同的特征计算位置的变化。视觉信息与来自设备IMU的惯性测量值结合在一起,以估计摄像机相对于世界的姿势(位置和方向)。通过将渲染3D内容的虚拟摄像机的姿势与ARCore提供的设备摄像机的姿势对齐,开发人员可以从正确的角度渲染虚拟内容。渲染的虚拟图像可以叠加在从设备的摄像头获得的图像之上,使其看起来好像虚拟内容是真实世界的一部分。
了解环境:手机可以检测所有类型的表面的大小和位置:水平,垂直和倾斜表面,例如地面,咖啡桌或墙壁。ARCore通过检测特征点和平面来不断提高其对现实环境的理解。ARCore会寻找功能点的群集,这些功能点似乎位于常见的水平或垂直表面(例如桌子或墙壁)上,并将这些表面作为平面提供给您的应用程序。 ARCore还可以确定每个平面的边界,并将这些信息提供给您的应用程序。您可以使用此信息将虚拟对象放置在平坦的表面上。由于ARCore使用特征点检测平面,因此可能无法正确检测到没有纹理的平坦表面,例如白墙。
光线估计:可以让手机感知当前环境的照明条件。ARCore可以检测有关现实世界中环境照明的信息,并提供给定摄像机图像的平均强度和颜色校正。通过这些光线信息可以为在与周围环境相同的条件下点亮虚拟对象,从而增加了真实感。
据介绍这次谷歌升级 ARCore,Pixel 4/XL 将首次利用双摄像头提升 AR 性能 ,想必Pixel 4/XL在加入双摄像头后运动跟踪、了解环境、光线估计、立体深度等性能将会得到质的提升,虚拟内容将会更像真实世界的一部分。
来源: IT知识小学堂