站长之家 - 业界 2021-05-19 15:24

I/O 2021:谷歌升级Android增强现实API 带来更具沉浸感的使用体验

作为谷歌力推的增强现实平台,ARCore 已在全球超过 8.5 亿部 Android 智能机上得到采用。而在今天开幕的 I/O 2021 开发者大会期间,这家科技巨头又宣布了 ARCore 的一些重要功能升级。据悉,与需要专门硬件的 Project Tango 等项目不同,ARCore 可借助手机现有的硬件和传感器来收集深度、光线、以及运动追踪等信息,以帮助开发者构建交互式的 AR 体验。

自发布以来,Google 一直在稳步改进 ARCore 的功能集合,且不断突破了 AR 应用程序开发者可在常规 Android 智能机硬件平台上实现相关功能的局限性。

比如去年发布的 ARCore Depth API,就允许开发者借助 RGB 相机传感器来生成深度图,并带来逼真的 AR 体验。

今天,该公司又在 ARCore 的武器库中添加了两款新工具,分别是原始深度(Raw Depth)和录制与回放(Recording and Playback)API 。

前者建立在此前的 Depth API 基础上,可通过深度信息与对应的信心图像映射,来提供有关周围环境物体的更详细表述。

深度 API 专注于生成具有所欲像素深度估值的平滑深度图,而 Raw Depth 旨在利用提供每个像素深度估值的置信度图像,来捕获更加逼真的深度图。

ARCore Raw Depth API

另一项改进是命中测试,其现使用深度(而不是平面)图。即使在非平面和低纹理的地板上,也能够提供更多的 hit-test 结果。

比如 TeamViewer 的 LifeAR 应用程序,就利用了深度命中测试方案,将 AR 功能集成到了视频通话应用场景中。

这些新改进无需借助飞行时间(ToF)之类的专用传感器硬件,因而能够在绝大多数获得 ARCore 认证的设备上实现,感兴趣的开发者可于即日起上手体验。

ARCore Recording and Playback API

然后是 ARCore 新迎来的录制与回放 API,该应用程序接口为需要测试不同 AR 体验的开发者们提供了更大的灵活性。

通常情况下,AR 开发者必须在特定的环境和位置下开展持续测试。但在新 API 的帮助下,开发者现能够采取包括深度和 IMU 运动传感器信息等在内的 AR 元数据。

通过重用这些视频素材,开发者能够方便地在相同环境中展开进一步测试。只需一次录制,即可将之用于测试其它 AR 效果和体验的模板,而无需每次都拍摄新的素材。

举个例子,滴滴打车(Didi-Rider)就利用了该 API 来构建和测试基于 AR 的虚拟标识指引功能。这不仅帮助该公司节省了 25% 的研发费用,还将开发周期缩短了六个月。

对于最终用户来说,该 API 还能带来新颖的 AR 体验。比如能够将之前录制的视频提交给 AR 特效应用程序,而无需呆呆站在同一位置并启用实时的摄像头会话。

相关话题

推荐关键词

24小时热搜

查看更多内容

大家正在看

谷歌Pixel 8a渲染图曝光