您的位置:主页 > 人工智能 > 正文

谷歌正在改进它的增强现实工具

自从谷歌去年推出面向开发者的增强现实软件包ARCore以来,该公司一直在努力调整技术,让用户相信他们看到的增强对象存在于现实世界中。

人们产生怀疑的一个主要原因是,一旦真实物体进入相机的角度,虚拟物体就会消失——或者,更不现实的是,它们的数字身体与真实世界的桌子和床重叠,并笨拙地粘在上面。

据该公司称,谷歌的新功能将弥补这个问题。这个工具被称为ARCore深度API,它可以让开发者用手机摄像头测量场景中物体之间的距离,以及这些物体之间的距离。

当手机在房间里移动时,深度API可以从一个摄像头拍摄多张照片,然后比较图像,以估计每个物体到每个像素的距离。

谷歌的软件工程师康斯坦丁·索索斯(Konstantine Tsotsos)说:“通过一个移动的摄像头,我们可以让你对世界有一个3D的认识。”“一旦你的相机理解了3D空间,你的内容就会与世界发生碰撞。”

估计深度通常是通过专门的飞行时间传感器来完成的,这些传感器使用人造光信号来测量相机和拍摄对象之间的距离。但谷歌表示,深度API可以用智能手机实现,不过深度传感器的添加将提高效果的质量。

这项新技术的一个关键应用是遮挡,即数字对象准确地出现在真实世界对象前面或后面的能力。谷歌用一段视频展示了这一点:一只虚拟猫笨拙地坐在沙发上,另一只则更真实地坐在沙发后面。

去年,软件开发公司Niantic已经尝试了遮挡,并发布了一个简短的演示,展示了增强版《精灵宝可梦Go》中的皮卡丘躲避并隐藏在路人背后。

虽然视频被认为是增强现实主义的一个进步,但遮挡仍然远远没有成为增强现实的标准。“内容通常是贴在屏幕上,而不是在现实世界中,”Tsotsos说。

除了遮挡之外,新的API将允许虚拟物体准确地在表面上弹跳和飞溅,或者对不同的纹理做出反应。例如,开发商可以在一个场景中添加积雪,或者雨水打在人行道上。

视频游戏公司Unity Technologies的开发人员丹•米勒(Dan Miller)表示:“这是试图将尽可能多的信息从现实世界引入数字世界,这样你就可以帮助增强对象感觉扎根于现实世界。”

“深度只是让这些物体感觉它们存在于真实世界的额外一层。”

今年早些时候,谷歌为ARCore发布了一种名为Environment HDR的新模式,它通过用户的手机摄像头收集光线数据,并将其扩展到一个增强场景中,相应地应用高光和阴影。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。