周三,在加利福尼亚州圣何塞举行的 NVIDIA GTC 会议和博览会上,NVIDIA 概述了扩展现实 (XR) 和空间计算生态系统的最新发展和趋势,包括其自身工作的亮点。
在题为“XR 和空间计算现状”的会议上,该公司的专家讨论了 XR 的技术基础——从手持设备和眼镜上的增强现实,到头戴式显示器中的完全沉浸式虚拟和混合现实,再到裸眼全息和视差 2D 显示。他们还探讨了 NVIDIA 表示正在推动该领域向前发展的软件标准和最新算法。此外,该公司还探索了一些所谓的“最引人注目的沉浸式用例和工作流程”。
在会议期间,NVIDIA 深入探讨了 XR 和人工智能 (AI) 交叉领域的活跃研究,阐明了如何利用 AI 来加速和增强 XR 体验,以及空间计算如何为 AI 探索提供广阔的沙箱。
NVIDIA Maxine AI 开发平台产品管理总监 Greg Jones引用了 CloudXR,这是该公司的流媒体软件开发套件,用于通过 5G 和 Wi-Fi 网络交付虚拟现实 (VR) 和增强现实 (AR)。“这些是专用设备,”他指出。“并不是每个人都能买得起这些或拥有这些。他们将无处不在。但我们到处都有监视器。”
因此,他说,NVIDIA 新体验研究部主任 Shalini De Mello和他的团队一直致力于在场景中使用“设备的 2D 模型,以便在移动场景时调整视差视图” ……实际上,您可以在普通 2D 显示器上看到立体效果。” Jones 表示,该产品由 NVIDIA 以 Maxine 3D 的名称发布,并指出该产品仍处于“抢先体验”阶段。
然而,Jones 补充道,公司正在寻找 XR 解决方案,“因此,我们真正正在寻找的就是如何在所有这些不同设备上构建沉浸感和参与度的想法。“
“人们正在寻找娱乐,”他继续预测,“我们将达到所有设备聚集在一起的最佳点。这就是我们将看到 XR 开始改变我们生活方式的地方。”
NVIDIA 表示,生成式 AI 也将在未来的 XR 系统中发挥重要作用。
两天前,NVIDIA 首席执行官黄仁勋在年会上的主题演讲中概述了业界最新的人工智能进展。
版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。