MPEG-I 场景描述:沉浸式媒体的动态场景描述框架 | IBC2023论文

IBC2023: 本技术论文概述了 MPEG-I 场景描述。

摘要

沉浸式媒体应用提供的体验能让用户沉浸在虚拟或混合环境中,并提供比传统 2D 视频内容更多的自由度。提供沉浸式媒体的平台通常能让用户在共享的虚拟或混合现实空间中与内容和/或其他用户进行交互。

为了满足此类三维环境对可互操作的跨平台交换格式和交互式解决方案的需求,ISO/IEC JTC 1/SC29/WG03 MPEG Systems 在 ISO/IEC 23090-14 [1] 中对场景描述框架进行了标准化,该框架作为一种入口点格式,可组成丰富的三维场景,在场景中引用和定位二维和三维资产,与现实世界融合,具有丰富的交互性,并提供实时媒体传输。

此外,基于众所周知且普遍存在的 ISOBMFF 标准,即 ISO/IEC 14496-12 [2],定义了场景描述数据和链接资产的传输格式。

介绍

沉浸式媒体应用程序提供让用户沉浸在虚拟或混合环境中的体验。与传统2D内容相比,用户能够体验3D内容并享受更多自由度。提供沉浸式媒体的平台通常还使用户能够在共享虚拟空间中与内容和/或其他用户进行交互。

沉浸式媒体变得越来越普遍,并开始影响我们的工作和娱乐方式。沉浸感是通过在传统上以 2D 方式数字表达的媒体模式(视觉和听觉)中引入深度维度来实现的。从 2D 媒体过渡到 3D 媒体的趋势最初是由虚拟现实 (VR) 引发的,主要是由价格实惠的 VR 耳机的出现推动的。然而,在透明头戴式显示器 (HMD) 和眼镜等消费设备的支持下,独特的增强现实 (AR) 和混合现实 (MR) 沉浸式体验也变得流行。在智能手机上也可以实现许多沉浸式体验。

实现沉浸式媒体用户体验的关键技术之一是场景描述。场景描述定义了 3D 场景的结构和组成,引用和定位场景中的 2D 和 3D 资源,并提供应用程序可以用来向最终用户正确渲染 3D 场景的所有必要信息。

对能够在 3D 环境中实现跨平台交换和交互的解决方案的需求变得显而易见,许多论坛和标准开发组织 (SDO) 开始定义所需的技术。ISO/IEC 运动图像专家组 (MPEG) 第 3 工作组 (WG03) 在 MPEG-I 系列标准(即 ISO/IEC 23090-14)的第 14 部分中定义了场景描述框架,作为丰富场景描述的切入点。 3D 动态和时间场景,实现沉浸感、与现实世界的融合和丰富的交互性,同时提供实时媒体和场景更新交付。

此外,该标准还定义了一种架构以及应用程序编程接口 (API),允许应用程序将对沉浸式定时媒体内容的访问与该媒体的呈现分开。该 API 的分离和定义允许实施广泛的优化技术,例如使检索到的媒体适应网络条件、部分检索、不同细节级别的访问以及内容质量的调整。

本文概述了 MPEG-I 场景描述 (MPEG-SD),其结构如下。

第一部分描述了 MPEG-SD 中使用的架构框架,接下来的部分描述了该标准第一版及其修订版引入的所有新功能。之后我们提供与 MPEG-SD 相关的存储和传输方面的信息。最后三个部分着眼于与 MPEG-SD 相关的未来标准化项目、未来工作和结论。

论文下载地址:https://www.ibc.org/download?ac=24724

MPEG-I 场景描述:沉浸式媒体的动态场景描述框架 | IBC2023论文

版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。

(0)

相关推荐

发表回复

登录后才能评论