近年来,数字孪生、超高清、多传感器融合、AR、VR等新体验技术飞速发展,为博物馆数字化运营奠定了技术基础。
在实体博物馆中引入数字技术,拓展了文化的时空边界,丰富了博物馆自身的功能。
现今,博物馆中的数字技术主要应用于三种场景:在地、在线以及在场。
物理空间中,观众切身“在地”游览古迹;网络空间中,观众“在线”浏览博物馆;虚实融合的空间中,观众实现虚拟互联网的实地“在场”,身临其境感受文物的历史。“这一转变,被冠以元宇宙之名。”
元宇宙+博物馆的运营方式唤活了沉睡的文物,让人们近距离感知文物的魅力,感受古代文化的沉淀和沧桑。
故宫博物院利用虚拟现实与增强现实全景技术将千里江山图、故宫送到人们面前,故宫文创大火一把;湖北省博物馆首个数字藏品“越王勾践剑”限量万份,上架“秒空”。
此外,各博物馆也接连有虚拟数字人上岗。如今年七月中国国家博物馆首位虚拟数字人“艾雯雯”现身,她从校园走进国家博物馆,与馆藏文物产生了神奇感应,获得了让“文物活起来”的独特能力。
但其实博物馆数字化运营的可能性远不止于此。
各博物馆除了可以利用虚拟现实技术将文物古迹场景化、可视化,还可以采用虚拟人技术让当地名人活起来、动起来,增加人们对古代名人的真实性感知,打通古人和现代人们之间的墙壁,让古代名人和现代大众进行对话,进一步增强古代文化的魅力。
如何利用虚拟人技术打造“活”的名人IP呢?清博智能给出了这样的解决方案:
01 第一步:根据现有影像建模
清博将会依据历史图片视频资料精细化复活古代名人的人物模型,利用动捕设备再现古人的人物风格。
目前博物馆的数字人大多是基于其文化意义,利用AI技术凭空捏造一个形象,但清博虚拟人的侧重点在于再现古代名人的神形与活力。
因此利用相关技术基于历史视频资料构建名人模型是打造名人IP的第一步。
清博的影视级虚拟人建模能力支持虚拟人的4K分辨率呈现,模型精细,才能在骨骼绑定、表情制作等后续流程时更加高效精美。
02 第二步:定制虚拟人表情和动作和声音
复原“活”的名人形象,对其表情、动作、声音的抓捕也是至关重要的。
清博在52个基础的表情上,再定制IP专属表情,使其人物更加生动自然,此后基于文本实时合成语音动画+语音合成技术,文本智能驱动虚拟人的嘴型动画、面部表情、肢体动作等。
这样就能使大众真正有机会听到杜甫立于燮州江边高声“无边落木萧萧下,不尽长江滚滚来”,切身感受其诗中所包含的情感。
03 第三步:给定不同驱动方案
驱动方式影响着虚拟人的面部表情、形体表达、语音表述,可以称作虚拟人的骨,要想让名人真的动起来,离不开先进的驱动方式。
清博智能基于AI驱动技术和动捕设备驱动技术,依据虚拟人打造场景给定驱动方案,使名人最大程度化贴合历史记载并且活灵活现。
在打造过程中,清博基于UE4开发,采用了业内多种先进智能技术。
虚拟人的驱动方式采用TTS方式(根据文本或语音输入生成虚拟人的语音、表情、动作),可根据名人表达内容的含义、情绪,驱动虚拟人做出对应的动作与表情,使名人的虚拟人更契合他当下的情感表达。
除了复刻“活”的名人以外,场景的打造是用户真正沉浸式和古代名人对话的另一重要因素。
清博不仅能完成虚拟人的建模、驱动,还可以利用数字化采集和三维技术完成虚拟人场景搭建,使名人完整地呈现在用户眼前。
头戴VR设备,手握遥感器,轻轻一按便能穿梭在古代世界,触摸古代名人,通过VR沉浸式与交互式的观影方式,实现对传统文化的现场体验感、穿越感、身临其境之感。
虚拟人是博物馆数字化革命不可或缺的一环,是讲好中国故事,让古代文化“活”在当代的关键科技。
其真正做到了将静态的博物馆资源动态化,这不仅能突出地方博物馆的独特优势,更能让人们感知古代文明所承载的恒久魅力。
作者:Q博士 | 来源:清元宇宙
版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。