11月7日晚间消息,新浪科技获悉,阿里巴巴多个团队正联合研发由数字人全面接管的终端交互引擎。预计第一款“数字人+终端”产品将在2023年一季度让用户体验。据介绍,该项目集合达摩院NLP,语音,视觉,3D构建驱动及大模型领域团队,和天猫精灵AliGenie交互系统专家。
就像手指触屏奠定智能手机交互,大模型数字人将接管未来智能交互。2022年开始,达摩院多模态大模型开始应用于天猫精灵语音搜索与百科场景。各方目前将合作场景推向AliGenie交互的系统层和用户感知层。
当前,数字人领域正由喧嚣转向理性。虽然高精度高颜值的人偶形象不断出现,但绝大部分场景缺乏与用户的持续性、个性化互动,因而商业化规模有限。如只能在短视频和动画中存在的虚拟偶像,或只在单一设备或界面中面向大众支持问答的虚拟员工,这些形态缺乏大模型训练和大规模交互,无法个性化学习升级,用户感受就像“没有灵魂”。
刚结束的云栖大会上,阿里巴巴集团研究员李小龙透露了达摩院积累的包括多模态大模型、语音、自然语言、3D构建驱动、各个领域近两年百项专利与顶会论文,通过将这些成果,在诸多交互场景验证,一个多模态大模型为基础的数字人的引擎已初显雏形。
天猫精灵产品规划负责人卢勇介绍,接入AliGenie系统的终端已覆盖4000多万家庭、包含1600多个品牌的4.6亿已接入产品,能让数字人在可持续、大规模、组合式的场景与用户交互。AliGenie此前公布,仅智能音箱产品每月交互80亿次以上,70%是主动型服务。许多消费硬件领域厂商,也迫切希望有超出单一连接、单一设备对话的智能体验。(文猛)
版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。