Kore.ai 分享了其令人垂涎的对话式 AI 产品的最新发布浪潮:XO 平台。
其中包括新的 XO GPT 模型,它是 Kore.ai 团队开发的定制大型语言模型 (LLM),旨在“更轻、更快、更便宜”。
换句话说,它们需要更少的计算能力,从而降低了 Kore.ai 及其客户的成本。
此举是迈向未来LLM的重要一步,未来LLM可能会被高度定制、微调并托管在供应商自己的数据中心。
事实上,Kore.ai 已经针对客户体验对话用例对 XO GPT 模型进行了微调。
此外,它们令人印象深刻的是,它们能够在自动客户响应中进行释义,从而实现更加人性化的对话。
然而,Kore.ai 并没有将其客户与这些模型联系起来。它使企业能够针对不同的用例部署和编排各种 LLM,以优化其性能。
此外,客户还可以进一步深入了解,更改每个用例背后的预配置提示和业务规则,以进一步测试和优化其部署。
Five9 在 3 月份针对 CCaaS 用例发布了类似的功能,但这是纯对话 AI 提供商首次将此类功能推向市场。
此次发布的更多“行业首创”功能
在其他地方,Kore.ai 将其产品组合更加紧密地结合在一起,允许用户在一个统一的界面中访问其自动化、联络中心、搜索和代理 AI。
Opus Research 的高级分析师 Derek Top看到了这个单一界面的巨大价值,以及 Kore.ai 的法学硕士进步。
“Kore 似乎正在通过将生成式 AI 功能插入现有和新兴工作流程来满足市场需求,”他告诉 CX Today。
提供多LLM方法和单一界面,为希望从小规模起步并扩展用例以满足业务需求的企业提供了灵活性。
“此外,考虑到人工智能采用率的不同,许多公司都依靠解决方案提供商来适应生成式人工智能和法学硕士。”在本次公告中,Kore.ai 展示了其对这一趋势的认可。
该供应商还发布了无代理拨号器,使企业能够发送大量、个性化和自动的语音通知。
最后,Kore.ai 推出了新的座席协助功能,可在服务代表与客户互动时实时向他们提供指导说明和相关手册。
总而言之,根据 Kore.ai 的说法,这些增强功能将使企业能够将人工智能的运行速度“提高十倍”,并产生“最佳的对话体验”。
Kore.ai 创始人兼首席执行官 Raj Koneru 的话
Kore.ai 创始人兼首席执行官 Raj Koneru拥有最终发言权,他对 GenAI 的新功能及其降低成本和提高机器人部署效率的潜力表示赞赏。
他表示:“在成功完成 1.5 亿美元融资之后,下一波创新浪潮将强化 Kore.ai 在生成式人工智能方面的领先地位。”
“我们重新构想了我们的平台用户如何才能更快地将新的人工智能自动化解决方案推向市场,并以速度、准确性和成本创造价值。
XO V11.0 将消除构建和管理人工智能的复杂性和时间,并专注于将其付诸实践以大规模推动价值。
通过这样做,Kore.ai 希望加强其在企业对话式 AI 领域的领导地位,正如最新的 Gartner 魔力象限所重申的那样。
与此同时,Kore.ai 还扩大了其市场路线和 CX 合作伙伴关系。
最近巩固了与CCaaS 领导者 Genesys和企业通信雄心勃勃的 Zoom的关系,以及该供应商在 CX 领域快速增长的足迹。
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/47273.html