OpenAI 已对各公司发出红色警报,警告他们在开发语音引擎解决方案的过程中,是时候放弃语音身份验证了。
语音引擎是一种语音克隆工具,可以生成“非常类似于”原始说话者的自然语音。
现在,它已经推出预览版,但 OpenAI 选择推迟全面发布,以“增强社会弹性”,以应对日益令人信服的生成模型。
OpenAI 在其网站上发表的一篇未撰写的博客文章中更深入地探讨了具体细节,并指出:
我们鼓励采取逐步淘汰基于语音的身份验证作为访问银行账户和其他敏感信息的安全措施等措施。
这位大语言模型(LLM)先驱还鼓励企业加快开发和采用跟踪视听内容来源的技术。
最后,OpenAI 提出了更一般性的建议,其中包括教育公众更好地理解“欺骗性人工智能内容”,以及调查保护人工智能中个人声音使用的政策。
尽管此类建议可能会敲响许多警钟,但 OpenAI 的目标是走在前面。
blog 继续写道:”无论我们最终是否广泛应用这项技术,全世界的人们都必须了解这项技术的发展方向。
“我们期待继续与政策制定者、研究人员、开发人员和创意人员围绕合成声音的挑战和机遇进行对话。”
就客户体验而言,这些机会非常重要,正如语音引擎的早期应用程序(与“一小群值得信赖的合作伙伴”一起推出)所表明的那样。
例如,它通过自然、富有感情的声音提供阅读帮助。这样的应用程序可能有助于支持弱势客户。
此外,还有其他用例,例如翻译内容和支持非语言人员,这可能会激发 CX 创新者的想象力。
除了客户体验之外,帮助患有突然或退化性言语状况的患者恢复声音等应用程序也非常令人兴奋。
尽管如此,合成语音已经成为一种日益严重的威胁,OpenAI 的警告令人震惊地提醒人们它对企业(更不用说更广泛的社会)构成的威胁。
合成语音:日益严重的威胁
就在两周前,CX Today 分享了有关欺诈者如何利用合成语音攻击联络中心的新研究,OpenAI 发布了语音引擎。
Pindrop 进行的这项研究发现,诈骗者已经使用合成语音与自动化相结合来绕过 IVR 身份验证步骤。
它还发现欺诈者能够使用基于语音的深度伪造来更改客户的电子邮件和家庭地址,这为欺诈提供了许多机会。
例如,攻击者可以访问一次性密码,或者在银行受到攻击的情况下订购新的信用卡。
最后,Pindrop 发现一些诈骗者已经开始使用他们的语音机器人来克隆该公司的 IVR,这可能是欺骗客户的更广泛计划的一部分。
每个示例都值得关注,并应该激发所有企业内部的对话,包括那些尚未实施语音身份验证的企业。
毕竟,正如这些欺诈者的伎俩所表明的那样,没有任何企业可以免受合成语音的威胁。
版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。