眼下,似乎每个科技厂商都在用生成式 AI 进行创新。
然而,随着这一趋势的加速,越来越多的专家开始表达他们对 AI 发展的担忧。
这些担忧涉及许多领域,而企业就是其中之一。
在那里,可能的风险包括基于生成式 AI 的应用程序向客户发送捏造的信息,并造成版权的侵犯。
然而,也许最令人担忧的是,对它们如何危及数据隐私的担忧仍然存在。
微软最近宣布计划为ChatGPT发布一个私人模式,以此来平息这些担忧: PrivateGPT。
PrivateGPT托管在专用服务器上,将在人工智能软件的副本上运行 “高级隐私保护方法”,以避免数据泄露。
那么,问题解决了,对吗?也许,就目前而言。然而,额外的风险可能会破坏企业中生成性人工智能的未来使用案例。
企业中生成式 AI 的当前愿景及其缺陷
生成式 AI 在企业中的未来不仅仅是文本生成。下一个前沿领域将是图像和视频模型。
到目前为止,这些模型还没有消化YouTube上所有的视频或Spotify上的播客音频。然而,当它们做到这一点时,企业将重新利用并为它们提供大量的音频和视觉数据体。
然后,随着企业内部更多的交流从电子邮件和消息转移到视频通话、录制的会议和音频笔记,对话将超越企业想要私人版本的ChatGPT来上传自己的文本数据。
相反,企业将希望自己的多模态助手在这些体验中运行。
微软已经通过Copilot描绘了这一愿景。然而,Vixen实验室的首席执行官James Poulter指出,这些计划中有一个相当大的假设,可能会限制其潜力。
“他在CX Today最新的BIG新闻展上说:”[有了Copilot]我们都会很高兴让它在我们的团队通话的背景中运行,这似乎是一个既定事实。”但我认为微软将开始在他们的大企业客户中遇到很多重大障碍。
他们将不高兴所有这些视频通话将被自动转录和上传,这就是为什么围绕安全环境的重大协调必须发生。
首先,必须对利用生成性人工智能的企业系统进行端对端加密,对提示或回复进行加密。
然后,还有云上加密,确保 生成式 AI 应用程序远离存储在SaaS系统中的一些数据。
这些只是企业可能必须克服的两个重大障碍。
在谈到这一点时,Poulter表示:
互联网的历史是为了实用而放弃隐私。作为个人,我们已经习惯了,但作为公司,我不认为我们愿意以同样的方式进行这种交易。
此外,当如此多的企业应用集中在三四家大型技术供应商中的一家时,风险就会大大放大。
历史会重演吗?
供应商在建立像Copilot这样的多媒体生成型人工智能应用时,必须将企业安全放在其创新战略的首位。
此外,他们应该清楚地传达品牌如何确保安全使用其解决方案。
亚马逊Alexa在五六年前教会了我们这一点,当时它给我们上了一堂关于主流技术和企业防御性之间复杂关系的速成课程。
的确,时光倒流,智能音箱到处都是,所有人都想谈论的东西。它似乎有一个巨大的蓝海,可以去任何地方–包括进入会议室,帮助修改办公室的工作方式。
然后,发生了什么?一连串的负面新闻,分享Alexa如何从一栋房子里的某人的卧室拿走对话,并把它放到另一栋房子里的故事。
接下来,联邦调查局用它来解决佛罗里达州的一起谋杀案,等等。
提出这一点,Project Voice的首席执行官Bradley Metrock表示: “突然间,基调发生了变化……我觉得我们正在看着几乎同样的故事在这里上演。
考虑一下微软。看看这个品牌。它很干净,没有攻击性,而且修剪得很好,类似于谷歌过去的情况。只需要一个错误的故事,就可以启动一个改变一切的Cavalcade的东西。
现在,负面新闻也许不是Alexa在美国企业界没有成功的唯一原因。这在很大程度上与它如何捕获某人所说的话的架构有关,这些数据存放在哪里,以及谁可以访问它。
然而,如果没有明确沟通供应商为保持其解决方案的安全性所采取的措施,历史可能会重演–在更大的范围内。
作者:Charlie Mitchell
原文:https://www.cxtoday.com/data-analytics/generative-ai-in-the-enterprise-a-disaster-waiting-to-happen/
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/25885.html