联络中心代理可以接触到敏感的客户数据。他们将这些数据发送到大型语言模型(LLM)(如ChatGPT)以自动生成客户回复的风险很高。
事实上,如果没有适当的数据安全考虑,ChatGPT 有可能将这些数据纳入其模型,并在回应其他用户输入时将其搅乱。
这种情况会带来真正的安全风险,根据 Cyberhaven 于 2 月下旬发布的研究,3.1% 的员工将机密数据粘贴到 ChatGPT 中。
到目前为止,这个百分比可能已经上升得更高。毕竟,随着越来越多的员工发现 GPT 及其竞争对手 LLM,风险也会增加。
许多案例已经浮出水面。上周,三星的三名员工向 ChatGPT 提供了“敏感的数据库源代码和会议记录”。
在另一个案例中,一名医生在要求其写信给保险公司之前,将患者的姓名和医疗状况输入到 ChatGPT 中。
此类行动的风险不仅仅是理论上的。 康奈尔大学在 2021 年发表的一项 针对 GPT-2 的研究警告了“训练数据提取攻击”的危险。
此类攻击可能允许某人恢复个人身份信息 (PII) 和逐字文本序列。
因此,安全和合规流程面临威胁——尤其是在联络中心等环境中。
毕竟,代理商越来越多地采用自动化工具来简化他们的工作——包括那些他们工作的企业没有提供的工作。
到 2026 年,Gartner 估计 30% 的代理商将使用此类解决方案。
在评论这一发现时,Gartner 客户服务与支持实践研究总监 Emily Potosky表示:
虽然自我自动化在软件领域已经发生了一段时间,但这种趋势将在客户服务内部变得更加普遍,因为代表现在可以更好地访问自动化工具。
除了 LLM,代理商还可能使用其他有风险的自我自动化工具。
例如,未经授权的第三方通话记录器也存在风险。
因此,联络中心在制定减少使用非法座席生产力工具的策略时,不应只考虑 ChatGPT。
降低 ChatGPT 的风险
许多组织已经在采取措施降低 ChatGPT 的风险。摩根大通是首批以合规问题为由限制其员工使用 LLM 的公司之一。
与此同时,其他企业包括亚马逊、微软和沃尔玛,转而向员工发出警告。事实上,后者发出了一份备忘录,指出:
“员工不应将有关沃尔玛业务的任何信息——包括业务流程、政策或战略输入这些工具。”
随着雇主仔细考虑与将公司机密信息输入 LLM 相关的保密政策和禁令,此类举措可能会变得越来越普遍。
当他们这样做时,许多人可能会探索联络中心市场,研究座席自动化工具。
毕竟,减轻此类风险的最佳方法是提供经过授权的替代方案。
正如 Potosky 所说:
不仅允许而且授权自我自动化的客户服务和支持组织将比那些不这样做的组织更具竞争力,因为代表会注意到并纠正领导者没有意识到的低效率。
这一点凸显了代理人密切沟通的必要性,以了解他们发现的自我自动化机会,对其进行审查,然后确定适当的解决方案。
事实上,ChatGPT 在工作场所的兴起凸显了员工增强工作流程的意愿。
拥抱这一点并与座席合作实施新的生产力工具将使联络中心能够创造更高效和更具吸引力的工作方式。
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/21283.html