对话式 AI 的需求正在上升。像ChatGPT这样的生成型机器人已经风靡全球,向企业展示了正确的算法在响应、支持和与终端用户沟通方面是多么有效。
同时,自然语言处理和理解技术的改进也导致了越来越多的人类机器人的诞生。今天的工具可以与我们进行对话,表达个性,甚至利用机器学习创造性地回应提示。不幸的是,就像人类一样,机器人也不是没有缺陷的。
公司在生产自己的机器人时面临的最常见的问题之一,是如何避免偏见的道德问题。虽然机器人可能不会像我们人类那样受到无意识偏见的影响,但它们仍然可以根据它们得到的数据描绘出有偏见的行为。
如果不能确定和消除机器人的偏见,不仅会损害终端用户的体验,而且还会导致数据不准确,并损害品牌声誉。
那么,企业如何应对对话式 AI 偏见?
什么是会话 AI 偏见?
目前,聊天机器人和虚拟助手还没有自己的观点和情感。
这意味着他们不会真的受到情感上的、无意识的偏见。语音机器人不会因为种族主义倾向而故意忽略带有强烈口音的客户的陈述。然而,由于他们的训练,他们可以通过多种不同的方式表现出偏见。
就像人们有无意识的偏见会影响他们的行为方式和与他人的交流一样,会话机器人也会有偏见,从而损害他们的互动质量。
事实上,全世界有一些相对令人震惊的例子。几年前,微软甚至凭借一款 Twitter 聊天机器人(Tay)上了头条,它无意中从仇恨言论中收集了太多数据,似乎一夜之间变成了一个种族主义、性别歧视的实体。
机器人产生偏见的原因通常是训练和测试不当。机器人只能根据给定的信息学习和回复评论。如果机器人的数据集是有限的,或者无意中有偏见,那么机器人本身也会因此产生偏见。
如何减少对话中的 AI 偏见
近年来,与对话式 AI 偏见有关的主要公共问题引起了人们对该问题的严重性的关注。因此,在将机器人推出供公众使用之前,公司在创建、训练和测试机器人的方式上变得更加谨慎。
归根结底,减少或消除对话式 AI 偏见只是确保尽可能以合乎道德的方式对机器人进行培训和部署的问题。
第 1 步:收集更好的数据
数据是任何对话机器人的命脉。机器人对客户说或输入的每一个词都是它过去访问过的数据的副产品。机器人不只是自己给出问题的答案,它们还会扫描无数的数据点以找到相关的答案。
为避免这些响应出现偏差,公司需要确保他们为其机器人提供访问正确、整体数据的权限。从多个视点、角度和环境收集大量数据可以让公司创建一个更加多样化、无偏见的聊天机器人。
第 2 步:分析机器人的理解能力
聊天机器人依赖于许多 AI 算法来运行。当今市场上最先进的机器人结合了自然语言处理和自然语言理解 (NLU) 工具。如果没有正确的“NLU”策略,这些机器人只能收集数据,但它们无法真正查明客户在说某些话时的意思,或者他们的意图可能是什么。
分析机器人理解信息的能力,使用丰富的分析,确保公司可以透明地跟踪他们的机器人如何处理数据。评估 NLU 流程可以帮助组织立即查明 NLU 工作流程中可能导致偏差的缺陷。
第 3 步:测试真实场景
最好的聊天机器人不是一夜之间创建和推出的。真正直观的人型机器人在部署前经过数月甚至数年的训练和测试。充分的测试和培训对于确保机器人不受偏见影响至关重要。
利用正确的机器人构建和开发平台,公司可以使用真实场景测试他们的机器人,以确定它们将如何响应。
例如, Cyara 的Botium 解决方案允许组织使用“人类风格”输入来测试他们的机器人,包括拼写错误、错误、速记、俚语,甚至不同的个性或说话风格。
“这一切都取决于训练数据。” Cyara 数字高级总监 Christoph Börner说。“毫不奇怪,如果这些数据不客观且未经验证,对话式 AI 可能会对您的组织造成危害。”
“请记住,聊天机器人是软件,软件需要测试。Cyara 用我们完整的端到端解决方案填补了这一空白,其中包括我们新的辅助测试数据生成器——它利用生成式 AI 取得了卓越的效果。”
第 4 步:持续监控和优化
使今天的机器人如此有效的原因之一是它们能够随着时间的推移而成长、学习和进化。具有内置机器学习算法的机器人可以根据他们从其他用户那里获取的数据不断扩展他们的知识。虽然这可以逐渐使机器人变得更加高效和强大,但在某些情况下也会为偏见的发展铺平道路。
很难确定机器人在与数千甚至数百万客户交谈后会学到什么。考虑到这一点,公司需要确保他们有一个持续监控机器人性能的策略。
跟踪客户体验指标、关注反馈并确保机器人保持道德是至关重要的。“测试应该超越功能,检查对话式 AI 的其他方面。综合测试对于发现社会和道德问题也至关重要,”Börner 说。
第 5 步:让人类参与循环
最后,机器人技术和自动化在数字领域的兴起引发了无数关于机器人有朝一日如何能够完全取代人类的讨论。
然而,现实情况是,大多数时候,人类无法完全从 CX 领域中移除。仍然需要真人参与培训、测试、开发和管理对话机器人。
至少,在与机器人交互以及查明否则可能被忽视的潜在道德问题时,人类可以发挥极大的作用。
机器人或许能够在未来的 CX 领域完成很多工作,但它们不能完全取代人类——至少现在还不能。
本文为原创稿件,版权归作者所有,如需转载,请注明出处:https://www.nxrte.com/zixun/26524.html