在 8 月 2 日至 3 日于加利福尼亚州帕洛阿尔托举行的 Zoom 分析师活动上,该公司介绍了如何计划在其产品组合(从 Zoom 会议、电话、聊天和联络中心到开发者平台)中采用人工智能(AI)。此后,该公司因其人工智能应用服务条款中的一些内容而饱受批评,但我们相信,Zoom 在开发人工智能主导的创新产品时,已经采取了负责任的行动,而且没有损害信任和透明度。
Zoom 正在采用联合的 AI 方法
多家供应商已开始将人工智能集成到各种统一通信与协作(UC&C)和联络中心应用中。人工智能在统一通信与协作(UC&C)中应用的优势和问题是多方面的。
UC&C 不仅仅是一个典型的业务应用程序;它是组织运作的基础。通过消息传递、会议和呼叫应用程序实现的员工沟通和协作对于完成任务至关重要。同样,联络中心应用程序对于组织与客户交互至关重要。这些服务生成属于企业客户的有价值且通常敏感的数据。然而,组织必须利用人工智能从这些数据中收集有价值的见解。虽然一些企业可能会考虑在内部开发人工智能模型,但事实证明,与此类努力相关的成本对于大多数组织来说都令人望而却步,导致许多企业选择第三方人工智能模型。Zoom 的客户可能更喜欢使用 Zoom 的人工智能算法来保持竞争力,
在分析师活动期间,Zoom 强调其打算采用联合方法通过人工智能功能增强其产品。这需要整合各种人工智能模型,包括由 Zoom 开发的专有模型、来自领先人工智能实体(例如 OpenAI)的模型,以及来自 Zoom 合作伙伴(例如 Anthropic、Meta 和精选客户)的模型。
该公司的联合方法使 Zoom 能够快速集成 OpenAI 等解决方案中的人工智能功能,同时使用其模型对其进行完善和扩展。这种灵活性对 Zoom 有利有几个原因,因为该公司可以:
- 迅速推出新的解决方案。
- 降低总体研究成本。
- 将节省的成本转嫁给客户。
- 定制解决方案以满足特定客户的独特需求。
- 提供针对特定行业量身定制的人工智能解决方案。
- 快速定制人工智能模型以适应不同的业务需求。
虽然合并 OpenAI 对 Zoom 来说是一个轻松的举措,但问题仍然存在:该公司将如何培养自己的人工智能能力?
Zoom 的任何人工智能驱动创新要取得成果,都需要三个基本组成部分:算法、硬件和训练数据。Zoom 拥有雄厚的财务实力,使其能够投资硬件开发并创建引人注目的算法。然而,最关键的元素是训练数据,它构成了构建可信人工智能模型的核心。训练数据由指示人工智能模型或机器学习算法做出准确决策的标记信息组成。
为了说明这一点,设想 Zoom 开发一种人工智能功能,用于识别和标记会议室中的个人。在这种情况下,模型必须分析在员工会议和其他互动期间捕获的无数小时的语音录音。该模型必须能够熟练地将会议参与者与背景噪音和不同的口音区分开来。同样,如果制作了会议摘要工具,则需要包含视频通话记录、会议中聊天数据、反应、表情符号、白板应用程序输入以及 Zoom 会议中第三方工具使用情况的培训数据。会议元数据,例如类型、时间、地点和参与者人数也至关重要。
Zoom 仍然是市场上最受欢迎的统一通信即服务 (UCaaS) 供应商之一,因此可以访问这些数据集。但它有权利使用它吗?未经客户同意并非如此,因为存在与欧洲通用数据保护条例 (GDPR) 和美国一些州隐私法(例如加州消费者隐私法 (CCPA))相关的潜在问题。共享这些敏感数据点可能会影响客户的数据隐私。如果企业同意与 Zoom 共享任何员工、客户或合作伙伴相关信息,则供应商的服务条款 (ToS) 规定它将使用该信息来训练其模型。客户有权提出以下问题,以确保 Zoom 保护他们的数据隐私:
- 采取了哪些安全和隐私措施?
- 过去收集的数据会发生什么?
- 是否会持续收集数据?
- 数据会匿名吗?
- 这些记录是单独保存还是在所有 Zoom 客户中合并保存?
大多数客户认识到,使用人工智能功能可以提高员工的工作效率并提供竞争优势。鉴于这些功能的重要性,企业可能愿意参与研究并允许 Zoom 以合乎道德的方式使用其数据进行模型训练。尽管如此,企业在与 Zoom 共享个人信息(例如员工录音、照片、视频、视频会议记录、文字交流、文件等)之前,必须保证获得员工的批准。
每个企业都会采取不同的方法来处理员工的担忧。目前,只有企业管理员可以根据 Zoom 的服务条款表示同意,最终用户除了选择不参加会议之外几乎无法控制该流程。
开放和信任对 Zoom 意味着什么?
Zoom 致力于维护人工智能透明度,再次强调其在产品开发和持续使用过程中考虑道德和法律因素的承诺。在 Zoom 分析师活动中,该公司特别表示,未经明确同意,不会使用客户音频、视频或聊天内容来训练其模型。
由于 Zoom 迎合不同的客户,从个人免费用户到跨越医疗保健、政府、教育和金融服务等各个领域的大型企业,因此对所有账户保持透明符合公司的最佳利益。在许多行业中,Zoom 提供额外的合规性,例如:
- 服务组织控制 (SOC) 2 类型 II
- CSA 安全信任保证和风险 (STAR) 2 级认证
- ISO/IEC 27001:2013
- 国际隐私专业人士协会 (IAPP) 银牌会员
- 通用标准
- 英国Cyber Essentials, Cyber Essentials Plus
- 通用数据保护条例(GDPR)
- 日本金融业信息系统中心 (FISC)
- FedRAMP Moderate
- Department of Defense (DoD) IL2
- 健康保险流通与责任法案 (HIPAA)
- 个人信息保护和电子文件法/个人健康信息保护法 (PIPEDA/PHIPA)
- 家庭教育权利和隐私法 (FERPA)
Zoom 通过两种基本方法拥抱人工智能和透明度:
- Zoom允许所有账户持有者选择是否使用AI功能和共享数据。该公司已经建立了有效的同意流程,帐户管理员必须审查和检查才能共享数据。此控制扩展到特定的产品功能,例如会议、消息传递和呼叫。例如,Zoom 为敏感对话提供端到端加密 (E2EE)。E2EE 通过关闭主持人之前加入、云录制等功能来增强安全性,从而保护会议内容。对于支持 E2EE 的通话,Zoom 在通话期间或通话后都无法访问数据。此外,如果客户选择录音和转录等增值服务,他们就默认同意与 Zoom 共享数据。没有供应商可以提供无需访问用户数据即可提供增值服务。缩放在这里没有什么不同。
- Zoom 使用来自其平台的遥测和诊断数据来战略性地训练其人工智能算法。这些数据包含集体信息,包括每日会议总数、平均参与者人数、安全问题、不同地区和部门的使用模式以及白板、录音或数据中心流量等功能利用率。匿名数据为 Zoom 平台的分析、诊断和使用模式提供了宝贵的见解,这些见解使公司能够提高其可用性、可靠性和安全性。
最近几天,媒体对 Zoom 于 2023 年 3 月实施的更新条款 (ToC) 的关注越来越多。人们对 Zoom ToC 修订背后的理由提出质疑。8 月 7 日,Zoom 首席产品官 Smita Hashim 发表声明,针对ToC 修改进行澄清,并指出,当个人用户加入使用 Zoom 人工智能应用程序之一启用的会话时,他们会收到一条通知告知他们其投入的潜在用途。此外,Zoom首席执行官袁征在LinkedIn上分享了这些澄清旨在解释 Zoom 的程序,他引用了与 2023 年 3 月 ToS 更新相关的未具体说明的内部“流程故障”。袁先生承诺将解决这一问题,并重申 Zoom 仍然致力于保护用户隐私,并且在未经适当同意的情况下将始终避免使用任何客户数据。
如果不使用广泛的客户数据集改进算法,任何 UC&C 供应商都无法保证提供一流的人工智能工具包。所有主要 UC&C 参与者都可以访问客户数据;关键方面是他们如何使用数据以及他们对这些信息的透明度。供应商是否与客户沟通并在每个人工智能数据接触点告知他们?Zoom 在保持透明度方面表现得非常坦率,值得称赞。
作者:Prachi Nema
编译自:https://www.nojitter.com/ai-automation/zoom%E2%80%99s-ai-approach-leading-openness-and-accountability
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/30919.html