欧洲议会在规则草案首次提出近三年后,批准了规范人工智能的全面立法。官方于 12 月就人工智能发展达成了协议。本周三,议会成员以 523 票赞成、46 票反对和 49 票弃权通过了《人工智能法》。
欧盟表示,该法规旨在 “保护基本权利、民主、法治和环境可持续性免受高风险人工智能的影响,同时促进创新并将欧洲打造成为该领域的领导者”。该法案根据潜在风险和影响界定了人工智能应用的义务。
该立法尚未成为法律。它仍需经过律师-语言学家的检查,同时欧洲理事会也需要正式执行。但《人工智能法》很可能在立法机构结束前生效,也就是在 6 月初的下一次议会选举之前。
大部分条款将在《人工智能法》成为法律 24 个月后生效,但禁止应用的禁令将在 6 个月后适用。欧盟正在禁止其认为会威胁公民权利的做法。”基于敏感特征的生物识别分类系统 “将被取缔,从闭路电视录像和网络中 “无针对性地获取 “人脸图像以创建人脸识别数据库也将被取缔。清景人工智能公司的活动就属于这一类。
其他将被禁止的应用包括社交评分;学校和工作场所的情绪识别;以及 “操纵人类行为或利用人们弱点的人工智能”。预测性警务的某些方面将被禁止,即完全基于评估某人的特征(如推断其性取向或政治观点)或对其进行特征分析。虽然《人工智能法》大体上禁止执法部门使用生物识别系统,但在某些情况下,如帮助寻找失踪人员或防止恐怖袭击,经事先授权,允许使用生物识别系统。
被认为是高风险的应用,包括在执法和医疗保健领域使用人工智能,都有一定的条件限制。它们不得存在歧视,并且需要遵守隐私规则。开发者还必须向用户证明系统的透明性、安全性和可解释性。至于欧盟认为风险较低的人工智能系统(如垃圾邮件过滤器),开发者仍需告知用户他们正在与人工智能生成的内容进行交互。
在人工智能生成和操纵媒体方面,法律也有一些规定。Deepfakes 和其他任何人工智能生成的图像、视频和音频都需要明确标注。人工智能模型也必须尊重版权法。《人工智能法》的文本中写道:”权利人可以选择保留对其作品或其他主题的权利,以防止文本和数据挖掘,除非是出于科学研究的目的。”在以适当方式明确保留选择退出权的情况下,通用人工智能模型的提供者如果想对此类作品进行文本和数据挖掘,需要获得权利人的授权。” 不过,纯粹为研究、开发和原型设计而建立的人工智能模型可以免责。
根据规则,最强大的通用型和生成型人工智能模型(使用超过 10^25 FLOPs 的总计算能力进行训练的模型)被视为具有系统性风险。这一门槛可能会随着时间的推移而调整,但 OpenAI 的 GPT-4 和 DeepMind 的 Gemini 被认为属于这一类别。
这些模型的提供者必须评估和降低风险,报告严重事故,提供系统能耗的详细信息,确保符合网络安全标准,并进行最先进的测试和模型评估。
与欧盟其他针对科技的法规一样,违反《人工智能法》规定的处罚也可能非常严厉。违反规定的公司将被处以最高 3500 万美元(约合人民币 5160 万元)的罚款,或最高相当于其全球年利润 7% 的罚款,以较高者为准。
人工智能法适用于在欧盟运营的任何模式,因此总部设在美国的人工智能供应商至少在欧洲需要遵守这些规定。OpenAI 创始人、OpenAI 首席执行官山姆-阿尔特曼(Sam Altman)去年 5 月曾表示,如果《人工智能法》成为法律,他的公司可能会撤出欧洲,但后来又表示公司没有这样的计划。
为了执行这项法律,每个成员国都将建立自己的人工智能监督机构,欧盟委员会也将成立人工智能办公室。该办公室将制定评估模型和监控通用模型风险的方法。被认为存在系统性风险的通用模型供应商将被要求与该办公室合作制定行为准则。
版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。