欧洲议会正式通过《人工智能法》,附主要内容概览
前哨按语:当地时间3月13日,欧洲议会正式通过了《人工智能法》,以下是相关情况和内容概要。
当地时间周三,欧洲议会以523票赞成、46票反对、49票弃权通过了具有里程碑意义的《人工智能法》(AI Act),使得欧盟在对这项颠覆性技术的监管方面走在了世界前列,很可能会为整个西方的AI监管规则定下基调。
欧洲议会表示,《人工智能法》旨在保护基本权利、民主、法治和环境可持续性不受高风险人工智能的影响,同时促进创新,使欧洲成为该领域的领导者。该法规根据人工智能的潜在风险和影响程度为人工智能规定了义务。
欧盟内部市场专员蒂埃里·布雷顿表示,《人工智能法》获得了压倒性支持,这是世界上第一个全面、有约束力的可信赖AI框架,欧洲现在是值得信赖的AI标准制定者。
微软、OpenAI等生产强大、复杂和广泛使用的AI模型的公司也将受到披露要求的约束。它还要求所有AI生成的内容(图像、音频或视频等)都要有明确的标签,以解决人们对虚假信息和干预选举的担忧。
接下来,该法案还需要得到欧盟理事会的正式批准,使之成为法律。不过,最艰难的立法阶段已经过去,距离最终出台仅剩一步之遥了。
预计《人工智能法》将于明年初生效,并于2026年正式实施,不过其中一些条款将提前生效。
前哨(公众号cyberlawing)梳理了立法中备受关注的规定,简要概述如下:
禁止的应用
该法禁止某些威胁公民权利的人工智能应用,包括基于敏感特征的生物识别分类系统,以及从互联网或闭路电视录像中无针对性地抓取面部图像以创建面部识别数据库。工作场所和学校的情感识别、社会评分、预测性警务(仅基于对一个人的画像或评估其特征)以及操纵人类行为或利用人们弱点的人工智能也将被禁止。
执法豁免
原则上禁止执法部门使用生物特征识别系统,除非符合详尽列举和狭义界定的情形。“实时”远程生物特征识别只有在满足严格保障的情况下才能使用,例如,其使用在时间和地理范围上受到限制,并事先获得具体的司法或行政授权。这种用途可包括,例如,对失踪人员进行有针对性的搜索或防止恐怖袭击。事后使用此类系统(“事后远程RBI”)被认为是一种高风险用例,需要与刑事犯罪有关的司法授权。
高风险系统的义务
对于其他高风险人工智能系统(由于其对健康、安全、基本权利、环境、民主和法治的重大潜在危害),也规定了明确的义务。高风险人工智能应用的例子包括关键基础设施、教育和职业培训、就业、基本的私人和公共服务(例如,医疗保健、银行业)、执法、移民和边境管理、司法和民主程序(例如,影响选举)中的某些系统。这种系统必须评估和减少风险,保持使用日志,透明和准确,并确保人为监督。公民将有权提交对人工智能系统的投诉,并获得对基于高风险人工智能系统做出的影响其权利的决定的解释。
透明度要求
通用人工智能(GPAI)系统及其所基于的GPAI模型必须满足一定的透明度要求,包括遵守欧盟版权法和发布用于训练的内容的详细摘要。更强大的GPAI模型可能会带来系统性风险,将面临额外的要求,包括进行模型评估,评估和减轻系统性风险,并报告事件。
此外,人造或人工处理的图像、音频或视频内容("深度伪造")需要明确标注。
支持创新和中小企业的措施
必须在国家层面建立监管沙盒和真实世界测试,并向中小企业和初创企业开放,以便在创新性人工智能投放市场之前对其进行开发和训练。