AI发展里程碑:欧盟《人工智能法案》要点解读
以下文章来源于中伦视界 ,作者刘相文 丁海东
当地时间2024年3月13日,欧洲议会在法国斯特拉斯堡以523票赞成、46票反对和49票弃权的压倒性多数通过了世界上第一个全面的人工智能法律框架——欧盟《人工智能法案》(下称“法案”)。法案预计将在今年5月生效,相关条款分阶段实施。法案不仅对在欧盟运营的公司至关重要,而且由于该法案的域外效力,对非欧盟公司也将产生深远影响。
— 1 —
法案的立法目的
法案由欧盟委员会于2021年4月21日正式提出,历时近3年终于通过,旨在改善欧盟内部市场,促进以人为本、值得信赖的人工智能的应用,同时高度保护健康、安全、以及《欧盟基本权利宪章》规定的基本权利(包括民主、法治和环境保护),使其免受人工智能带来的不利影响,并支持创新。
法案为整个人工智能产业链上的相关方提供了一个合规义务框架,以规范人工智能的开发和使用。与欧盟《通用数据保护条例》(GDPR)一样,欧盟正通过其先发优势,寻求为人工智能监管制定全球标准。
—2 —
法案的主要内容
法案共计13章、113条,包括以下7个方面的内容:(1)人工智能系统(AI System)在欧盟市场上的投放、服务和使用的统一规则;(2)禁止某些人工智能行为;(3)对高风险人工智能系统的具体要求以及此类系统运营商的义务;(4)某些人工智能系统的统一透明度规则;(5)通用人工智能模型投放市场的统一规则;(6)关于市场监测、市场监督治理和执法的规则;(7)支持创新的措施,特别关注包括初创企业在内的中小企业。
我们将针对法案的适用范围、人工智能系统风险分级管理、通用人工智能模型管理、执法与处罚、法案的生效与实施5项重要内容进行详细阐述。
▎ 欧盟《人工智能法案》的章节目录
(一)法案的适用范围
法案适用主体广泛,旨在规范整个人工智能产业链的主体,包括与欧盟市场有连接点的人工智能系统提供商(providers)、使用商(deployers)、进口商(importers)、分销商(distributors)和产品制造商(product manufacturers)。
“人工智能系统”是指一种基于机器而以不同程度的自主性运行、在使用后可能表现出适应性的系统,且基于明确或隐含的目标,该系统从其接收的输入中推断出如何生成可能会影响物理或虚拟环境的输出,如预测、内容、建议或决策。该定义的关键词在于“推断”和“自主”,这两个关键词将人工智能系统与任何其他通过严格算法预先确定输出的软件明确区分。这一定义遵循了经济合作与发展组织(OECD)的相关定义,以确保其适用范围不仅足以预见未来的技术进步,而且还能确保进行简单自动计算的传统软件不在该法案的规制范畴。
▎ 欧盟《人工智能法案》的适用主体
当然,法案也规定了一些适用的例外情形,包括但不限于(1)法案不适用于仅为科学研究和开发目的而专门开发和投入使用的人工智能系统或人工智能模型及其输出;(2)法案不适用于在纯粹个人非专业活动中使用人工智能系统的自然人;(3)法案不适用于专门为军事、国防或国家安全目的而投放市场、投入使用的人工智能系统,无论开展这些活动的实体属于何种类型。
法案具有广泛的域外适用效力,因此,不少中国企业也在其适用范围之内,应予以关注。
(二)人工智能系统风险分级管理
法案基于人工智能系统对用户和社会的潜在影响程度将其分为4类:不可接受风险类、高风险类、有限风险类、最小风险类。[1]每个类别适用不同程度的监管要求。高风险的人工智能系统须遵守更严格的合规要求,而构成不可接受风险的人工智能系统则被禁止。多数人工智能系统属于风险较低的类别,但仍可能需要根据法案要求履行相应义务。
▎ 欧盟《人工智能法案》划分的人工智能系统风险等级
1. 不可接受风险类人工智能系统
法案严格禁止某些人工智能行为。从广义上讲,该法案禁止任何试图操纵人类行为、利用人性弱点或支持政府社会评分的人工智能系统。具体而言,以下人工智能系统将被禁止:
(1)使用潜意识的、操纵性的、或欺骗性的手段来扭曲行为,损害知情决策的能力,造成重大伤害;
(2)利用与年龄、残疾或社会经济状况有关的弱点来扭曲行为,造成重大伤害;
(3)推断敏感属性(种族、政治观点、工会会员身份、宗教或哲学信仰、性生活或性取向)的生物识别分类系统,但合法获取的生物识别数据集的标记或过滤,以及执法部门对生物识别数据进行分类的情况除外;
(4)社会评分,即根据社会行为或个人特征对个人或群体进行评估或分类,从而对这些人造成不利或不利待遇;
(5)仅根据特征分析或个性特征评估个人实施刑事犯罪的风险,除非是根据与犯罪活动直接相关的客观的、可核实的事实来加强人工评估;
(6)通过无针对性地从互联网或闭路电视录像中抓取面部图像来编制面部识别数据库;
(7)在工作场所或教育机构进行情绪识别,除非出于医疗或安全原因;
(8)在公共场所为执法部门进行“实时”远程生物识别(RBI),但以下情况除外:
寻找失踪人员、绑架受害者和被贩卖或遭受性剥削的人;
防止对生命的重大和紧迫威胁,或可预见的恐怖袭击;或
识别严重犯罪(如谋杀、强奸、武装抢劫、毒品和非法武器贩运、有组织犯罪和环境犯罪等)的嫌疑人。
2. 高风险类人工智能系统
高风险类的人工智能系统被认为对健康、安全、基本权利和法治构成重大威胁。法案规定的大部分义务适用于高风险的人工智能系统。这类系统可以进一步分为两类。一类是人工智能系统作为安全部件的产品或人工智能系统本身作为产品,受欧盟安全立法规范,且需要根据此类法律进行第三方符合性评估。另一类是法案附件III(Annex III)明确指定为高风险的人工智能系统,包括用于以下领域的人工智能系统:
(1)用于未被禁止的生物识别系统,包括推断受保护特征的系统、情感识别系统和远程生物识别系统(不包括对个人的生物识别验证);
(2)用于管理关键基础设施;
(3)用于教育和职业培训;
(4)用于就业、员工管理和自营职业机会;
(5)用于获得和享受基本私人服务以及基本公共服务和福利,如医疗保健或信贷(但用于金融检测欺诈的除外);
(6)用于执法;
(7)用于移民、庇护和边境管制管理;
(8)用于司法和民主进程。
如果人工智能系统不会对自然人的健康、安全或基本权利造成重大损害风险,包括不会对决策结果产生实质性影响,则不会被视为高风险系统。在将属于附件III但被视为非高风险的人工智能系统投放市场之前,提供商必须将其风险评估记录在案,并在欧盟数据库中注册该系统。前述评估应考虑到可能造成伤害的严重性及其发生的概率。如果人工智能系统符合某些情况,例如,如果该系统只是为了执行狭义的程序任务或改善先前完成的人类活动的结果,则该系统可能不会被认定为高风险系统。然而,如果人工智能系统会对自然人进行特征分析,则该系统始终会被认定为高风险系统。
所有使用高风险人工智能系统的企业都必须履行广泛的义务,包括满足有关透明度、数据质量、记录保存、人工监督和稳健性的具体要求。在进入市场之前,它们还必须接受符合性评估(Conformity Assessments),以证明它们满足法案的要求。公民将有权提交有关人工智能系统的投诉,并获得对基于高风险人工智能系统、影响其权利的决定的解释。
▎ 高风险人工智能系统投放市场应履行的步骤
3. 有限风险类人工智能系统
有限风险类人工智能系统被认为不会构成任何严重威胁,与其相关的主要风险是缺乏透明度。法案对有限风险类人工智能系统施加了一定的透明度义务,以确保所有人类用户在与人工智能系统互动时都能充分了解相关情况。例如,在使用聊天机器人等人工智能系统时,应让人类意识到他们正在与一台机器进行交互,以便他们在知情的情况下决定是否继续。提供商还必须确保人工智能生成的内容是可识别的。此外,人工智能生成的文本在发布时必须标明是人工生成的,这也适用于构成深度伪造的音频和视频内容。
4. 最小风险类人工智能系统
法案允许自由使用最小风险类的人工智能系统,包括人工智能电子游戏或垃圾邮件过滤器等应用。欧盟目前使用的绝大多数人工智能系统都属于这一类。
(三)通用人工智能模型的管理
根据法案,通用人工智能模型是一个包括使用大量数据进行大规模自我监督训练的人工智能模型。该模型具有显著的通用性,无论以何种方式投放市场,都能胜任各种不同的任务,并可集成到各种下游系统或应用中,但在投放市场前用于研究、开发或原型设计活动的人工智能模型除外。法案将通用人工智能模型分为不具有系统性风险的通用人工智能模型和具有系统性风险的通用人工智能模型。如果通用人工智能模型具有高度影响能力或被欧盟委员会认定为具有高度影响能力,则被视为构成系统性风险。当一个通用人工智能模型用于训练的累计计算量(以FLOPs计)大于10^25时,应推定其具有高度影响能力。
1. 不具有系统性风险的通用人工智能模型
越来越多的通用人工智能模型正在成为人工智能系统的组成部分,这些模型可以执行和适应无数不同的任务。虽然通用人工智能模型可以实现更好、更强大的人工智能解决方案,但人类很难监控其所有能力。因此,法案为所有通用人工智能模型引入了透明度义务,以便更好地了解这些模型。
具体而言,不具有系统性风险的通用人工智能模型提供商应履行的义务包括但不限于:
(1)编制并不断更新该模型的技术文件,包括其训练和测试过程以及评估结果,以便应要求向欧盟人工智能办公室和国家主管当局提供;
(2)为打算将通用人工智能模型纳入其人工智能系统的提供商编制、不断更新和提供信息和文件;
(3)制定遵守欧盟版权法的政策;
(4)根据欧盟人工智能办公室提供的模板,就通用人工智能模型训练所使用的内容起草并公布一份足够详细的摘要。
2. 具有系统性风险的通用人工智能模型
除应履行上述义务外,具有系统性风险的通用人工智能模型的提供商应履行额外的风险管理义务,包括但不限于:
(1)根据反映最新技术的标准化协议和工具进行模型评估,包括对模型进行对抗测试并记录在案,以识别和降低系统性风险;
(2)评估并降低欧盟层面可能存在的系统性风险,包括因开发、投放市场、或使用具有系统性风险的通用人工智能模型而产生的系统性风险的来源;
(3)跟踪、记录并及时向欧盟人工智能办公室报告,并酌情向国家主管机构报告严重事故的相关信息以及为解决这些问题可能采取的纠正措施;
(4)确保对具有系统风险的通用人工智能模型和模型的物理基础设施提供适当水平的网络安全保护。
(四)执法与处罚
欧盟人工智能办公室成立于2024年2月,隶属于欧盟委员会,负责监督法案在各成员国的执行和实施情况。由成员国代表组成的欧洲人工智能委员会将作为协调平台,向欧盟委员会提供专业建议。法案将主要通过各成员国的主管机构来执行。成员国有义务在法案实施1年内向欧盟委员会提名相关国家主管机构,以便在每个成员国执行法案。
违反法案的处罚结果将取决于人工智能系统的类型、公司的规模和违法行为的严重程度,具体处罚规定如下:
(五)法案的生效和实施
法案将在欧盟官方公报公布20天后生效,并在生效2年后全面实施,但以下情况除外:
1. 有关总则、禁止性人工智能系统的规定(法案第一、二章),在法案生效之日起6个月实施;
2. 有关通知机构和被通知机构、治理、通用人工智能模型、处罚的规定(法案第三章第四节,第五、七、十二章,除第101条),在法案生效之日起12个月实施;
3. 有关某些高风险人工智能系统分类及相应义务的规定(法案第六条),在法案生效之日起36个月实施。
—3 —
结语
在人工智能蓬勃发展的当下,越来越多的人开始意识到自动化算法将直接影响他们的生活。在人工智能带给人类极大便利的同时,人们也在思考如何更合理地利用人工智能造福人类,并不断探寻规范使用和发展人工智能之道。欧盟《人工智能法案》树立了人类规范人工智能的典范,在人工智能发展史上具有里程碑意义。
可以预见,在不久的将来,我们将迎来全球人工智能立法的热潮、执法的趋严,中国企业需要把握全球人工智能监管的脉搏,未雨绸缪,迎接新的人工智能时代。
注释
[注]
[1] 这种分类方法类似于GDPR基于风险的数据处理方法。
本文转载自 中伦视界
作者:刘相文、丁海东
*文章仅为作者观点,未必代表法嘉LAWPLUS立场,插图来源于网络,仅作学习交流使用。如涉及侵权问题,请及时联系我们删除。
热门课程
【招生简章】卓越法务与合规精英班招生简章
企业VIP法商内训定制服务
资质认证 | IAPP隐私保护人员认证培训
热门文章
律师转法务,这条路好走吗?
“我都是为了你好呀”,真是听够了!
以“国家安全”之名:美国政府如何限制敏感数据流向中国?