CNIL发布《欧洲人工智能法》适用问答
2024年7月12日,法国数据保护主管机构法国国家信息自由委员会(CNIL)第一时间发布了关于《欧洲人工智能法》(本文简称《人工智能法》)适用的相关问答,促进相关方更加全面理解该法律的适用方法。
一、《人工智能法》的基本情况
1.《人工智能法》有哪些规定?
答:《人工智能法》是世界上第一部关于人工智能的综合立法。人工智能系统可能对健康、安全或基本权利构成风险,《人工智能法》旨在为人工智能系统的开发、分发和使用提供一个框架。
四级风险分类
《人工智能法》遵循基于风险的方法,将人工智能系统分为四个级别:
不可接受的风险:《人工智能法》禁止一系列被认为与欧盟价值观和基本权利相悖的有限做法。
例如:社会评分系统、利用特定个人或者人群脆弱性的系统、使用超越人意识的潜意识系统、在公共空间使用实时远程生物识别系统、针对个人的预测性警务系统、工作场所和教育机构中的情绪识别系统。
高风险:《人工智能法》对于高风险人工智能系统提出特别要求,因为它们可能影响个人的安全或其基本权利,因此其开发需要遵守更高的要求(合格评定、技术文档、风险管理机制)。这些系统包括(1)列在附件一中,已经受到市场特别监督的产品,主要涉及医疗器械、玩具、车辆等特别行业中嵌入的人工智能系统。(2)在附件三中列示的八个特定领域的人工智能系统,例如生物识别系统、用于招聘或用于执法目的的系统、关键信息基础设施中的系统、教育和就业中的系统、公共服务资格管理的系统。
特定的透明度风险:《人工智能法》对人工智能系统施加了特定的透明度义务,特别是在存在明显操纵风险的情况下。例如,使用聊天机器人或生成内容的系统。例如,包括生成合成音频、图像、视频或文本内容的通用人工智能系统的提供者,应确保人工智能系统的输出以机器可读的格式标示,并可被检测为人工生成或篡改。情绪识别系统或生物特征分类系统的部署者应向接触该系统的自然人通报该系统的运作情况。人工智能系统的部署者在生成或操纵构成深度伪造的图像、音频或视频内容时,应披露该内容是人为生成或操纵的。
低风险:对于所有其他人工智能系统,《人工智能法》没有施加特定义务。根据欧盟委员会的说法,目前在欧盟使用或可能在欧盟使用的绝大多数人工智能系统都属于低风险系统。
2.通用人工智能模型的相关规定是什么?
《人工智能法》为“通用人工智能模型”专门构建了一个框架,特别是在生成式人工智能领域。这些模型的定义是它们能够服务于大量任务(例如大型语言模型(LLM,如Mistral AI或OpenAI公司提供的模型),因此很难将它们分类到以前的类别中。
对于通用人工智能,《人工智能法》规定了几个层次的义务,从最低限度的透明度和文件措施(第53条)到深入评估和实施其中一些模式可能需要的系统性风险缓解措施,特别是考虑它们的影响力:重大事故的风险、滥用于发动网络攻击、有害偏见(例如种族或性别)的传播以及对某些人的歧视性影响, 等等(特别见序言第110段的描述)。
二、谁将监督《人工智能法》在欧盟和法国的应用情况?
《人工智能法》规定了两级治理结构
1.欧盟层面的治理结构是什么样的?
欧盟层面设立了欧洲人工智能委员会(第65条和第66条),旨在确保《人工智能法》的一致适用,该机构汇集了来自每个成员国的高级别代表,并汇集了欧洲数据保护监督员(也称为EDPS)作为观察员。欧洲人工智能办公室(欧盟委员会新成立的机构)也参与其中,但没有投票权。
此外,《人工智能法》还引入了另外两个机构,旨在为欧盟人工智能委员会的决策提供信息:
咨询论坛(一个多利益攸关方机构,可就欧洲人工智能委员会和欧盟委员会执行任务提供建议);
一个由独立专家组成的科学小组(高级科学家将支持欧盟人工智能办公室监管通用人工智能模型的工作,同时也可以支持各成员国当局的执法活动)。
此外,欧洲人工智能办公室负责监督通用人工智能模型,这些通用人工智能模型的开发者组织同时也提供衍生系统和模型时,这些人工智能系统和模型也由欧洲人工智能办公室监管。欧洲人工智能办公室和各个成员国市场监督机构分别对高风险通用人工智能系统具有监管的职能。
2.国家一级的治理结构是什么样的?
《人工智能法》规定,每个成员国可以指定一个或多个部门承担人工智能系统的安全监督职能。每个成员国必须在一年内组织形成正确实施《欧洲人工智能法》的治理结构。如果在同一成员国内指定了几个部门承担管理职能,必须从中选择一个作为国家联络点,以便于与欧盟机构和公众进行联系。
《人工智能法》没有规定各成员国人工智能主管部门的性质,但以下情况除外:
欧洲数据保护监督员 (EDPS),被明确指定为欧盟组成机构;
数据保护机构,与大量高风险人工智能系统的市场监督作用有关的数据保护机构(第74条);
既有行业部门的监管,已经受到特定行业监管(列于附件一)的高风险人工智能系统仍将受到目前既有机构(例如法国国家药品和健康产品安全局(ANSM))的监管。
欧洲人工智能法 | 欧洲通用数据保护条例 | |
---|---|---|
主管部门 | 对于人工智能系统:一个或多个负责市场监督的主管机构(由成员国选择) 对于通用 AI 模型:欧洲人工智能办公室 | 每个成员国的数据保护机构 |
欧洲合作 | 欧洲人工智能委员会 行政合作小组(ADCO) | 欧洲数据保护委员会 (EDPB) 一站式服务和一致性机制 |
组织的内部代表 | 没有具体确定的人 | 数据保护官 |
三、CNIL将如何考虑人工智能法案?
CNIL 负责确保人工智能系统和模型能够遵守 GDPR,这是一项基于适用于所有 IT 系统的一般原则的法规。因此,它也适用于为人工智能系统处理或由人工智能系统处理的个人数据,包括当它们受《人工智能法》要求的约束时。
在实践中,CNIL计划依靠这些要求来指导和支持利益相关者遵守《人工智能法》,并通过提出适用规则的综合愿景来遵守GDPR。CNIL认为,这项新法规必须允许参与者更好地了解他们在开发或部署人工智能时的义务。
然而,《人工智能法》也规定了某些被禁止的做法,其中一些已经得到了数据保护机构的批准。例如,CNIL已经可以通过非目标性抓取面部图像(来自互联网或闭路电视录像)来处罚与开发面部识别数据库相关的行为。
如下所述,CNIL仍然完全有能力应用GDPR,例如,适用于主要机构位于法国的通用AI模型或系统的提供商,特别是当他们不受《人工智能法》的实质性要求约束时(法国为Mistral AI或LightOn,爱尔兰为ChatGPT/OpenAI或Google/Gemini)。
在过去的一年里,CNIL启动了一项行动计划,以确保创新型人工智能公司应用GDPR,并促进尊重个人数据权利的人工智能。这包括发布和提交操作方法表,阐明如何将 GDPR 应用于 AI,并提供广泛的建议。CNIL与人工智能领域的公司合作,并支持其中一些公司的创新项目。
四、《人工智能法》何时生效?
《人工智能法》于 2024 年7月12日在官方公报上公布,将于20天后(即 2024 年 8 月1日)生效。然后,将分阶段实施:
2025年2月2日(生效后6个月):
禁止人工智能系统带来不可接受的风险。
2025年8月2日(生效后12个月):
通用 AI 模型的规则应用。
指定成员国一级的主管当局。
2026年8月2日(生效后24个月):
《人工智能法》的所有条款都适用,特别是附件三中关于高风险人工智能系统的规则的适用(生物识别、关键基础设施、教育、就业、获得基本私营和公共服务、执法、移民和边境管制管理、民主进程和司法行政领域的人工智能系统)。
成员国当局部署至少一个人工智能监管沙盒。
2027年8月2日(生效后36个月)
对附件一所列高风险人工智能系统(玩具、无线电设备、体外诊断医疗器械、民航安全、农用车辆等)适用规则。
此外,人工智能法律的实施将高度依赖欧洲层面的“协调标准”,该标准必须准确定义适用于相关人工智能系统的要求。因此,欧盟委员会委托CEN/CENELEC(欧洲官方标准化组织)起草十项标准。自 2024 年1月以来,CNIL 一直积极参与其开发。
五、GDPR 和《人工智能法》如何共同适用?
《人工智能法》是否取代了《通用数据保护条例》的要求?
答:没有。
《人工智能法》并不能取代《通用数据保护条例》的要求。这一点非常清楚。相反,它旨在通过规定开发和部署可信人工智能系统所需的条件来补充它们。
具体而言,GDPR 适用于所有个人数据的处理,即:
在人工智能系统的开发阶段:根据《人工智能法》,人工智能系统或模型的提供者通常被视为GDPR规定的控制者;
在人工智能系统的使用(或部署)阶段:根据《人工智能法》的规定,处理个人数据的人工智能系统的部署者或用户通常要根据GDPR承担责任。
另一方面,《人工智能法》规定了具体要求,这些要求可以大大有助于遵守GDPR的要求。
六、人工智能法/GDPR:我如何知道哪些法规适用于我?
由于《人工智能法》仅适用于人工智能系统和模型,而《通用数据保护条例》适用于任何个人数据处理,因此有四种可能的情况:
仅适用《人工智能法》:对于不需要处理个人数据的高风险人工智能系统的提供者,无论是其开发还是部署,
例如:应用于电厂管理的人工智能系统
仅 GDPR 适用:用于开发或使用不受《人工智能法案》约束的人工智能系统的个人数据的处理就是这种情况,
例如:用于为广告目的分配利益的人工智能系统,或专门为科学研究目的开发的系统
两者都适用:当高风险的人工智能系统需要个人数据进行开发和/或部署时,情况就是如此,
例如:用于自动简历排序的人工智能系统
或者两者都不适用:对于不涉及个人数据处理的风险最小的人工智能系统来说,情况就是如此。
示例:用于视频游戏模拟的 AI 系统
人工智能法下的场景 | 适用GDPR规则的情况 |
---|---|
禁止的 AI 做法 | 系统地,所有涉及个人数据处理的禁止行为。 |
通用AI模型(包括具有系统性风险的模型) | 几乎系统地,通用人工智能模型通常基于使用个人数据进行训练 |
高风险人工智能系统 | 在许多情况下(除了明显的例外,例如用于关键基础设施、农用车辆、电梯等的人工智能系统) |
具有特定透明度风险的人工智能系统 | 在某些情况下,特别是旨在与自然人直接互动的系统 |
七、《人工智能法》对GDPR有何影响?
《人工智能法》和《通用数据保护条例》监管的对象不同,自然也适用不同的方法。
然而,遵守GDPR有助于遵守《人工智能法》。例如,《人工智能法》(附件V)要求人工智能系统的欧盟符合性声明中明确其符合GDPR的要求。
此外,《人工智能法》还解决了某些GDPR要求与其自身要求之间的一些紧张关系。为此,《人工智能法》在某些明确定义的点上扩展并取代了GDPR的要求:
《人工智能法》取代了某些GDPR规则,即执法机构在公共可访问空间中使用实时远程生物识别,这在某些情况下非常有可能(第5条);
在特殊情况下,《人工智能》允许处理敏感数据(在 GDPR 第 9 条的含义内),以检测和纠正可能造成伤害的潜在偏见,如果绝对必要并受到适当的保护措施(第 10 条);
它还允许在其建立的人工智能监管沙箱的背景下复用个人数据,特别是敏感数据。 这些沙盒旨在促进具有重大公共利益的系统(例如改善卫生系统)的发展,并由专门机构监督,该机构必须事先咨询国家委员会,并核实是否符合一些要求(第59条)。
八、透明度和文档:如何将这些 AI 法案要求与 GDPR 的要求联系起来?
《人工智能法》和《通用数据保护条例》有时会从不同的角度处理类似的概念。
例如,透明度原则和文件要求就是这种情况,这表明二者具有互补性。
透明度措施
GDPR 规定了透明度义务,主要包括告知数据处理方式(为什么、由谁处理、如何处理、多长时间等)。这既适用于开发人工智能系统的数据处理,也适用于个人或由个人使用人工智能系统的数据处理(因此会导致个人数据的处理)。
《人工智能法》规定了非常相似的透明度措施,例如用于训练通用人工智能模型的数据(其清单将根据其第53条公开)或旨在与个人互动的系统(第50条)。
文件要求
《人工智能法》还规定,高风险人工智能系统(第11条和第13条)或通用人工智能模型(第53条)的提供者应向其部署者和用户提供技术文件和信息。文件应包括所执行的测试和合格评定程序的详细信息。
《人工智能法》还要求某些高风险人工智能系统的部署者进行基本权利影响评估,即FRIA(第27条,主要涉及公共行为者和受托执行公共服务任务的机构)。
根据 GDPR 进行数据保护影响评估 (DPIA) 的义务完美地补充了 AI 法案的这些要求。事实上,DPIA将被推定为高风险人工智能系统的提供者和部署者所要开展的必备动作,但最重要的是,DPIA将可以作为满足《人工智能法》(第26条)关于高风险人工智能系统义务履行要求的文件。
《人工智能法》还规定,部署者可以依赖提供者已经执行的DPIA进行基本权利影响评估(第27条)。由于共同目标是能够采取一切必要措施,限制可能受人工智能系统影响的人的健康、安全和基本权利的风险,因此这些分析甚至可以以单一文件的形式汇总在一起,以避免过于繁琐的形式主义。
这些只是两项立法之间互补措施的例子,CNIL会继续积极参与欧洲数据保护委员会(EDPB)的工作,研究适用于个人数据保护的规则与目前正在实施的《人工智能法》之间的相互作用。这项工作旨在更清楚地阐明不同法律之间的适用关系,同时增强 CNIL与其欧洲同行之间的统一解释。
总结:《人工智能法》的要求和《通用数据保护条例》有什么区别?
《人工智能法》和《通用数据保护条例》具有很强的相似性和互补性,但它们的范围和方法不同。
《人工智能法》和《通用数据保护条例》主要内容对比表
人工智能法 | 通用数据保护条例 | |
---|---|---|
范围 | 人工智能系统和模型的开发、分发或部署 | 对个人数据的任何处理,无论使用何种技术设备 (包括开发 AI 模型或系统的处理(训练数据),以及使用 AI 系统执行的处理) |
目标参与者 | 主要是人工智能系统的提供者和部署者(在较小程度上是进口者、分发者和授权代表) | 数据控制者和处理者(包括受《人工智能法案》约束的提供者和部署者) |
方法 | 基于风险的方法来判断对健康、安全或基本的影响,通过产品安全和人工智能系统和模型的市场监督 | 基于原则的方法、风险评估和问责制 |
合格评定的主要模式(非详尽无遗) | 内部或第三方合格评定,包括通过风险管理系统和根据协调标准进行 | 问责制原则(内部文件)和合规工具(认证、行为准则) |
主要适用制裁措施 | 产品召回或退出市场 最高3500万欧元或全球年营业额7%的行政罚款 | 正式通知(可能要求处理操作符合要求,暂时或永久限制,包括定期支付罚款) 最高 2000 万欧元或全球年营业额 4% 的行政罚款 |
来源:CNIL官网,清华大学智能法治研究院整理,为了便于理解有增加解释内容。