速递|欧盟人工智能法案现已生效
图片来源:Unsplash
官方:欧盟基于风险的人工智能应用法规已于 2024 年 8 月 1 日星期四生效。
这开启了一系列交错的合规截止日期,法律将适用于不同类型的人工智能开发者和应用。大多数条款将在 2026 年年中完全适用。但第一个截止日期将在短短 6 个月后生效,该期限将禁止在特定情况下使用少量被禁止的人工智能,例如执法部门在公共场所使用远程生物识别技术。
根据集团的方法,大多数人工智能应用都被认为是低风险/无风险的,因此它们根本不会被纳入监管范围。
人工智能的一部分潜在用途被归类为高风险,如生物识别和面部识别、基于人工智能的医疗软件或用于教育和就业等领域的人工智能。其开发者需要确保遵守风险和质量管理义务,包括进行上市前合格性评估--并有可能接受监管审计。公共部门或其供应商使用的高风险系统也必须在欧盟数据库中注册。
第三个 "有限风险 "等级适用于人工智能技术,如聊天机器人或可用于制造深度伪造的工具。这些技术必须满足一定的透明度要求,以确保用户不受欺骗。
处罚也分等级,对违反禁止人工智能应用规定的罚款最高可达全球年营业额的 7%;对违反其他义务的罚款最高可达 3%;对向监管机构提供错误信息的罚款最高可达 1.5%。
该法律的另一个重要部分适用于所谓的通用人工智能(GPAI)开发者。欧盟再次采取了基于风险的方法,大多数通用人工智能开发者面临的透明度要求较低,但他们需要提供训练数据摘要,并承诺制定政策以确保尊重版权规则等。
预计只有一部分最强大的模型也将承担风险评估和缓解措施。目前,这些有可能引发系统性风险的 GPAI 被定义为使用 超过 10^25 FLOPs 的总计算能力训练出来的模型。
虽然《人工智能法》一般规则的执行权下放给了成员国一级的机构,但《政府采购协定》的规则是在欧盟一级执行的。
GPAI 开发人员究竟需要做些什么来遵守《人工智能法》,目前仍在讨论之中,因为实践规范尚未制定。本周早些时候,作为战略监督和人工智能生态系统建设机构的人工智能办公室启动了一项咨询活动,呼吁人们参与到这一规则制定过程中来,并表示预计将于 2025 年 4 月最终确定这些守则。
作为 ChatGPT 所依赖的 GPT 大型语言模型的制造商,OpenAI 在其上月底发布的人工智能法案入门指南中写道,预计将 "在未来几个月新法律实施过程中,与欧盟人工智能办公室和其他相关机构密切合作"。这包括为其 GPAI 模型的下游提供商和部署商编制技术文档和其他指南。
"如果您的组织正试图确定如何遵守《人工智能法》,您应该首先尝试对范围内的任何人工智能系统进行分类。确定您使用了哪些 GPAI 和其他人工智能系统,确定它们是如何分类的,并考虑从您的使用案例中产生了哪些义务,"OpenAI 补充道,并向人工智能开发人员提供了一些自己的合规指导。"您还应该确定,对于范围内的任何人工智能系统,您是提供者还是部署者。这些问题可能很复杂,所以如果您有问题,应该咨询法律顾问。
该法案对高风险人工智能系统的确切要求也在制定过程中,因为欧洲标准机构正在参与制定这些规定。
欧盟委员会要求各标准制定机构在 2025 年 4 月之前完成这项工作,之后将对它们制定的标准进行评估。然后,这些标准需要得到欧盟的认可,才能对开发者生效。
-----------END-----------