其他
编者按关于AI与标准化工作,本公号发表的文章:关于生成式AI安全标准化需求的两点想法今天,和大家分享一篇学习笔记,关于欧盟AI法案与标准化的关系欧盟的人工智能法案为在欧洲的人工智能系统的开发和应用建立了一个以风险为基础的监管架构。在这个法案中,欧盟委员会可以要求欧洲标准化组织制定支持“安全可信”人工智能的欧洲标准。各欧洲标准化组织(简称“ESOs”)负责在欧盟内制定欧洲标准。这些标准在协调实践和确保成员国间的一致性方面发挥着至关重要的作用。ESOs有三个:欧洲标准化委员会(简称“CEN”)、欧洲电工标准化委员会(简称“CENELEC”)和欧洲电信标准化协会(简称“ETSI”)。ESOs的目标是促进欧盟内的协调,独特地将标准制定与填补现有或潜在的欧盟法律空白相结合。这样,标准化为欧盟带来许多好处,如巩固单一市场、加强竞争和促进跨境贸易,最终增强经济实力。经由欧盟法规(1025/2012)在2013年认可和正式化,ESOs在标准化领域占有特殊地位。实际上,约30%的ESO标准是由欧盟委员会本身委托的。在这种情况下,默认存在“符合性假设”。换句话说,当一个组织、机构或政府遵循由欧盟委员会委托制定的自愿性标准时,他们也被认为符合该标准旨在支撑或补充的欧盟层面立法。2023年5月22日,欧盟委员会发布了一项针对CEN和CENELEC的标准化请求,以支持即将到来的AIA(简称“标准化请求”)。欧盟委员会要求CEN和CENELEC起草新的欧洲标准(简称“欧洲标准”)或欧洲标准化成果(简称“成果”)。CEN和CENELEC需要开发涵盖以下领域的欧洲标准和成果(统称为“ESDs”)。如欧盟委员会发布的标准化请求附件II所述,需要在以下“关键技术领域”制定标准,以支持欧盟人工智能法案:AI系统的风险管理体系:这些ESDs将规定AI系统风险管理体系的要求。目标是在AI系统的生命周期中建立一个持续的迭代过程,以预防或减少对健康、安全或基本权利的风险。构建AI系统时使用的数据集的治理和质量:这些ESDs将包括适当的数据治理和数据管理程序的规范,供AI系统提供商实施。它们将关注数据生成和收集、数据准备操作、解决偏见以及确保用于训练、验证和测试AI系统的数据集质量。AI系统的记录保持能力:这些ESDs将定义AI系统自动记录事件的规范。目标是在系统的生命周期中实现可追溯性,监控操作,并促进提供商的市场后监控。向AI系统用户提供透明度和信息:这些ESDs将提供设计和开发解决方案的规范,以确保AI系统操作的透明度,使用户能够理解系统的输出并适当使用。它们还将包括使用说明,包括系统能力和局限性以及维护和护理措施。AI系统的人类监督:这些ESDs将规定对AI系统的人类监督的措施和程序。提供商将被要求在市场投放或投入使用之前确定并构建这些措施。用户也应能够实施适当的监督措施。AI系统的准确性规范:这些ESDs将概述确保AI系统适当准确性水平的规范。提供商将能够声明相关的准确性指标和水平,并将定义适当的工具和指标来根据定义的水平衡量准确性。AI系统的鲁棒性规范:这些ESDs将制定AI系统鲁棒性的规范,考虑到错误、故障、不一致和与环境的互动等来源。它们还将考虑在部署后继续学习的AI系统。AI系统的网络安全规范:这些ESDs将提供合适的组织和技术解决方案,以确保AI系统能够抵御试图通过利用AI系统的漏洞来改变其使用、行为、性能或破坏其安全属性的恶意第三方。质量管理体系:这些ESDs将为AI系统的提供商起草,以在其组织内实施,特别考虑中小型组织。