蔡星月:人工智能的“标准之治”|中法评 · 专论
按语
随着《数据安全法》及《国家新一代人工智能标准体系建设指南》等重要法律及政策的颁布,我国正在针对数据和算法形成全面覆盖“硬法”和“软法”的治理体系,数据与算法治理方面的“中国道路”和“中国方案”已经日渐清晰。
《中国法律评论》2021年第5期专论二“数据安全与算法治理”邀请三位学者北京理工大学洪延青教授、对外经济贸易大学张欣副教授、北京航空航天大学蔡星月助理教授,直面数据安全与算法治理的前沿热点问题展开探讨。具有不同学历背景、实务经历及研究基础的三位作者, 针对这一领域中非常引人关注的两个问题——数据分类分级保护与人工智能技术标准,进行了探索性、开拓性的思考与阐释,内容丰富、观点多元、见解新颖。我们冀望本期专论能对学界与实务界同仁探讨相关议题产生积极的启发作用和参考价值。
蔡星月
北京航空航天大学法学院助理教授
人工智能标准是人工智能治理体系的重要基础,它塑造人工智能的底层架构与基础逻辑,为人工智能注入伦理价值含量,扫清人工智能的技术壁垒与交互障碍,规制人工智能的技术发展与行业应用。人工智能标准作用的发挥须解决标准的目标定位、颗粒度、软硬性等三重难题。应当基于差异化原则确立目标定位、基于必要性原则确定颗粒度要求、基于系列准用性规范构建“软硬法混合治理”的框架,明确人工智能“标准之治”的总体进路。
(一)标准塑造人工智能的底层架构与基础逻辑
(二)标准提升人工智能伦理价值含量
(三)标准扫清人工智能的技术壁垒与交互障碍
(四)标准规制人工智能的技术方式与行业应用
二、人工智能“标准之治”的难题(一)标准的目标定位问题
(二)标准颗粒度问题
(三)标准的“软硬性”问题
三、人工智能“标准之治”的总体进路(一)基于差异化原则确立目标定位
(二)基于必要性原则确定颗粒度要求
(三)基于系列准用性规范构建“软硬法混合治理”的框架
四、结语本文来源为《中国法律评论》2021年第5期专论(第94-103页),原文12000余字,为阅读方便,脚注从略。如需引用,可参阅原文。购刊请戳这里。
在近三百年人类发展大提速过程中,标准扮演了极为重要的角色。在可预见的未来,人工智能必将成为国家发展的主要生产力与核心竞争力。人工智能标准将会成为各国技术与产业竞争的战略要地。2017年10月,国际标准化组织(ISO/IECJTC1)在俄罗斯召开会议,决定新成立人工智能分技术委员会(SC42),负责人工智能标准化工作,拟建立基础标准、计算方法、可信赖性、社会关注四个工作组,并将大数据工作组并入SC42。
2019年2月,时任美国总统特朗普签署了行政令——《保持美国在人工智能领域的领导地位》,要求美国国家标准与技术研究院(NIST)制定关于美国联邦政府参与人工智能相关的标准和工具研发的行动计划。2019年6月,美国政府更新了2016年版《国家人工智能研发战略规划》,发布了《2019年国家人工智能研发战略规划》,其中战略六即“以标准和基准来测量和评估人工智能技术”。2019年8月,美国国家标准与技术研究院发布了《美国在人工智能领域的领导地位:联邦政府参与开发技术标准和相关工具的计划》。该计划旨在“保持美国在人工智能领域领导地位的国际战略”。可见,人工智能标准正在国际社会中日益得到重视,已成为人工智能治理领域中不可忽视的主题。
在人工智能治理领域,技术标准正在形成兼具软硬法特征的“标准之治”,与传统的“规则之治”一起,共同组成智能科技的多元治理体系。迄今为止,技术标准一直处于人工智能治理体系的中心地带,支持着人工智能的全球治理。
然而,人工智能标准体系的完善程度与人工智能本身的发展极不匹配,标准的进化速率明显滞后于人工智能技术的迭代速度,带来人工智能产业野蛮生长、法治价值纠偏延迟和科技伦理规范缺位等问题,难以实现该产业长期良性有序的发展与繁荣。由此,作为底层逻辑框架的技术标准如何与现有法律规范实现有机衔接,确保人工智能实现有效治理与长足发展,成为当下全球人工智能治理面临的重要挑战。
人工智能“标准之治”的理据
“标准之治”是“规则之治”的前端。标准较之于法律规则能更低成本、更高效率地实现规制。对于人工智能产业而言,企业甚至更迫切地渴望标准出台,这对于企业快速进入市场、生产创造更具竞争力的智能产品和服务大有裨益。因此,标准是一种回应企业与市场需求呼唤的规则形态,旨在通过事前治理形塑新兴产业链的发展方向,而法律规则则更倾向于通过事后治理提供必要的行为引导与违法惩治。
(一)标准塑造人工智能的底层架构与基础逻辑
标准具有塑造人工智能技术底层架构与基础逻辑的作用,一定程度上破除了研发者、管理者、应用者之间的技术沟通障碍,消除技术认知分歧,将共识嵌入人工智能程序内部,凝聚成常态化的公共法则。
首先,标准通过界定术语固定人工智能的基础表达。在2020年我国五部委联合印发的《国家新一代人工智能标准体系建设指南》(以下简称《建设指南》)中,建设内容第一部分“基础共性”的第一段便是“术语标准”。术语的标准化帮助人工智能确立通用语言。语言传递的不仅是概念的一致性,更包含背后对概念理解的一致性。人工智能作为新技术形态,在方兴未艾的技术生成与创新期,会涌现出丰富鲜活的新概念、新思想、新表达,它们在促进科学创新与技术进步的同时,也带来表达混乱、理解各异的沟通障碍。比如“智能立法”应界定为以智能增强立法功能还是以立法增强智能功能,会存在截然相反的两种取向。术语的标准化正是化解人工智能技术表达分歧、重建统一规范语言的重要方式。
其次,标准规定着人工智能的支撑技术与产品。在人工智能的支撑技术与产品中,大数据是人工智能的训练资源,物联网是人工智能的外层结构,云计算与边缘计算是人工智能的运行形态,智能传感器等是人工智能的感知途径。这些支撑技术与产品的标准编织起人工智能的核心架构,使人工智能发展得以在与各类新技术有效融通、充分对接的基础上发挥出应有的智能化水平。最后,标准支撑人工智能的基础软硬件平台建设。关于智能芯片、系统软件、开发框架的技术标准形成了人工智能的软硬件基础,承载着精准的、专业的治理方案,确保人工智能的安全性、鲁棒性(Robustness)与可用性等关键性能。
(二)标准提升人工智能伦理价值含量
毋庸置疑,人工智能的创建与应用需要符合人类的伦理规范与价值准则,其最权威的载体应当是法律规范。但法律的制定需要经历复杂的立法程序和漫长的反复斟酌、协商权衡过程。在这之前,标准能够或多或少地替代规则,承担起充实人工智能技术伦理价值内涵的使命。一方面,标准并不局限于技术维度,它具备或隐或显的丰富价值内涵。
例如,欧盟在2019年4月8日发布的《可信人工智能伦理准则》第一部分重点阐述了人工智能在发展、部署、使用过程中必须遵守的价值标准,提出五项关于个人基本权利的价值准则:“一是尊重人的尊严;二是维护个人自由;三是尊重民主、正义与法治;四是促进平等、非歧视与团结;五是保障公民权利。”通过这种方式,欧盟将符合人类发展的价值需求以标准的形式注入人工智能产业内部。
人工智能标准中不仅应包含尽可能有益于人类发展、符合人类社会的价值理想,也需要包含产业发展与技术应用不可突破的科技伦理“底线”。标准中“伦理含量”的多少,体现的是标准对待人与对待机器的重心偏移程度与对人类利益保护的彰显程度。标准的“伦理含量”往往通过人工智能算法设计与运行的基本原则体现。
类似地,欧盟《可信人工智能伦理准则》在五大价值的基础上也提出了四种伦理标准:“第一,人类自治原则。保障人类在使用人工智能时充分、有效的自决权利,确保人类对人工智能系统工作程序的监管。人工智能不应成为不合理的限制、欺骗、操纵人类的工具,而应成为提升和完善人类认知与社交能力的手段。第二,避免伤害原则。要确保人工智能系统以及使用环境的安全可靠,确保人工智能技术的稳健性,防止恶意利用,维护人类尊严,保护其身心健康。第三,公平原则。这既包括在实质公平层面合理分配收益与成本,确保个人与团体不受偏见、歧视和侮辱,也包括在程序公平层面建立对人工智能系统产出成果的合理质询渠道和有效补救措施。第四,可解释性原则。这意味着程序透明,公开相关系统的功能与目的,保障人工智能产出成果的可解释性。”
(三)标准扫清人工智能的技术壁垒与交互障碍
人工智能属于新技术叠加态的高阶形式,新技术构建模式的创新性往往会带来新技术之间缺乏融通的技术壁垒。比如,知识图谱形态的算法模式相较于视觉智能识别模式,存在内在智能构造与运作机理上的巨大差异;即使同一类别的算法,不同人工智能企业开发的程序设计与决策模型也可能迥然不同。如果缺乏沟通介质,那么算法之间要想实现融通与契合,在一定程度上是相当困难的。标准是打通人工智能各技术之间壁垒的渠道,在关键之处扫清多种技术在算法端、数据端和设备端的交互障碍。
以数据为例,数据的交互需要实现不同结构或不同内在组织方式的数据集直接合并互通,这需要依赖通过标准这一工具将此数据集“翻译”转化成另一数据集,达到两者可兼容。“数据标准化可以通过要求数据语义学遵从某些规范和规则,从而减少元数据的不确定性。一个更具体的例子就是标准化的用于信息交换的中国表意文字的点阵字体集合。这一标准使得不同数据集之间通过确保各类数据集中所使用成千上万的汉字的相似性来进行相互连接。”
反之,若缺乏此方面的标准,不仅会妨碍信息沟通与数据共享,还可能引发错误与事故。例如美国“用于研究火星气候的轨道飞行器是在经过数年的准备与数十亿美元投资之后于1998年12月发射的。但在1999年9月,当航天器准备进入火星轨道时,它的轨迹使它离火星太近,并在大气层中发生燃烧。事后分析发现,这一失败是由于在一个数据库中使用了两种不同的标准导致的。具体来说,洛克希德·马丁宇航公司(Lockheed Martin Astronautics)创建的航迹软件以英制单位而不是公司与NASA的合同中指定的公制单位产生输出。这两种不同标准的数据组合导致了轨迹的错误计算。此种情况在人工智能技术与产业发展中同样可能存在,需要未雨绸缪。
由此,我们可以认为,技术标准是一种编码化的知识,可以将技术的某些特性或路径转换为技术规范,进而使得遵守该技术规范的技术使用者能够让产品达到规范的要求,从而满足互联互通、质量保证、信息对称等要求。质言之,标准可以成为实现数据共享、算法交互的基本“换算”方式,通过实现互操作性而发挥统一人工智能技术意义上的不可或缺的价值与功效。
在人工智能领域,“人工智能系统及其组件有一定的复杂性,不同的应用场景涉及的系统及组件不同。系统与系统之间,组件与组件之间的信息交互与共享,需要通过互操作性来保证”,这就要求“不同的智能产品需要有标准化的接口……保证人工智能系统的应用程序接口、服务及数据格式,通过标准和兼容接口,定义可交互的组件、数据和事务模型”。此方面的标准化工作对于人工智能的发展可谓意义深远。
(四)标准规制人工智能的技术方式与行业应用
标准必须内嵌到人工智能的技术生成之中,成为内在技术方式的一部分,才能实现真实有效的标准治理。所以,除了一般意义上的标准原则与价值的指引,人工智能标准必须进入人工智能技术内核,化作技术本身的呈现方式。例如,中国电子技术标准化研究院的《人工智能标准化白皮书》要求“深度学习框架绑定的用户数据,应当通过明确神经网络的数据表示方法和压缩算法,确保数据交换,且不被平台绑定,保障用户对数据拥有的权益”。在信息时代,技术标准早已越来越多地被直接镶嵌到算法和软件之中,在行为规制层面发挥着深远的影响。
人工智能技术内涵丰富,其算法设计思路及具体计算过程各不相同。这就要求人工智能标准分类分项,提供特定场景内与特殊领域中的具体化指南,满足类型各异的人工智能技术各行业的全覆盖应用。标准能够规制各类差异化的技术呈现方式,既有效解决了关键通用技术的一般化、齐一性问题,又充分规范了基于特定场景中的关键领域技术的特殊化类型。《建设指南》将技术标准区分为关键通用技术与关键领域技术。
关键通用技术标准聚焦人工智能通用技术的普适性方案,起到规范各主要人工智能通用技术的基本模型、核心性能与应用场景的作用。例如,机器学习标准规制监督学习、无监督学习、半监督学习、集成学习、深度学习和强化学习等不同类型的模型、训练数据、知识库、表达和评价。知识图谱标准规范知识描述的结构形式、解释过程、知识深度语义的技术要求,解决知识表示粒度、方式的不确定性。类脑智能计算标准规范类脑计算算法基本模型、性能和应用,为人工智能系统提供新的计算架构,提高人工智能处理复杂问题的能力。量子智能计算标准规范量子计算算法基本模型、性能和应用,为提高人工智能计算能力提供支撑,等等。
关键领域技术标准可以强化人工智能技术的场景化治理,注重在更精细维度与更小颗粒度的微观层面处理新兴领域中人工智能技术的合法性与合理性问题,旨在以标准增进人工智能的妥当性。例如,自然语言处理标准解决计算机理解和表达自然语言过程中的数据、分析方法和语义描述的一致性。智能语音标准规范人机语言通信的技术和方法,确保语音识别、语音合成及其应用的准确性、一致性、高效性和可用性。计算机视觉标准解决图片和视频采集、处理、识别、理解和反馈等各环节的互联互通。生物特征识别标准规范计算机利用人体所固有的生理特征或行为特征来进行个人身份鉴定的技术要求。
此外,标准的末梢还可以渗透到各种应用中,应付足够广泛的实际场景,真正对人工智能算法设计与运行的具体操作起指引作用。这些场景包括但不限于智能制造、智能农业、智能交通、智能医疗、智能教育、智能商务、智能能源、智能物流、智能金融、智能家居、智能政务、智能城市、公共安全、智能环保、智能法庭和智能游戏等。这些领域的标准适用,将实质性推动人工智能技术在开源开放的行业生态中不断自我优化,引导行业修订完善与协调配套规制体系,形成标准引领人工智能行业产业全面规范化发展的局面。
人工智能“标准之治”的难题
上述分析表明,标准对于人工智能具有不可替代的价值与功效。然而,标准的价值与功效要在实际应用中得到彰显,现实中还面临几方面的重要挑战。
(一)标准的目标定位问题
标准应当定位于何种目标状态,即标准究竟是要表达某种“最好的”状态或成为描述理想状态的指南,抑或传递某种“最低的”限度要求、作为规范底线状态的准则,还是呈现某种“平均的”、构成判断均质状态的参照?一种观点认为,“标准是人类高速发展的强大推进器与加速器”,人工智能标准能够把“创新思想转变为客观现实”,必须旨在建立“最佳标准体系”,以最佳标准方可引导人工智能技术的不断迭代与创新。
这一观点的理论依据在于标准的自愿性。“标准主要还是取决于能否用其质量说服使用者。标准的制定者明确了标准的自愿性,因为他们无法确保任何人都遵守标准。他们必须让潜在的标准使用者信服如果采用他们的标准就会得到好处。”为了说服使用者,人工智能标准必须表示为人工智能技术的最佳状态,以最优标准激励人工智能效用的最大化。但是,人工智能标准一旦以“最好的标准”呈现,将人为地拔高人工智能技术的普适门槛,使一般普遍性技术规范全部升格为“奥林匹克竞赛级”的水平,不接地气且让大量企业望尘莫及,不利于人工智能技术的推广与扩展。
另一种相反观点认为,人工智能标准只在寻求一种“最低的”底线限度,即人工智能标准就是对人工智能的容忍程度的体现。这一观点强调了人工智能标准的两个功能:一是框定功能。“标准让人可以把世界的各方面都框起来作为备用,当需要的时候就拿出来按其要求去做。”易言之,人工智能标准就是用以框定人工智能技术,使人工智能研发与应用不脱离最低限度的要求。二是过滤功能。“标准是把大部分符合要求的保留,而把相对少数不符合要求的过滤掉。”这意味着人工智能标准主要用于筛选合格人工智能,淘汰人工智能产品中的次品,保障人工智能的底线品质。
以底线作为标准的观点能够抛开理想主义,寻求更为务实的可行方案。比较而言,如果说“上限说”是一种前瞻性的规划方案,那么,“底线说”就是一种框架性的规制方案。“底线说”的问题在于,新兴的人工智能各领域是否都存在底线,是否易于发现并界定这一底线;即使可以界定,若仅仅给出最基本的要求,对人工智能技术发展又会产生多大促进作用,因为“底线”往往意味着代差与迟滞,仅以此为标准,将很可能对人工智能发展产生巨大阻力。
鉴于此,有观点认为,人工智能标准应着眼于确立“平均的”这一“中线”。这一观点的理论基础是,人工智能标准既不是前瞻的规划方案,也不是框定的规制方案,而是重在“匹配问题的解决方案”。人工智能标准必然需要内嵌于人工智能系统之中,与人工智能技术同步同频成长,因此它应该保持与人工智能发展的均速与匀速,所以,人工智能标准必须体现为人工智能发展水平的“中值”。
但问题在于,如何让人工智能标准保持这种“平衡感知”的能力?如何在复杂庞大的人工智能系统中,在完全不同测量单位与评价维度里,平均测量出这一标准颗粒度的“中值”?如何保证所获得的这些“中值”仅仅是技术层面的客观考量值,而不夹杂背后各方商业利益的裹挟与中和?各界对此尚无定论。
(二)标准颗粒度问题
标准的颗粒度问题即标准应多“粗”或多“细”。粗颗粒度的标准可以体现国家法律与政策导向,固定标准固有价值与伦理,勾勒“标准之治”的基本逻辑框架,其意义不容小觑;但宏观标准的颗粒度大,理念层级上的指导原则难以转化为具体问题上的实操准则。例如,美国《人工智能标准计划》规定“标准的制定要适当反映人工智能技术的可行性和社会认可程度”;“实现在全生命周期中对人工智能系统的监管”;“以道德伦理为考量,消除歧视,保护隐私和确保安全可控”。这些表达体现出标准制定的价值导向与一般要求,但缺乏具体的可操作性,过粗的颗粒度阻碍了标准下沉到技术深层结构之中的可能。
微观标准着眼于人工智能运行的细枝末节,以解决实际问题为出发点,强化务实管用的标准效能。微观标准的颗粒度细,实操性强,能够直接清除技术应用上的诸多障碍。但是,过细的标准会扼杀人工智能技术创新的生命力,拘泥于固定标准不利于技术的迭代与创新的延展。而且标准更新速度相对技术发展较为缓慢,难以应对指数级更新、爆发式发展的人工智能技术与业态。如果细颗粒度的标准泛滥,一定程度上可能导致人工智能难以成为一种创建未来的尖端科技。
因此,寻求合适的中间点,平衡可操作性与技术创新的需要,是制定科学的人工智能标准无法回避的问题。目前大多数国家采用的是“由粗到细”的路径,以框架宣言式表达为人工智能“立标”。例如,美国《人工智能标准计划》确立了九大重点领域与十一项重点标准类型,均以一般原则性描述为主,并未下沉到有强针对性的层级。比如,第一大领域“术语与概念”,其标准类型描述为:“统一和使用清晰的语言来定义与人工智能相关的术语和概念,并促进人工智能词汇与术语的统一。”然而,就人工智能诸概念的界定却语焉不详,并无展开,这使上述表达仅仅停留在导向性层面。
相比之下,我国的《信息技术词汇第31部分:人工智能机器学习》(GB/T5271.31-2006)、《信息技术词汇第34部分:人工智能神经网络》(GB/T5271.34-2006)等一系列标准早已对人工智能相关术语进行了详细界定。术语的标准化可以作为人工智能技术标准颗粒精细化程度的晴雨表。然而,“由粗到细”的自上而下路径往往会面临技术共识和可操作性的困难,导致标准的制定和更新较为缓慢。
与此同时,不少人工智能企业正试图通过自我酝酿、自身生长的方式孕育生成某种人工智能标准的既成事实,即尝试探索“由细到粗”的路径。2019年3月,谷歌(Google)成立人工智能伦理委员会;同年1月,脸书(Facebook)投资750万美元在德国慕尼黑工业大学建立道德与人工智能中心,两者均有意开发与制定塑造人工智能的精细化标准。这些头部企业正在通过市场支配性力量与影响力来制定有利于企业自身发展的细化标准,并借机一步步由局部技术标准扩张至行业标准的制定。其中一些企业为了避免自制标准遭受质疑,将任务委托给大学科研机构。而当大学接受一家公司的资助来研究该公司商业模式中的标准时,必然会放弃中立客观的立场而带有利益倾向性。
可见,标准“由细到粗”之路夹杂着背后的商业企图与复杂的经济利益。即便是电气与电子工程师协会(IEEE)之类的著名社会组织所制定的人工智能标准,也很难断定其背后是否必然没有复杂商业利益的推动。本质上,标准作为一种利益分配的工具,涉及复杂的利益关系,尤其是标准专利权人利益和社会公共利益之间的矛盾,在考虑标准颗粒度之时必须对自下而上的精细化操作持慎重的立场。
无论是“由粗到细”还是“由细到粗”,最终都需靠近颗粒度恰到好处的“中点”,这是一种在原则性与灵活性之间保持平衡的技艺,也是“自上而下”的公益性与“自下而上”的自利性相互碰撞角力的结果。平衡点的选择与确定需要发挥法律规范的作用,以“规则之治”明确“标准之治”的颗粒度。
(三)标准的“软硬性”问题
人工智能标准不同于一般法律规则之处在于,法律规则是显性的强制性规则,直接规范主体的行为;而人工智能标准往往是非强制性标准,它内含于技术之中,表现为对数据与算法的隐形约束。技术标准是典型的“软法”,而且很可能是重要性程度与地位不亚于“硬法”的“软法”。如果说人工智能的“规则之治”是“硬法之治”,那么“标准之治”就主要是“软法之治”。
“软法之治”一般需要较高的治理水准,对于人工智能标准而言更是如此。因为人工智能领域的强制性标准较为罕见,而推荐性标准作为非强制性规范与指引,其适用是自愿的,并且需要冀望足够多企业、机构、团体、个人的自愿遵守,诚非易事。人工智能产业内的企业都非常珍惜自身的技术独立性,当产品或服务标准与国家或行业标准不同步时,独立性与自愿性便会产生冲突。尽管国家可以通过直接或间接利益激励的方式鼓励企业遵守标准,但尽可能尊重自愿性原则是更为理想的状态。这就需要人工智能的标准获得尽可能广泛的认同,需要相关标准具有可观的影响力。
然而,尽管标准主要依赖于自愿的遵守、依赖于行业和社会的认同,标准与法律规范的“软硬法混合治理”仍然不可避免。在人工智能领域的算法治理中,技术标准与法律规范各自应当承担何种角色,如何更好地发挥协同作用,仍是一个有待回答的开放性问题。
人工智能“标准之治”的总体进路
人工智能的“标准之治”需要有效回应上述挑战。尽管具体方案或许尚未成熟,我们仍可基于已有实践,确立若干导向性的原则及关键要点,为上述难题的解决提供法理上的总体框架。在目标定位问题上,应当遵循差异化灵活度原则,在标准设计时预留一定的灵活度,根据不同应用场景确定不同的底线和灵活处理空间,在确保伦理价值底线的基础上,形成具有场景差异性的标准体系。
在颗粒度问题上,应当遵循规制必要性原则,考虑相关规则所涉法益的重要性、已有的技术性共识及预计修订频率,只在确有必要并且符合技术上的共识,才设置细颗粒度的要求。在“软硬性”问题上,应当在法律优先及法律保留原则的基础上,完善法律中的有关准用性规范,充分发挥标准凝聚共识和技术导向的作用,在不同规则设计上体现适当的“软硬法混合治理”之安排。
(一)基于差异化原则确立目标定位
有关人工智能标准定位的三种观点均存在难以处理的困难,实际上,将人工智能标准直接固定于某一定位或许都不适宜,根据不同场景中保护相关法益及提供整合作用的需要具体确立目标定位方为上策。例如,《人工智能算法金融应用评价规范》(JR/T0221-2021)中第6部分“安全性评价”就针对资金类场景和非资金类场景设置了不同的定位,资金类场景方面的算法安全需要满足的要求远较非资金类场景为高。
这是因为标准的最关键作用之一是充实规制体系、保护公私主体的合法权益,在法益保护需求更高之处,人工智能标准的目标定位自应更高,如涉及生命权、健康权等公民重大权益或国家安全、司法公正等重大法益,人工智能标准甚至可以直接瞄准所谓“行业最佳实践”(best industrial practice)的要求。反之,如果是一般性的人工智能应用,就不需要设置过高的标准。例如,《中文语音识别系统通用技术规范》(GB/T21023-2007)对于文字输入类系统的字准确率要求是大于或等于85%,这一准确率要求显然低于业内最佳水平。
在根据保护法益的不同场景化需求确定人工智能标准的基本定位后,对于不涉及重要法益保护内容的部分,在塑造底层架构、清除交互障碍乃至指引具体操作等方面,相关标准的定位可以有一定灵活度,允许标准制定者在充分吸收和协调多方意见的前提下,选择适宜的定位。如果我们无法从实体上计算出合适的“中值”或其他定位水平,则应畅通相关技术标准制定程序的多元参与渠道,强化标准制定后的评估与监督,确保标准的制定和修订能够有效平衡各方力量并及时回应实践反馈及社会需求。
(二)基于必要性原则确定颗粒度要求
必要性原则从属于比例原则,目前又称最小损害原则,指的是实现正当目的的手段具有必要性,对当事人造成的损害最小。尽管必要性原则是对公共行政提出的要求,对于通过标准的算法规制而言亦有不可忽视的意义。鉴于越精细的颗粒度将越有可能对从业者产生明显加重的负担,人工智能标准的颗粒度原则上应当选择能够有效达成算法治理目的的最粗颗粒度要求。
观察有关标准制定与修订之实践,此种必要性具体受制于三个要素:一是法益保护需求,二是修订频率,三是技术共识。
首先,较强的法益保护需求在提升标准定位的同时也对标准规制作用的实效性提出了更高的要求,例如上海市地方标准《自动驾驶开放测试道路环境分级规范》(DB31/T 1264-2020)就具备相当精细的颗粒度,因为自动驾驶的安全风险涉及公民生命权等系列重大法益,不得不严格规定测试环境的交通量、曲率、交通组成、交通状态指数等系列指标。
其次,预计修订较为频繁的标准可以承载更细的颗粒度要求,若出现问题可及时进行调整,反之则应尽可能保持粗颗粒度。例如,《信息技术词汇第31部分:人工智能机器学习》(GB/T 5271.31-2006)已有十余年未更新,制定此种标准就应该保持较粗颗粒度。最后,如果相关领域的技术发展路线已经比较明确,对于技术的认知不存在显著的重大分歧,也可以细化颗粒度的要求。例如前述《中文语音识别系统通用技术规范》中声音检测识别类的系统性能指标就相当精确。
根据此三种要素,由必要性原则确定的颗粒度结构可以有效地在规制人工智能风险和支持人工智能技术与产业发展之间取得平衡。人工智能技术发展迅猛且充满不确定性,人工智能标准随时可能出现滞后,极有可能阻碍人工智能科学创新与技术革新。同时,人工智能技术的不断翻新催生出大量新型纠纷矛盾,产生诸多前所未有的新问题,这些领域就经常出现法律规制上的空白。
对此,人工智能标准需要在一定程度上承担起初步的规制功能,在法律尚未抵达之际起到初步规范作用。由于法律的天然滞后性,人工智能标准需要保持与人工智能技术发展的同步性,通过人工智能标准的不断进阶和持续迭代及时回应治理的现实需求。因此,人工智能标准必须具备可不断进化的成长能力和相对灵活的发展与调整空间,在许多问题上保持相对粗的颗粒度诚为必要,更有利于掌握发展与安全之间的复杂平衡。
(三)基于系列准用性规范构建“软硬法混合治理”的框架
作为“软法”的标准和作为“硬法”的法律规范在制度上的主要连接点就是准用性规范,此种规范的合理配置能够最好地发挥标准与“硬法”规范的协同作用。一般情况下,法律规范仅仅是规定价值目标、法律关系内容及总体的制度框架,具体的技术路线及实现方式可以由标准承担;对于法律规范难以预先确定具体实现原理及进路的技术规制,此种安排可以经由准用性规范将主要的实际规制任务付诸标准,而其自身则为标准的选择与运用确定前提条件与具体目标。准用性规范不仅能够指引行政裁量,还能够通过解释不确定法律概念方面的间接授权,为标准中相关规则产生“硬”的效力提供受法律实践认可的规范入口。
遗憾的是,我国现行立法中相关准用性规范尚显不足,即便在整个网络信息法制领域,准用性规范都尚属罕见,较多的是诸如《网络安全法》第15条、《数据安全法》第10条、《个人信息保护法》第62条等有关制定标准的委任性规范。
需要指出,《个人信息保护法》第62条已经明确意识到制定人工智能相关标准的必要性,可以预见此方面的标准在未来很有可能进入个人信息保护领域的后续法律实践。不过,委任性规范毕竟缺乏准用性规范的明确指向性。在准用性规范方面,《网络安全法》第10条是一个可资借鉴的实例:“建设、运营网络或者通过网络提供服务,应当依照法律、行政法规的规定和国家标准的强制性要求……维护网络数据的完整性、保密性和可用性。”
在人工智能治理领域,未来的专门性立法及具体场景立法可以在此种规定的基础上,进一步大幅扩展和细化专门立法中的准用性规范,对于不宜由法律规范直接接入的技术性规制需求,在法律规则中引入针对特定主体及事项的准用性规范,实现对人工智能应用的精准规制。尤其是在无人驾驶、人脸识别、智慧医疗、智慧基础设施等关系重大的应用场景,在法律规范不宜过于频繁修改及规定过细的情况下,可以通过组合性地配置准用性规范使若干关键的技术要点连接到指定范围的多项人工智能技术标准,使相关标准“软中带硬”,构筑“基础性立法+多项标准”的“软硬法混合治理”体系。
结语
人工智能的发展与治理日益引人瞩目,“规则之治”与“标准之治”的结合已日益成为现实,标准在人工智能治理中的价值也日益凸显且无可替代。尽管走向人工智能的“标准之治”面临目标定位、颗粒度及“软硬性”等难题需要解决,但解题对策之方向已隐约可见,人工智能治理的技术因素与规范因素亦将在此密集交汇,形成治理的重心。
在探索人工智能的“标准之治”进程中,法律人不仅有机会观察到有关标准的起草、批准、颁行、修订等实践,亦有机会参与其中,致力于深入平衡技术因素与规范因素在标准内容中的影响力,确保人工智能标准符合法治精神及满足法益保障之需求,建设能够准确连接并有效协同法律规范和技术标准的人工智能治理体系。当然,这一全新的任务对于法律人而言或许甚为艰巨,但为确保人工智能的“标准之治”不脱离法治轨道,法律人仍须肩负“不入虎穴,焉得虎子”的此种重要使命。中
《中国法律评论》
2021年第5期(总第41期)
《中国法律评论》
基 本 信 息
定价:408.00元
出版:法律出版社
期刊号:CN10-1210/D
出版时间:2022年
册数:全年6册装
点击上图即可购买
2022年《中国法律评论》(全六册)
点击阅读原文,即可购刊包邮~
中国法律评论
我刊由中华人民共和国司法部主管、法律出版社有限公司主办。国家A类学术期刊,中文社科引文索引(CSSCI)来源期刊,人大复印报刊资料重要转载来源期刊。我刊秉持“思想之库府,策略之机枢”之理念,立足于大中华,聚焦中国社会的法治问题,检视法治缺失与冲突,阐释法律思想,弘扬法律精神,凝聚法律智慧,研拟治理策略,为建设法治中国服务,为提升法治效能服务,为繁荣法学服务。
《中国法律评论》唯一投稿邮箱:
chinalawreview@lawpress.com.cn
中法评微信公众号投稿邮箱:
stonetung@qq.com
刊号:CN10-1210/D.
订刊电话:010-83938198
订刊传真:010-83938216