张欣:我国人工智能技术标准的治理效能、路径反思与因应之道|中法评 · 专论
按语
随着《数据安全法》及《国家新一代人工智能标准体系建设指南》等重要法律及政策的颁布,我国正在针对数据和算法形成全面覆盖“硬法”和“软法”的治理体系,数据与算法治理方面的“中国道路”和“中国方案”已经日渐清晰。
《中国法律评论》2021年第5期专论二“数据安全与算法治理”邀请三位学者北京理工大学洪延青教授、对外经济贸易大学张欣副教授、北京航空航天大学蔡星月助理教授,直面数据安全与算法治理的前沿热点问题展开探讨。具有不同学历背景、实务经历及研究基础的三位作者, 针对这一领域中非常引人关注的两个问题——数据分类分级保护与人工智能技术标准,进行了探索性、开拓性的思考与阐释,内容丰富、观点多元、见解新颖。我们冀望本期专论能对学界与实务界同仁探讨相关议题产生积极的启发作用和参考价值。
张欣
对外经济贸易大学法学院副教授
人工智能技术带来的结构性挑战推动了治理范式转向以协同性、动态性、分层性、复合型为特征的“软法”治理。人工智能技术标准作为重要的“软法”治理工具有助于在技术开发早期嵌入伦理和价值要求,在应用和部署阶段推动评估和认证制度的有效落地,在事后阶段为人工智能技术和产品构建追溯和责任制度提供依据。但我国目前的人工智能技术标准制定程序科学性和代表性有待完善,标准框架结构制定现状不甚合理,与相关法律衔接融合不畅。未来应探索科学灵活的标准制定程序和多元智能的参与机制,借助新型人工智能合作伙伴关系提升标准化需求识别分析能力,建立完善议程设定协调机制,并着力推动人工智能治理标准化和法治化的良性衔接与融合。
(一)有助于人工智能技术在开发早期嵌入伦理和价值要求
(二)有助于人工智能技术部署和应用阶段评估和认证制度的有效落地
(三)有助于构建人工智能技术和产品追溯和责任制度
三、我国人工智能技术标准的发展图景和路径反思(一)制定程序的科学性和代表性有待加强
(二)标准框架结构制定现状不甚合理
(三)人工智能技术标准与相关法律衔接融合不畅
四、我国人工智能技术标准制定与完善的因应之道(一)探索科学灵活的标准制定程序和多元智能的参与机制
(二)打造多元协同机制提升标准化需求识别分析能力、建立议程设定协调机制
(三)构建人工智能治理标准化和法治化衔接与融合机制
五、结语本文来源为《中国法律评论》2021年第5期专论(第79-93页),原文16000余字,为阅读方便,脚注从略。如需引用,可参阅原文。购刊请戳这里。
本文是国家社科基金重大项目(20&ZD177)、司法部国家法治与法学理论研究项目(19SFB3004)和惠园优秀青年学者资助项目(19YQ13)的阶段性成果。
引言
在全球科技竞争浪潮之中,人工智能已经成为新一轮科技革命和产业变革的重要驱动力量。我国人工智能产业虽起步较晚,但在政策红利的强力驱动下迎来高速增长期,多项技术已经处于世界领先地位。与技术层面的突破相比,人工智能技术和应用在治理层面遇到的挑战却日益加剧。
智能推荐算法导致“信息茧房”扰乱传播秩序,个性定价算法滥用消费者画像进行“大数据杀熟”,人脸识别技术非法滥用侵蚀个人信息安全,自动驾驶汽车频繁失控酿成重大事故,更不用说人工智能技术在就业、社会公平、数字鸿沟等社会系统层面的风险和影响。面对人工智能风险治理的痛点和难点,积极构建人工智能治理体系,最大限度地发挥技术潜力和优势,有效应对其引发的社会和伦理影响已经成为全球共识。
与一般技术引发的治理风险相比,人工智能技术引发的风险更具复杂性、系统性,带来的立法挑战更具颠覆性。一方面,人工智能技术格局的变化以月为单位,规制步伐困境更加明显。另一方面,人工智能技术虚实结合、嵌入广泛,加剧了信息不对称,致使立法决策缺乏有效参考点。
这些结构性的挑战推动了人工智能治理范式不可避免地从单一的以国家为中心、以命令和控制为核心的“硬法”模式向基于多中心主体参与的,以协同性、动态性、分层性、复合型为特征的“软法”治理体系转变。在人工智能“软法”治理的工具箱中,人工智能技术标准成为体现全球共识的重要抓手。可以说,在世界范围内,践行“通过技术标准的人工智能治理”已经成为实现人工智能治理愿景的重要路径之一。
鉴于技术标准对人工智能治理所具有的基础性、支撑性、引领性作用,2020年7月,我国颁布了《国家新一代人工智能标准体系建设指南》(以下简称《建设指南》),就标准建设工作展开重点部署,提出要形成标准引领人工智能产业全面规范发展的新格局。此外,新近颁布的《数据安全法》《个人信息保护法》亦在多个条文中提出建立和完善数据安全标准体系以及与人脸识别、人工智能等新技术、新应用相关的标准体系,推动形成具有广泛共识的国际标准规范。
人工智能技术标准的建构需求已经日益紧迫,与之相配套的理论研究也应迎头赶上。本文即尝试以人工智能技术标准为核心对象,以人工智能治理为分析视角,对我国人工智能技术标准的治理效能、路径和因应之道与学界同道共同探讨和思考。本文第二部分将系统论证技术标准增进人工智能治理效能的制度优势,第三部分通过实证分析梳理了我国人工智能技术标准的发展图景和薄弱环节,第四部分从制定程序、体系结构和法律协同的视角提出应对与完善机制。
技术标准增进人工智能治理效能的制度优势
标准、规则和指令被视为支撑社会运行的三大规则,具有创建、演绎和改造现实世界的作用。与规则和指令相比,当颁布一项规则或者指令带来的预期法律成本过高时,立法机关应当以标准作为更有效率的规制方式。而技术标准作为标准中的一类,兼具技术性、社会性和可通约性,能够更为有效地创建、演绎和引导人工智能技术的有序稳健发展。
(一)有助于人工智能技术在开发早期嵌入伦理和价值要求
人工智能风险由算法、数据以及二者在多元场景下的交互应用而产生。因此对人工智能社会的治理需要控制和指导人类创造和设计的准则。这种准则应当有助于设计者、使用者和被影响支配者之间形成一种信任、非操纵、非支配性的关系。但这些关系并不会被自动嵌入人工智能技术和产品设计之中,技术标准聚焦人工智能技术的源头环节和底层架构,可以在人工智能技术生命周期的早期阶段实现关键产品要素的标准化,促使设计者、部署者调整设计理念,通过将伦理和可信价值导入技术和产品的设计环节进而嵌入治理实践之中,从而成为物化伦理规范和价值要求的第一道桥梁。
这种事前阶段的引导对于人工智能治理至关重要。一方面,人工智能应用具有自主性、反应性和社会性,在与社会交互应用之时具有自我管控、调节、反应以及进化的能力,以传统事后监管方式对其进行规制的有效性堪忧。正如控制论之父诺伯特·维纳(Norbert Wiener)早在1950年指出的,人们可能会创造出“按照人类无法接受的价值而实施行动的智能体”,“为了防止这样的灾难,既需要为人工智能体设置伦理规则,也需要将这些规则嵌入智能体,并通过有效技术来管控智能体的行为。”
另一方面,人工智能应用可能因逐利驱动从而偏离公共利益,由此滋生的算法歧视、算法霸权、算法操控等各种负面外部性充斥于社会之中。恰如杰克·巴尔金(Jack M. Balkin)所言,这种高科技企业带来的外部性就像工业企业排放的污染物,它们为企业带来了巨额利润,但成本却由社会承担。因此,通过技术标准在人工智能技术和产品的生命早期嵌入规范要求,有如要求工业企业在生产阶段采用清洁生产技术,避免了“先排污、后治理”的困境。
(二)有助于人工智能技术部署和应用阶段评估和认证制度的有效落地
人工智能治理是一项面向整个技术生命周期的系统性工程,需要在事前、事中和事后阶段建立深度耦合、动态衔接的治理框架。人工智能技术和产品开发后,在部署和应用阶段实施精准治理可以既不阻碍技术发展、应用和创新,又能确保部署和应用阶段的安全可控。对此,实现分级分类、场景化和精细化的治理已经成为各国共识。以分级分类为核心的精准治理需要依靠评估和认证制度落地推进。人工智能技术标准可以解决技术认知分歧,动态更新响应技术迭代,强化企业信誉激励,从而为建立人工智能评估和认证框架奠定基础。
首先,人工智能技术标准凝聚了技术专家在技术论证和技术认知方面的关键共识,解决了人工智能技术在治理层面可能面临的最初分歧。
其次,人工智能技术标准及时响应技术发展和应用迭代,深度契合人工智能影响评估的动态化治理需求。人工智能影响评估需要对产品和技术设计、部署、运行的全部流程进行动态评估,识别和系统跟踪算法内置或者潜在偏误,确保运行过程中实时检测系统按照预期稳定运行。这就需要评估依据能够动态更新,及时响应技术发展态势。与规则、指令相比,技术标准专门为促进行业发展而制定,对技术变革能够作出及时动态的预测、研判和跟踪,可以更准确地把握技术和产业发展趋势,从而为评估制度提供最新依据。
最后,技术标准可以成为人工智能技术与产品认证的基础和依据,激励企业获取声誉价值,开发和部署可信和负责的技术与产品。为保证人工智能技术全周期安全可控,需要对产品和技术定期审核认证,建立基于技术信任的分级监管体系。人工智能技术标准凝聚专业共识、追踪技术动态、涵纳规制需求,为认证制度提供基础和支撑。
例如,2018年电气电子工程师学会启动了自主智能系统伦理认证计划。该计划通过开发算法透明度、算法问责制和算法偏差三个独立的认证标准和流程将人工智能伦理治理原则转化为切实可行、易于操作的微观标准,缓解了技术保密、透明公开与算法问责之间一直以来的冲突和矛盾。经过认证后的技术和产品通过获得质量标签积累“安全”“可信”声誉,在公共采购、消费者选择等环节发挥指引作用,强化企业对可信技术的开发激励。
(三)有助于构建人工智能技术和产品追溯和责任制度
为确保算法能够在未知情形下作出最优策略,算法运行规则需要保留必要的模糊性和随机性,以便模型遇到不理想的结果或者无法处理的情形时可以自行修改参数以优化性能,因此并非算法模型的所有规则都是事先精确指定的。对此,技术正当程序要求算法系统具有透明度和可问责性,及时甄别并防控有缺陷和偏误的系统设计。但以完全透明度为内核的监管需要披露程序运行的具体信息,商业秘密制度的存在导致披露受阻,监管效果不彰。因此,建立事后阶段的验证、追溯和责任认定机制成为缓解人工智能问责难题的题中之义。
与人类决策不同,算法系统不会自动存储形成其决策依据的信息。是否需要嵌入事后追溯和验证功能是在系统设计阶段就需解决的资源分配问题。技术标准可以结合应用场景和系统类型探索最佳方案,为人工智能产品的设计者提供清晰指引,确保系统生成可靠、完整且“不可篡改的确凿记录”作为追溯验证的依据,将事后追溯和验证功能嵌入到设计环节。一旦发生事故造成损害,技术标准还可以作为损害和缺陷认定的重要依据,从而有助于人工智能产品责任制度的构建。
首先,人工智能技术安全标准融合了消费者期待和产品风险效用,可以为产品质量设定安全基准,成为制造和设计缺陷认定的重要依据。例如,美国《自动驾驶法》规定国家高速公路交通安全管理局应当逐步完善包括自动驾驶汽车在内的汽车安全标准或者安全范围,并应对其定期审查和更新。依据上述标准,若自动驾驶汽车制造商未能设计出符合安全标准的产品,则可以成为认定产品设计和制造缺陷的依据。
其次,人工智能技术标准还可以成为判断说明缺陷的重要依据。例如,依据自动驾驶汽车分级要求和披露告知义务标准,制造商应当向消费者说明自动驾驶功能的合理使用方法及潜在风险,对于未能达到自动驾驶分级标准的汽车,应警告消费者不应以不可预见的方式介入自动驾驶过程或者盲目使用自动驾驶功能。若厂商未按照技术标准尽到注意义务和警示说明义务,则应对由此引致的损害承担责任。
最后,技术标准根据人工智能技术发展的客观现状而制定,其代表了当前技术发展条件下能够容忍的风险阈值和容错率,有助于判断相关侵害是否构成当前技术无法预料之缺陷的免责事由。技术标准的及时更新还有助于督促制造商及时跟踪产品的技术发展情况和尚未检测到的致害性,积极实施产品的后续跟踪观察和及时警告义务。
综上所述,人工智能标准化工作既是推动产业发展的制高点,也是践行安全可控治理框架的关键抓手。为此,应当系统梳理我国人工智能标准的发展现状,探究技术标准体系化建设的完善机理,为提升治理效能提供坚实的制度依托。
我国人工智能技术标准的发展图景和路径反思
鉴于技术标准在人工智能产业发展和治理领域的基础性、引领性和支撑性作用,世界主要经济体均将技术标准工作列为人工智能发展战略的重要环节。
作为世界人工智能大国,我国自2018年开始积极布局和有序推进人工智能标准化体系建设。2018年颁布的《人工智能标准化白皮书(2018年版)》提出了六项近期亟需研制的基础和关键标准,吹响了我国人工智能标准化战略的前奏。2020年7月颁布的《建设指南》成为人工智能标准化战略的核心顶层设计文件。该指南提出,到2021年应明确标准体系建设和标准研制的总体规则,完成关键通用技术、关键领域技术和伦理等20项重点标准的预研工作。到2023年初,初步建立人工智能标准体系。
可以说,我国在人工智能技术标准工作的发展道路上与世界主要经济体处于同一跑道。面对这一重要机遇窗口,快速破局、领军迎上对于今后及未来的人工智能产业发展和战略布局具有重要意义。我国自2018年积极布局以来已近三年,在人工智能所涉众多领域虽已具备一定的标准化基础,但标准的分散化、滞后性使其难以有效支撑人工智能领域的稳健发展。系统梳理我国人工智能技术标准化现状,可以发现在制定程序、整体布局以及法律衔接方面仍然存在诸多不足。
(一)制定程序的科学性和代表性有待加强
人工智能技术标准是经特定程序协商一致,由主管机构批准,以特定形式发布,为人工智能技术设计、开发、应用和部署等提供规则指引,作为共同遵守的准则和依据。作为正式规范的一种,标准的制定程序对于标准质量无疑具有重要意义。我国《标准化法》明确提出标准的制定应当遵循特定程序,确保标准的科学性、规范性、时效性。就我国人工智能技术标准制定程序而言,目前在三个层面集中凸显不足:
第一,国家标准和行业标准的制定程序欠缺必要的灵活性和响应性。人工智能技术和产业均已进入高速发展阶段。以作为底层技术的算法为例,其更新速度已经远超摩尔定律,呈现爆发式增长。但我国国家和行业标准的制定程序却并未对此作出回应和改变。按照目前的程序设置,一项标准从预备立项到出版和复审需要历经9个阶段,预计34个月完成,除对等采用国际标准或国外先进标准以及标准修订项目等可省略起草或征求意见阶段以外,均需常态化履行以上程序。
从制定时效来看,这意味着一些技术标准可能甫一制定就已呈滞后之势。而对于急需标准引导和支撑的行业而言,标准的阙如还可能制约行业发展。例如,医疗行业人工智能应用对于解决医疗资源短缺和分配不均的民生问题具有重要意义,但由于人工智能医疗技术和数据监管标准缺失,导致医疗人工智能产品市场准入机制阙如,行业发展缓慢滞后。再如,面对算法安全和数据滥用的挑战,我国已有数百家企业开始全面应用和实践基于多方计算、联邦学习等的“可信AI”技术,但由于可解释性等相关标准的缺失,导致不同协议层面平台难以打通,技术硬件层面无法互通,致使可信AI的应用落地受到极大限制。
第二,人工智能技术标准制定过程协商性和代表性不足。虽然大数据、云计算等技术已经广泛嵌入政府治理架构之中,推动形成了以用户创新、大众创新、开放创新、共享创新为特征,以共创、赋能、开放为内核,以双向建构和良性互动为特点的公众参与和社会自治新格局。但在人工智能技术标准制定过程中,技术标准化组织却未能充分利用信息技术优势践行参与治理的理念,使得技术标准生成过程中的共识性、协同性和代表性有待加强。
以国家标准为例,目前我国在制定人工智能国家技术标准时,通常仅通过全国信息技术标准化技术委员会网站、电子信息技术标准化平台以及纸质文件和Email等形式征求意见,且不具备常规化、制度化的意见反馈环节。而对于全国信息技术标准化技术委员会和全国信息安全标准化技术委员会的标准立项程序,更是在必要时才征求意见。技术标准是特殊的公共产品,其供给和需求恰是衔接人工智能技术与社会互动的重要触点。由于技术标准兼具专业性和社会性,制定者常面临信息甄别和信息收集的挑战,更需要科学适当的参与机制促进利益相关者的参与,以修正制定者信息获取的不足,增强回应性和效率。
第三,中小企业对于技术标准议程制定过程的影响力有待加强。截至2021年5月,我国共有2205家人工智能企业,位列世界第二。但这些企业之中,头部企业与中小型创业企业在技术标准议程设定层面的影响力和参与度差异巨大。由于科技巨头已经在基础层、技术层和应用层分别构建起生态链,占据了基础设施和技术优势,中小创业企业仅靠技术输入难以与之抗衡。与之相对应,梳理参与我国人工智能技术标准起草的企业也可发现,由于拥有较为充足的人力、物力,头部企业对于技术标准从议程设置到起草修订环节的影响力较大、参与度较高,而中小企业则受限于人力物力及渠道影响难以发挥实质作用。
(二)标准框架结构制定现状不甚合理
对于人工智能标准框架体系和结构布局,我国早在2017年发布的《新一代人工智能发展规划》中就设定了阶段性目标。此后,《“十三五”技术标准体系建设方案》《促进新一代人工智能产业发展三年行动计划(2018—2020)》以及五部委联合制定的《建设指南》,分别对人工智能标准化建设的顶层设计和框架结构提出了明确规划和指引。
其中,《建设指南》提出应从基础共性、支撑技术与产品、基础软硬件平台、关键通用技术、关键领域技术、产品与服务、行业应用、安全/伦理八个模块组建我国人工智能标准体系建设框架。通过对全国标准信息公共服务平台系统搜索,以该八个模块及各模块项下子模块为关键词,以国家标准、行业标准、地方标准、团体标准为类别,本文绘制出了我国人工智能标准制定现状的大致图景(参见下表)。
我国人工智能标准制定现状表
通过上表可以发现,我国目前人工智能标准制定现状布局不甚合理。
第一,基础性标准缺失且滞后严重。经统计,与人工智能基础共性相关的国家标准仅有2项,且均为2006年之前制定。这意味着我国尚未对人工智能的概念、内涵等基础共性技术达成共识,直接制约了我国人工智能技术的快速发展和应用。如果说标准化工作是人工智能发展的基础和前提,则基础共性标准是人工智能技术和产品开发的第一道战线。
我国目前的2205家人工智能企业主要集中于技术集成与方案、智慧商业与零售两个应用领域,对于基础理论和前沿技术的突破十分有限。基础共性标准的确立对于人工智能基础理论和技术开发具有固本强基的作用,决定着我国人工智能产业发展是否能够最终达到自主可供。但目前基础共性标准的缺失和滞后可能致使人工智能的研发和应用变得混乱,标准化程度的不足将严重影响人工智能领域的稳健发展。
第二,道德伦理标准进展缓慢、供给不足。我国在人工智能发展政策上主要强调技术进步和产业发展,虽然对于人工智能道德伦理和安全也较为重视,但相关标准的制定工作却进展缓慢,从长远来看十分不利于我国人工智能技术和产业的稳健发展。虽然《新一代人工智能治理原则——发展负责任的人工智能》、《人工智能标准化白皮书》以及《人工智能伦理风险分析报告》相继提出了人工智能安全与伦理的原则和方向,但目前与道德伦理直接相关的人工智能标准尚付阙如,引发诸多不利影响。在国内层面,人工智能技术、产品和应用发展受限,不利于技术信任生态的建立。无论是消费者佩戴头盔看房以防范人脸识别技术的滥用,还是大数据杀熟等算法歧视现象引发时下年轻人纷纷效仿的“反击算法”运动,均显现出人工智能技术滥用引致的伦理风险以及社会公众由此引发的信任焦虑。
在国际层面,人工智能伦理标准的供给不足直接影响我国人工智能企业“出海战略”的实施。以人工智能模型训练的底层数据为例,海量数据是人工智能发展的必备条件。由于隐私安全和道德伦理标准的滞后,我国人工智能企业目前尚难以获得国外用户数据用以训练机器学习模型。海外应用拓展受限将直接制约我国在全球人工智能技术发展中的布局。随着人工智能发展的深入,我国应尽快制定和完善人工智能道德伦理和安全隐私标准,为国际化战略奠定制度优势。
第三,部分核心产品与服务以及行业重点应用的国家和行业标准阙如,掣肘人工智能行业的落地应用与发展。人工智能技术标准分为基础层、技术层和应用层。通过前表可知,目前在应用层,智能运载工具、智能制造、智能法庭、智能医疗、智能政务等多个重要领域的国家和行业标准缺失,滞后于行业的实际发展。以智慧法庭为例,经过近五年的快速推进,以大数据管理与服务平台为中心,以全流程全业务应用平台为重点,全要素一体化的人民法院信息化基础设施已经初步建成。智能语音庭审、电子卷宗随案生成与深度应用、“智慧审判”系统等全方位智能服务体系框架业已确立。毋庸置疑,以人工智能为依托的智慧法院建设提升了司法效率、透明度和公信力。
但同样不容忽视的是,相关技术标准的缺失致使智慧法院建设面临多项难题和挑战。
首先,智慧司法基础设施技术标准的空白使各系统和平台缺乏整体性规划,互操作性受限。例如科大讯飞与上海高院合作开发了“206”上海刑事安全智能辅助办案系统,多地法院还自行与人工智能企业合作开发了各具特色的类案指引系统。不同的平台和系统可能因为底层架构和技术设计差异导致对接困难、互操作受限,区域协同和一体化部署面临困境。
其次,诉讼服务数据标准、资源分类标准、开放式集成模型与集成标准的缺失致使标准化、规范化、集约化受限。全国诉讼服务数据标准的缺失可能导致相关信息收集失序、使用不便、反馈滞后,不利于决策信息的统筹管理和及时汇聚。诉讼服务资源分类标准、开放式集成模型与集成标准的空白则可能导致诉讼平台智能集成技术应用受限,难以精准回应服务对象的个性化需求,同时可能导致不同网系和环境中的安全管控挑战。
最后,司法审判场景下算法可解释性标准的缺失可能引发决策偏误和正当性隐忧。例如,上海“206”系统已经基于大数据分析,将影响社会危险性程度的各项要素量化并设置权重,采用深度学习方法构建社会危险性评估模型,以对犯罪嫌疑人、被告人进行评估,作为是否批捕以及提出缓刑量刑建议的重要参考。而大洋彼岸的“卢米斯案”已经充分表明,在深度学习模型的可解释性尚难解决、相关标准尚未确立之时,风险评估模型可能在准确性、公平性和透明性层面存在切实风险。
(三)人工智能技术标准与相关法律衔接融合不畅
人工智能改变了法律问题域,也改变了法律本身的运作模式。 无论是劳伦茨·莱斯格(Lawrence Lessig)提出的“代码即法律”这一影响深远的命题,还是当下引领前沿的“法律代码化”“法律计算化”抑或引发广泛关注的“因人制宜之法”(personalized law),都在本质层面折射出法律与技术紧密交织、融合互动的共性机理。人工智能时代万物互联、虚实同构,人工智能技术、产品和应用的复杂化、多元化推动法律规范调整的领域不断扩大,呈现出向技术领域纵深扩展之势。在法律扩展治理领域之时,需要借助技术标准的支撑和引导功能实现法律目的、增强法律实效。
与之相对,技术标准作为外在于法律的规范系统,亦需借助法律获得强制力,强化其落地实施的激励机制。由此可见,技术标准和法律各有侧重,各显其能,日益呈现融合互动之势,两者的良性契合具有重要功用。
逐一比对分析我国现有的人工智能技术标准和相关法律可知,技术标准制定者与立法者之间的契合意识有待加强,人工智能技术标准与相关法律衔接融合不畅。尤其在技术标准已经颁布实行的情形下,相关法律法规援引人工智能国家标准、行业标准,借助标准化成果解决法律问题的实践仍然不足。
以生物识别技术为例,鉴于生物识别技术的广泛应用,我国已经出台了45部相关国家标准,对术语定义、技术操作规程、防伪技术要求等进行了详细规定。但由于生物识别信息的敏感特性,其在开发利用中暴露出诸多隐私安全风险,社会公众对该类技术加强规制的呼声日益高涨。
2021年7月,《汽车数据安全管理若干规定(试行)》(以下简称《规定》)出台,对汽车数据处理者使用个人生物特征信息的行为进行了规定。该《规定》第9条提出“汽车数据处理者处理敏感个人信息,应当符合以下要求或者符合法律、行政法规和强制性国家标准等其他要求……汽车数据处理者具有增强行车安全的目的和充分的必要性,方可收集指纹、声纹、人脸、心律等生物识别特征信息”。
从该条表述中可知,立法者一方面承认并强调强制性国家标准的重要作用,但另一方面从规则设计层面又未能采纳并援引相关国家标准,致使条文中规定的生物识别特征信息范围与国家标准存在出入。依据我国出台的生物特征识别国家技术标准可知,生物特征识别信息包括人脸、指纹(包括细节点、型谱数据、骨架数据)、手型轮廓、血管图像、虹膜、声纹、DNA等能够用作身份识别的数据,而心律并未被纳入到该类信息范围之中。即使在生物特征识别的前沿实践中,也多将心电信号而非心律作为身份识别的生物特征信息。
立法者制定第九条的本意是要求数据处理者遵循信息收集的最小必要原则,给予信息主体更为充分的保护,但由于未能与我国生物识别技术标准良好契合,反而在实质层面变相扩大了可收集的生物识别特征信息范围。与此同时,立法者在该《规定》第3条仅将人脸信息列为“重要数据”,而对于第9条中列举的与人脸信息具有同等识别功能的“指纹、声纹、心律”却只字未提,使得前后条文依托的技术逻辑彼此冲突。由此可见,当法律规范与技术标准未能良好衔接融合时,可能导致立法对主流技术实践不当偏离,不利于法律实效的充分发挥和技术标准的有效实施。
我国人工智能技术标准制定与完善的因应之道
上文论述展现了我国人工智能技术标准在制定程序、规划布局以及法律衔接三个层面的薄弱之处。本节紧密结合我国人工智能技术标准制定现状,合理借鉴域外技术标准制定的先进经验,拟从下列三个方面提出改善与应对之道。
(一)探索科学灵活的标准制定程序和多元智能的参与机制
第一,提升国家标准和行业标准制定程序必要的灵活性和响应性。如前文所述,我国国家标准和行业标准的制定需要历经9项程序,平均耗时34个月,可能导致标准供给滞后于技术迭代。为增加必要的灵活性和响应性,可以借鉴由国际标准化组织和国际电工委员会成立的第1联合技术委员会(ISO/IECJTC1)在制定人工智能技术标准时的程序设定思路,尝试多元化的标准制定程序方案。目前,该委员会下设的咨询组主要负责新兴技术创新、自动驾驶、量子计算等标准制定工作,工作组主要负责生物特征识别和人工智能等技术标准制定工作。
鉴于新兴技术的特殊性,JTC1既制定了常规化、标准化的工作程序,又设计了默认时间框架、加速时间框架和延长时间框架三种程序方案,力求在标准制定的规范性、灵活性和响应性之间达到良好平衡。对于常规需求的标准类型,一般采用默认时间框架,需要历经准备、委员会、询问、批准和发布五个阶段,平均耗时36个月完成。而对于有特殊制定需求的技术标准,可以采用加速时间框架或延长时间框架,项目累计时间分别为24个月和48个月。
同时,为保证制定程序的规范性,JTC1还规定每种方案中秘书处可以机动更改和不能更改的阶段和对应时间,从规则设计上保证不因加速或延长而致使程序规定流于形式,造成潜在不利影响。我国2020年颁布实施的《强制性国家标准管理办法》第24条、第26条已经对涉及面广、关注度高以及技术要求发生重大变化的国家标准在征求意见阶段提出分级化要求,折射出采用多元灵活程序方案的立法理念。未来在程序制定中还可参考JTC1的程序设计思路,面对不同需求标准类型尝试分级分类的设定程序方案,提升标准制定工作的灵活性、敏捷性和扩展性。
第二,探索多元化沟通参与机制,增进人工智能技术标准制定过程中的代表性和参与性。与一般社会规范有所不同,技术标准的兼容性与互联性可能会对市场结构和效率产生影响,引发网络外部性,造成技术锁定、寡头垄断和市场失灵。同时由于技术标准制定决策体现出较强的专业性和公共性,一旦颁布实施,涉及人工智能技术开发、产品设计、生产工艺等多个方面,技术俘获现象更加凸显。此外,人工智能技术标准并非仅涉及专业性、技术性的事实判断,相反,许多技术标准实际上与价值偏好息息相关。有鉴于此,更应从以下两个方面注重创建多元化、制度化的沟通协同渠道,以增进标准制定过程的代表性和参与性。
首先,应当确保标准化技术委员会和专家组的广泛代表性。目前,我国国家人工智能标准化总体组负责人工智能标准总体规划和协调工作。总体组由93家全权成员单位和164家通讯成员单位构成。依据工作章程,仅全权成员单位具有提出标准化建议和技术提案的权利,通讯成员仅享有获得相关信息的权利。目前总体组的副组长由两家人工智能头部企业专家与学界代表共同担任。虽然成员单位名单无法通过公开渠道获得,但与我国现有的2205家人工智能企业这一庞大基数相比,全权成员单位仅占4%。而已有实证研究表明,人工智能中小企业参与标准制定的意愿十分强烈,因此建议以国家人工智能标准化总体组为代表的相关标准组织采用动态更新和自愿申请的方式,面向中小企业和相关联盟、专业团体开放参与渠道,增加代表性和民主性。
其次,优化整合参与渠道,推动多元化意见征求方式并建立常态智能的反馈机制。目前国家标准和行业标准意见征求多通过全国标准信息公共服务平台进行,信息发布渠道单一,征求意见形式传统固化,意见征求反馈机制阙如。而对于人工智能技术标准而言,在技术性之外还关涉伦理与道德,一些人工智能应用更是频繁引发社会关注。因此,建议以国家标准和行业标准为引领,遵循电子参与的客观运行规律,提升征求意见平台的易用性和可及性。对于可能引发广泛关注的技术标准借助“两微一端”等移动互联平台进一步扩大参与渠道,同时建立常态化的意见反馈机制,促进“聚合共识”和“集合众智”效果的达成。
(二)打造多元协同机制提升标准化需求识别分析能力、建立议程设定协调机制
虽然《建设指南》已经明确我国人工智能标准化的顶层设计,但我国目前人工智能基础性标准缺失滞后严重,道德伦理标准进展缓慢、供给不足,部分核心产品以及行业重点应用的国家和行业标准阙如,掣肘人工智能行业的落地应用与发展。应当抓住战略机遇期,对人工智能技术标准制定的议程设置机制加以完善,集中优势资源攻关关键领域,为人工智能标准化工作创造良好开局。
首先,借助新型人工智能合作伙伴关系提升标准化需求识别分析能力。标准规划和议程设置是衔接技术标准供给和人工智能技术实践的重要触点。正如公共政策学家格斯顿所指出的,“议程建构有赖于机构增强识别触发机制的能力”。人工智能具有跨行业、跨领域、多场景应用的特点,因此,在沿用传统的标准化需求调研机制之外,还应探索多元化的新型协同机制提升标准体系规划布局能力,从议程设置这一源头环节入手,合理分配和部署有限的政策资源。
为此,可以秉持更具包容性和参与性的理念,借助新型人工智能合作伙伴关系,协同确定人工智能标准优先制定的议程。所谓人工智能合作伙伴关系是指以长期合作、信息与资源共享为基础,基于信任、对话与承诺促进多方利益相关者互动,通过关系资本的运转与整合形成智力资本,增进集体性知识,提升人工智能治理效能的一种长期协同组织形式。
人工智能合作伙伴关系目前主要有三种组织方式。一种是以促进人工智能发展,提升人工智能全球治理为主旨的人工智能全球合作组织。一种是以政府支持为基础,由产学研等多元利益相关主体成立的国家人工智能合作伙伴形式。还有一种是以人工智能企业自发成立,以平台化方式联结产学研以及专业团体的人工智能合作伙伴关系。例如,谷歌、微软等头部人工智能企业和多家学术科研机构、智库、人工智能专业协会以及联合国儿童基金会等团体共同形成的人工智能合作伙伴关系,在促进人工智能技术标准研究、测试和应用的最佳实践层面持续发挥积极作用,体现了人工智能领域产学研协同组织构建的新思路。
就人工智能标准化需求分析而言,其在本质上属于“模块性”和“颗粒性”决策类型,去中心化的多元主体可以有效汇集分散的投入和努力来有效完成这一任务,形成协同增效的“并行生产”现象,助益于标准化需求分析的精准性、效率性、前瞻性。目前我国《数据安全法》《个人信息保护法》等多部相关法律均强调构建产学研协同机制的重要性,实践中也逐步出现以北京智源人工智能研究院为代表的新型人工智能合作伙伴关系雏形。
但目前人工智能治理领域的协同机制还多停留在理念和原则层面,不仅缺乏清晰的发展思路,政府的引导和支持也有待加强。尤其对于人工智能技术标准议程设定而言,相关团体机构仍然游离于议程构建的决策圈之外。因此,我国人工智能标准化技术组织应当重视标准规划阶段协同机制的构建,探索政府战略引领、市场需求牵引、政产学研协同的创新机制,积极拓展多元化人工智能合作伙伴关系,有效凝聚决策资源,重视人工智能企业、专业团体、科研机构在标准需求识别和议程设定阶段的协同化参与。
其次,建立透明高效的议程设定协调机制。人工智能技术标准关涉众多技术共性领域,所涉主体众多,标准之间的依存性与制约关系复杂。因此相关技术标准的议程设置工作还需要以科学高效的协调统筹机制为依托,避免人工智能技术标准化工作低效率地交叉重复。目前,全国信息技术标准化技术委员会对口ISO/IECJTC1,负责术语词汇、人机交互、生物特征识别、大数据、云计算等标准化工作。全国信标委大数据标准工作组、云计算标准工作组、物联网标准工作组、国家传感器网络标准工作组也在开展相关领域基础标准的研制工作。此外,全国自动化系统与集成标准化技术委员会、全国信息安全标准化技术委员会、全国智能运输系统标准化技术委员会以及全国音频、视频和多媒体标准化技术委员会等多家技术标准组织也在围绕各自领域开展人工智能标准化工作。
多头并进的工作模式虽有利于集中优势资源协同推进《建设指南》设定的宏图规划,但与此同时还可能导致工作边界交叉不清、协调统筹难度较大,致使人工智能标准化工作重复开展甚至发生矛盾冲突的现象。为避免类似情形,可以借鉴美国国家标准与技术研究院(NIST)在议程设定阶段横纵联合、公开透明的协调机制。
在执行第13859号行政命令部署联邦政府对人工智能系统开发和部署标准化的优先需求时,NIST建立了公开、透明、包容、敏捷的协调统筹机制,通过横向统筹的方式与白宫人工智能特别委员会、相关政府机构、私营部门、学术界和非政府实体以研讨会方式共同制定了《联邦参与制定技术标准和相关工具的计划》草案。
该草案详细阐明了人工智能标准制定的优先事项,并提供了有关机构如何开展工作的实用指导。为确保标准议程在草案阶段就获得充分沟通,该计划草案稿还于官方网站展开意见征求和意见反馈。我国新近成立了国家人工智能标准化总体组,未来也应在人工智能议程设定阶段逐步探索建立透明高效且常态化的协调机制,在标准制定的源头环节理顺各相关主体的权限和边界,确保人工智能标准体系的远景目标和近期制定规划依托科学的协调机制得以稳步推进。
(三)构建人工智能治理标准化和法治化衔接与融合机制
就人工智能治理而言,法律规范和技术标准犹如车之两轮、鸟之两翼,对于整合国家强制与社会自治两种资源,调动政府与市场两个方面的积极性具有相辅相成的作用,故融合协同之势备受重视。从法律规范视角来看,目前颁布的多部法律明确了技术标准的重要性和技术体系建设的重要方向。例如,《数据安全法》第10条、第11条和第17条明确了数据开发利用技术标准和数据安全标准在数据安全治理体系中的重要地位和发展方向。虽然技术标准在法律规范中的治理地位日渐凸显,但如上文所述,法律规范未能适当援引或者参考成熟技术标准的情形并不鲜见,法律法规和技术标准之间的配套衔接机制仍然欠缺。对此,应当合理借鉴技术法规转化的国际先进经验,建立法律援引技术标准的适用规则,不断推进法律与标准融合互动与纵深发展。
目前,以数据为核心、以人工智能为应用场景的上位法律体系正在逐步形成,未来在制定下位和次级法律规范时至少应当注意以下三种情形与技术标准的配套衔接。
第一,在法律规范制定中涉及人工智能技术术语和分类等基础性概念时,应当注重与已有的较为成熟的人工智能国家和行业基础共性标准相衔接,避免法律规定与技术实践脱节与悖离。第二,以人工智能产品生命周期为基础,对开发者、设计者、部署者和应用者设定相关义务时,应当注重参考操作规程等相关技术标准,避免所设定的义务不当增加研发成本。第三,法律规范所涉人工智能技术和应用具有跨领域、跨专业、跨场景特性时,应当注重与通用性和交叉性技术标准的衔接,确保相关术语和概念界定在多元领域、场景中使用的连贯与一致。
从技术标准视角来看,以强制性国家标准为代表,技术标准出现了向技术法规靠拢的趋势,法治化进程得到极大推进。例如,2019年12月,国家市场监督管理总局依据《标准化法》制定了《强制性国家标准管理办法》,为提升技术标准的科学性、规范性、时效性奠定了重要的制度基础。技术标准与法律规范配套衔接的首要前提是标准自身质量过硬,能够切实发挥基础性、引导性和支撑性作用。结合我国人工智能立法愿景和人工智能技术标准现状,应当围绕下列三个方面提升标准质量,为技术标准与法律规范的良性衔接与协同奠定基础。
首先,以人工智能法律体系建设为依据,围绕《数据安全法》《个人信息保护法》等基础法律和未来制定的专门性法律,开展人工智能技术标准化需求分析以及新技术新应用领域标准的前瞻性研究,为人工智能法律的落地实施提供衔接基础。
其次,全面提升人工智能技术标准的科学性和规范性,注重标准之间的协调一致。我国技术标准数量众多、内容分散,标准之间存在冲突、交叉和矛盾的情形并不鲜见。例如,我国《汽车驾驶自动化分级》与《营运车辆自动驾驶系统分级》7在自动驾驶分级定义上就出现了冲突和不一致。标准之间的冲突和矛盾不仅不利于行业有序发展,更难以为法律规范提供准确可靠的制度支撑。
最后,鉴于人工智能技术频繁迭代更新,我国技术标准应当建立制度化的标准后评估机制,适时回应技术变革,及时反馈更新。以我国《信息技术词汇第28部分:人工智能基本概念与专家系统》为例,该标准于2001年发布,迄今已逾二十年。而在此二十年间,人工智能专家系统早已历经多个阶段的变革,部分专家系统甚至具备极高的自学能力。与之相对,国际自动机工程师学会自2014年首次提出自动驾驶分级标准SAEJ3016以来,已经于2016年、2018年、2021年发布了三次更新。目前该标准不仅已经成为国际上公认和业内通用的参考标准,同时也于2016年得到美国交通运输部的正式认可,要求自动驾驶汽车制造商有责任依据该标准确定其生产的自动驾驶系统级别。由此可见,技术标准理应与时俱进,若相关技术标准一经制定便止步不前,甚至严重滞后于技术实践的发展,则难免沦为空中楼阁,效能难尽如人意。技术标准产生于科学、技术与实践之中,应当充分发挥先进性、规范性和时效性优势,成为人工智能法治理念真正落实的有力工具。
结语
正如杰克·巴尔金所言:“算法社会中机器人、人工智能体和算法本身是存在危险的,但真正的危险始终存在于那些使用这些装置并利用它们的影响、控制和操纵他人的组织和企业之中。”在众多治理工具中,人工智能技术标准成为识别、预警、管控、防范这些危险的第一道重要防线。
就在本文写就之际,年仅31岁的企业家林文钦驾驶蔚来ES8汽车启用自动驾驶功能后,追尾其他车辆不幸身亡。此前发生的首例“特斯拉自动驾驶车祸致死案”,车辆同样是在开启自动驾驶模式下引发的事故。这两起事故均涉及消费者和厂商对于“自动驾驶”和“驾驶辅助”等术语的理解偏差问题。我国自动驾驶路测虽已在多地展开,智能网联汽车行业发展也呈一派蓬勃之势,但行业内部却仍未统一自动驾驶的名词标准。
相关标准的阙如和滞后,给人工智能技术开发、部署和落地应用带来了连环影响。科学、及时、先进的人工智能技术标准可以善政、兴业、惠民,技术标准化是一项长期、复杂、系统的治理工程。我国人工智能技术标准体系的建立和完善仍然任重而道远,未来仍需对标准制定组织机构职能划分、标准之间的耦合与配套、标准制定后评估机制、技术标准与法律的衔接协同机制以及标准实施机制等重要内容深入研究,以为我国人工智能技术标准化战略提供丰富的理论支持。中
《中国法律评论》
2021年第5期(总第41期)
《中国法律评论》
基 本 信 息
定价:408.00元
出版:法律出版社
期刊号:CN10-1210/D
出版时间:2022年
册数:全年6册装
点击上图即可购买
2022年《中国法律评论》(全六册)
点击阅读原文,即可购刊包邮~
中国法律评论
我刊由中华人民共和国司法部主管、法律出版社有限公司主办。国家A类学术期刊,中文社科引文索引(CSSCI)来源期刊,人大复印报刊资料重要转载来源期刊。我刊秉持“思想之库府,策略之机枢”之理念,立足于大中华,聚焦中国社会的法治问题,检视法治缺失与冲突,阐释法律思想,弘扬法律精神,凝聚法律智慧,研拟治理策略,为建设法治中国服务,为提升法治效能服务,为繁荣法学服务。
《中国法律评论》唯一投稿邮箱:
chinalawreview@lawpress.com.cn
中法评微信公众号投稿邮箱:
stonetung@qq.com
刊号:CN10-1210/D.
订刊电话:010-83938198
订刊传真:010-83938216