人工智能时代算法风险的法律规制论纲
(华东交通大学 人文社会科学学院, 江西 南昌 330013)摘 要: 人工智能时代算法风险的法律规制体系须结合算法、代码、数据、智能机器等之间的内在运行机理加以分层构建。在算法设计由逻辑实现到代码实现演变中,可从算法知识产权保护、算法解释权引入、算法监管等维度对算法黑箱和算法歧视等技术风险加以规制,实现人类世界与程序世界的法治对话;在算法学习由规则学习到自主学习演变中,通过个人信息保护、企业数据保护等方式对数据缺陷、数据滥用、数据垄断等数据风险加以规制,实现理性主义与经验主义的法治对话;在算法决策由辅助系统到智能系统演变中,结合应用场景对算法共谋、算法推荐、人工智能法律责任等算法决策问题提出规制思路,实现辅助系统与智能系统的法治对话。伴随着互联网、云计算、大数据与人工智能的深度融合,“万物互联、人人在线、事事算法”的人工智能时代悄然而至。学理上对人工智能法律问题的研究如火如荼、方兴未艾,但基于研究立场不同,研究分野随之产生。若立足于“人机共处”(人类机器人)研究视角,则对人类安全、法律主体资格、伦理问题等强人工智能应用风险关注甚多,如人工智能创作物的法律性质、无人驾驶汽车交通事故责任、人工智能民事和刑事责任等(1)相关研究参见易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期;叶明、张洁:《无人驾驶汽车交通事故损害赔偿责任主体认定的挑战及对策》,《电子政务》2019年第1期;杨立新:《人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任》,《求是学刊》2018年第4期;叶良芳:《人工智能是适格的刑事责任主体吗?》,《环球法律评论》2019年第4期。。若立足于“人机交互”(人类人类控制机器人方式)研究视角,则侧重于从本源角度对支撑人工智能运行的数据、算法等所引起的风险问题加以研究,如对算法黑箱、算法歧视、数据垄断、信息茧房、大数据杀熟、算法共谋等问题的探讨(2)相关研究参见徐凤:《人工智能算法黑箱的法律规制——以智能投顾为例展开》,《东方法学》2019年第6期;刘友华:《算法偏见及其规制路径研究》,《法学杂志》2019年第6期;洪丹娜:《算法歧视的宪法价值调适:基于人的尊严》,《政治与法律》2020年第8期;崔海燕:《大数据时代“数据垄断”行为对我国反垄断法的挑战》,《中国价格监管与反垄断》2020年第1期;丁晓蔚、王雪莹等:《论“信息茧房”矫治——兼及大数据人工智能2.0和“探索—开发”模式》,《中国地质大学学报》(社会科学版)2018年第1期;时建中:《共同市场支配地位制度拓展适用于算法默示共谋研究》,《中国法学》2020年第2期。。未来人工智能无论是奔向替代人类的方向发展,抑或是朝向模拟、延伸和扩展人类智慧的方向发展,作为当前具有主体性地位的人类在架构“人机融合”理想图景之前,还应对人工智能的内在运行规则和外在运化结果加以合理预判和控制。从学术趋势观之,有学者认为法学界近两年对算法相关法律问题的研究,从最初算法应用层面的大数据处理、人工智能以及算法黑箱问题的研究转向算法风险层面(3)熊鑫:《风险社会背景下算法的构建及司法运用研究》,《四川行政学院学报》2020年第4期。,理论转向反映了学界对算法风险研究的逐步深入(4)以“算法规制”和“算法风险规制”为主题在中国知网进行检索,可以发现,2018—2020三年文献量,“算法规制”主题分别为9篇、44篇、55篇;“算法风险规制”主题分别为0篇、7篇、8篇。而在2018年之前,学者鲜有对算法或算法风险规制的直接讨论。。当前,学界对算法风险分类不尽一致,既有用户画像、算法黑箱、算法歧视、算法操控之分(5)邵国松、黄琪:《算法伤害和解释权》,《国际新闻界》2019年第12期。,亦有信息茧房、隐私泄露、算法歧视(6)孙建丽:《算法自动化决策风险的法律规制研究》,《法治研究》2019年第4期。以及“社会风险”、“法律风险”、“政治风险”(7)孙逸啸、郑浩然:《算法治理的域外经验与中国进路》,《信息安全研究》2021年第1期。之分等,不胜枚举。学界贤达对算法风险的法律规制虽不乏“点上突破”式的研究,但缺乏“线上贯通、面上展开”式的系统性研究。算法风险的法律规制研究总体呈现平面化、散状化、碎片化态势,较易陷入“头痛医头、脚痛医脚”式的规制定式。如一些研究对算法黑箱等技术类风险的研究偏重于从算法透明度、算法监管等角度加强防范(8)谭九生、范晓韵:《算法“黑箱”的成因、风险及其治理》,《湖南科技大学学报》(社会科学版)2020年第6期。;对数据类风险的讨论多止于算法偏见或算法黑箱等风险成因的讨论(9)赵学刚、马羽男:《算法偏见的法律矫正研究》,《辽宁大学学报》(哲学社会科学版)2020年第5期。,缺乏将诸如个人信息保护、企业数据保护等纳入算法风险规制整体框架之中;一些研究对算法共谋(10)周围:《算法共谋的反垄断法规制》,《法学》2020年第1期。、大数据“杀熟”(11)邹开亮、刘佳明:《大数据“杀熟”的法律规制困境与出路——仅从〈消费者权益保护法〉的角度考量》,《价格理论与实践》2018年第8期。、智能机器民法和刑法责任(12)参见司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》2017年第5期;刘宪权:《人工智能时代的刑事风险与刑法应对》,《法商研究》2018年第1期。等决策类风险则分别从反垄断法、消费者权益保护法、民法、刑法等视角进行了探讨,由于算法决策风险场景化规制侧重于部门法领域某一具体法律问题的剖析,较易忽略规制前移问题。纵然学界对算法风险规制保持了一定的关注,但基于人工智能运行机理而进行算法风险的分层分类规制并非理所当然的理论范式。“算法规制需要建立谱系,将零敲碎打的制度安排及学理思考整合为系统性的思考图式”(13)苏宇:《算法规制的谱系》,《中国法学》2020年第3期。。人工智能运行流程可破觚斫雕,简要描述为“隐含层(建立算法模型)→输入层(将实际数据置入算法模型)→输出层(得到输出结果)”,也即存在着算法技术层、算法基础层、算法结果层三个重要阶段(14)类似划分如有学者便将人工智能产业结构划分为技术层(算法、语言处理、计算机视觉等)、基础层(数据、芯片、传感器、生物识别等)、应用层(机器人、智能应用、可穿戴设备等)。参见房超、李正风等:《基于比较分析的人工智能技术创新路径研究》,《中国工程科学》2020年第4期。,并由此对应于算法技术类、数据类、决策类风险。从横向维度中人工智能各要素面上展开观之,算法技术层、算法基础层、算法结果层皆有其内在运行机理和风险主题,算法技术层要完成算法技术的逻辑实现到代码实现转变,可能产生算法黑箱、算法歧视等风险;算法基础层要完成算法学习的规则学习到自主学习转变,可能产生数据滥用、数据垄断等风险;算法结果层要完成算法决策的辅助决策到智能决策转变,可能产生决策失控等风险。从纵向维度中人工智能各要素线上贯通观之,诚如“软件开发各个阶段之间的关系不可能是顺序的、线性的,而应该是带有反馈的迭代过程”(15)周玉萍主编:《信息技术基础》,北京:清华大学出版社,2017年,第242页。,算法技术层、算法基础层、算法结果层之间并非孤立体,而是相互依存、相互传导的整体,如数据喂养算法,算法决策生成新的数据,新的数据又不断优化算法,任何一个阶段所产生的风险皆可引发算法风险连锁反应,如算法偏见与数据偏见在相互影响、转化的同时,任何一种偏见亦皆可引起算法决策偏见,并循环往复下去。《新一代人工智能发展规划》明确提出要“实现对人工智能算法设计、产品开发和成果应用等的全流程监管”。聚焦某一算法风险主题的规制对完善算法风险规制体系无疑是具有重要意义的,但算法作为人工智能的“大脑”,贯穿于人工智能设计开发、后台运行、场景应用等全过程,须以算法为逻辑线索,立足算法技术层、算法基础层、算法结果层之间的不同思考维度,把握人机交互与人机共处两种不同面向,拓展规制研究视野,动态、系统考量算法风险规制问题。从算法技术、算法学习、算法决策三个切面,人机交互与人机共处两种视角,厘定横向维度中不同阶段的算法风险,条分缕析纵向维度中不同层面算法风险转化逻辑,并据此拿出周全的因应规制之策,构建集算法技术类风险、数据类风险、决策类风险于一体的全流程规制体系,方可为完善我国人工智能法治体系提供更为有益的启示。一、从逻辑实现到代码实现:算法的技术风险规制框架
算法勾连人工智能应用全过程,上承数据,即依赖于现有数据结构进行算法建模、设计;中连程序,即以程序设计语言编码算法;下接应用,即算法自动化决策。然而,算法并不存在技术中立性(16)孙莹:《人工智能算法规制的原理与方法》,《西南政法大学学报》2020年第1期。,数据的社会性、算法的价值偏好以及决策的偏见更是强化人工智能的价值非中立性实质(17)朴毅、叶斌等:《从算法分析看人工智能的价值非中立性及其应对》,《科技管理研究》2020年第24期。。人的意志因素可融入算法以及算法技术复杂性,导致算法偏见、算法黑箱不可避免,算法运行不可控因素随之增加。(一)算法的运行机理——算法设计与算法实现
算法可被界定为一系列“已被编码的程序”或者“为了快速实现特定目标对一组数据进行处理的逻辑步骤”(18)Tarleton Gillespie,Pablo J.Boczkowski,eds.,Media Technologies:Essays on Communication,Materiality,and Society,Cambridge,MA:MIT Press,2014,p.167.。作为一种解决特定问题的步骤或方法的逻辑思维,算法是有限序列指令,生发于程序之前,多以自然语言、伪代码、流程图等多种方式加以描述。而代码是由字符、符号或信号码元以离散形式表示的一系列计算机指令。程序员运用诸如C++、JAVA等计算机语言所编写的计算机程序被称为源程序或源代码。机器学习语境下,“模型的求解是对给定的输入找到针对数据的一系列处理步骤(即算法),以得到预期的输出。用计算机求解实际问题还需要把模型映射到存储器并将算法转换为程序”(19)沈华:《数据结构、算法和程序之间关系的探讨》,《计算机教育》2013年第4期。。算法与代码关系可描述为:算法欲在计算机世界之中获得立锥之地,则需将其转换成计算机能够理解的源代码形式,方能使人的抽象思维为计算机所感知。此时便需要既懂自然语言又懂程序设计语言的程序员运用某种程序设计语言将算法编写成源程序代码,使算法模型映射至存储器中,进而为计算机完成某种特定任务提供指令。综合观之,算法属逻辑实现,编程属于代码实现,为实现同一种算法可通过BASIC语言、C语言、JAVA语言、HTML语言等不同的程序语言编写源代码。算法设计与算法实现分属人类世界和程序世界两个不同的范畴。正因如此,“代码创设了算法的运行方式,其亦具有反向管理算法的权能”(20)崔靖梓:《算法歧视挑战下平等权保护的危机与应对》,《法律科学》2019年第3期。,算法规制在一定程度上可借助代码规制实现。(二)算法的技术风险——“算法黑箱”和“算法歧视”问题
算法运行本质是数据输入、输出的过程,但在输入输出之间存在无法解释的“黑洞”,引发“算法黑箱”问题。究其原因,其一,算法技术的复杂性,使算法设计、开发、应用等阶段分散于不同的研发主体。同一算法还可通过不同程序设计语言加以编码,思想与表达之间存在诸多可能。无论是业内人员,还是其他人员,系统了解算法内部运行机理并非易事。其二,多种算法的叠加及多个隐含层的存在加剧了算法的不可解释性风险。“算法有优先级排序算法、分类算法、关联度算法和滤波算法等多种类型,而自动化决策往往不是单一的某个算法可以完成的,有时可能需要多种算法的叠加”(21)张淑玲:《破解黑箱:智媒时代的算法权力规制与透明实现机制》,《中国出版》2018年第7期。。人工智能算法行为是一种由算法底层的简单规则生成的复杂行为,不是边界清晰的单个行为而是集体行为的演化,具有涌现性(22)刘劲杨:《人工智能算法的复杂性特质及伦理挑战》,《光明日报》2017年9月4日,第15版。。以深度学习为代表的算法,在每个学习步骤或环节不再存在相对独立的算法,机器学习的各个组成部分被视为一个整体,不同算法的一体化运用已然成为常态。其三,基于神经深层网络的深度学习元从数据中学习特征并自动生成结果,在输入层与输出层之间存在着复杂的线性变换和大规模的神经元连接也即隐含层,很难准确解释其内部规则。“算法黑箱”将会导致人工智能决策不可解释,进而引起算法决策失控。有学者指出:在司法和医疗等一些不可逆的决策领域,由于无法对决策过程做出充分而有效的解释,一旦通过算法进行最终决策,算法的不可解释性将会使基于这一技术的医疗诊断或者司法裁决很难令人信服(23)高奇琦:《互联网与人工智能发展:风险及治理》,《中国社会科学报》2019年3月29日,第5版。。与此同时,“一系列的数据代码背后是算法主体的行为目标和价值选择”(24)金梦:《立法伦理与算法正义——算法主体行为的法律规制》,《政法论坛》2021年第1期。。以数学形式或计算机代码表达意见的算法并非完全客观,算法开发和设计者可能将自己持有的偏见嵌入智能算法之中(25)苏令银:《透视人工智能背后的“算法歧视”》,《中国社会科学报》2017年10月10日,第5版。。“算法设计的效率导向、作为算法运行基础的数据之偏差与算法黑箱造成的透明度缺失共同触发了算法歧视”(26)崔靖梓:《算法歧视挑战下平等权保护的危机与应对》。。申言之,人类主观情感可能隐形化身于算法之中加以表达。算法作为一种数学表达,其在设计和开发中可能通过特征选择、损失函数选择、超参数调节等方式夹带着算法开发、设计者的主观价值判断。数据在人工智能中的本源性地位,使得经过主观选择的数据运用于算法设计之中,极易产生“偏见进,偏见出(BIBO:Bias In,Bias Out)”(27)D.U.Himmelstein,S.Woolhandler,“Bias in,Bias out:A Reply to Sheils,Young,and Rubin”,Health Affairs,Vol.11,No.2,1992.的现象。一旦数据和算法被人类主观偏见裹挟,算法决策领域中的算法歧视现象将难以避免。谷歌图像识别算法曾将黑色人种图片标记为“大猩猩”;微软公司的人工智能聊天机器人Tay上线首日,便被网络使用者训练出具有反犹太人、性别歧视、种族歧视等不良价值取向,不到24小时便被迫下线。数据偏见和算法偏见引发的叠加效应,较易引发公平正义、社会稳定问题。如以带有偏见的算法来决定贷款是否获批、保险费率、具体量刑幅度、人员录用等,将会加剧社会不平等,引起社会失调,增加社会不稳定因素。(三)人类世界与程序世界的法治对话:算法技术风险规制要旨
从算法设计到算法实现,完成了由自然语言向程序语言的转变、抽象思想向具体表达的转变。在技术层面对算法加以规制,须结合这种转变过程加以综合考量。1.算法知识产权保护中的技术风险规制。第一,包含算法在内技术方案的专利权保护可促进算法公开。算法本身作为一种智力活动规则和方法,不具有专利适格性。新修订的《专利审查指南》明确规定,“对一项包含算法特征或商业规则和方法特征的权利要求是否属于技术方案进行审查时,需要整体考虑权利要求中记载的全部特征”。当算法与特定应用领域结合,并解决了该领域内的技术问题,所述技术特征功能与算法特征相互支持、相互作用,共同构成了解决某一技术问题的技术手段,并且能够获得相应的技术效果时,对包含算法在内的技术方案并不能排除授予专利权的可能性。由于存在专利申请公开程序或专利授权公布程序,故算法的专利权保护对促进算法透明性具有积极意义。但对包含算法特征的技术方案的专利权保护并不能囊括所有算法,以专利权规制算法风险具有较大局限性。第二,软件著作权保护有利于算法的特定公开和算法行政监管。依据“思想—表达”二分法,软件著作权主要保护计算机程序及其相关文档,不延及开发软件所含思想、操作方法或者数学概念等。算法作为一种抽象思想或智力活动规则,排除在著作权保护范围之外。但算法的实现依赖于源程序,而源代码作为算法的表达方式,可通过软件著作权进行保护。软件著作权登记需要提交软件开发情况、软件用途和技术特点、源程序、计算机文档等材料,有利于算法公开及备案,便于算法行政监管。即使如此,欲以软件著作权保护源代码的方式将算法技术风险控制在可控范围并不具有普适性。首先,计算机软件著作权保护权不延及思想,软件著作权人并不需要向社会公众公开软件技术方案或技术构思。其次,程序是算法的真子集,通过软件著作权保护算法的范围也仅局限于对算法加以编程后的源程序。再次,基于深层神经网络算法等发展,显性编程并非必须,也即“借助机器学习,程序员则无需将指令译成代码,只要操作系统即可”(28)《机器学习不需要人工编码?》,《中国经济周刊》2016年第23期。,借助代码保护对算法加以控制的方法将无适用之地。最后,在部分软件公开程序源代码的背景下,“尽管开源软件允许用户自由的使用、复制、修改和再发布,但这种行为并不是毫无限制的,用户必须在遵循许可协议的条件下使用开源软件”(29)肖建华、柴芳墨:《论开源软件的著作权风险及相应对策》,《河北法学》2017年第6期。,未来一段时间内闭源软件仍占主流。第三,算法商业秘密保护可在一定程度上促进算法创新。通过商业秘密保护可突破传统知识产权保护的期限性、客体性等限制,算法开发者和利用者通过算法的商业秘密保护可获得更高的算法权力,进而促进算法创新。然而,算法的商业秘密保护可能与算法透明原则之间存在冲突。诚如有学者所言,算法的商业秘密保护将面临算法操纵被视为可以合理付出的代价,算法黑箱亦被视为算法正常情形的尴尬境地(30)陈景辉:《算法的法律性质:言论、商业秘密还是正当程序?》,《比较法研究》2020年第2期。。过于倚重商业秘密保护,除了存在“客体和主体界定困难、保密难度较大、保密成本偏高和价值性证明不易等缺陷外”(31)李宗辉:《论人工智能的商业秘密保护》,《中国发明与专利》2019年第2期。,算法的商业秘密保护还与算法的可解释性、透明度等存在较大冲突,加剧“算法黑箱”困境。综合观之,算法的知识产权保护在一定程度上对促进算法公开、算法监管、算法创新具有积极意义,但受制于专利权保护适格性要求、软件著作权保护仅延及表达、商业秘密保护的保密性等限制,算法技术风险的知识产权保护并不能成为算法技术风险的主要规制路径。2.引入算法解释权。算法解释权指“当自动化决策的具体决定对相对人有法律上或者经济上的显著影响时,相对人向算法使用人提出异议,要求提供对具体决策解释,并要求更新数据或更正错误的权利”(32)张凌寒:《商业自动化决策的算法解释权研究》,《法律科学》2018年第3期。。对算法解释权在我国设立的必要性,学理上不乏从算法可理解性、权利冲突等角度加以质疑。如一些学者认为,旨在提升算法透明度的硬性规定“既不可行,也无必要”(33)沈伟伟:《算法透明原则的迷思——算法规制理论的批判》,《环球法律评论》2019年第6期。,披露计算机源代码和增设算法解释权均存有各种弊端。尤其是,算法解释权对以深度学习为代表的人工智能算法根本不具备技术上实现的可能性;对于非深度学习算法,算法解释权也有扰乱商业实践的隐忧,算法解释权应为我国法律所拒绝(34)林洹民:《个人对抗商业自动决策算法的私权设计》,《清华法学》2020年第4期。。在存在个人信息保护制度、消费者权益保护制度下,算法解释权无独立存在之必要(35)贾章范:《论算法解释权不是一项法律权利——兼评〈个人信息保护法(草案)〉第二十五条》,《电子知识产权》2020年第12期。。然而,技术的非中立性和算法的复杂性,将使依赖人工智能作出的关键决策判断具有较高的风险。除了功能偶发性失常所引发恐慌之外,人工智能很可能会超出人类已有的认知界限,知识的终点无法预测,更是增加了人们对于人工智能功能的恐惧(36)孙波、周雪健:《人工智能“伦理迷途”的回归与进路——基于荷兰学派“功能偶发性失常”分析的回答》,《自然辩证法研究》2020年第5期。。人工智能风险会引发人工智能恐惧,而恐惧本身又可使人类对人工智能“投鼠忌器”,最终导致人工智能发展裹足不前。由此可见,纵然算法解释面临着技术、法律上的诸多难题,但亦不能因噎废食,否定算法解释权存在的意义。算法解释权可消解人工智能的可解释性难题,建立更透明、更鲁棒(37)“鲁棒控制”是针对机器人不确定性的基本控制策略,“鲁棒性”是指控制系统在一定(结构、大小)的参数摄动下,维持某些性能的特性。参见谢明江、代颖、施颂椒:《机器人鲁棒控制研究进展》,《机器人》2000年第1期。、更信赖的人工智能系统,确保人工智能在更广领域的应用。算法解释权作为一种请求权,“向谁请求、由谁请求、请求内容、算法问责”等问题需根据特定场景、决策类型加以明晰。其一,在“向谁请求、由谁请求”问题上,人工智能牵涉算法设计、产品开发、成果应用等环节,算法设计者、算法使用者(数据控制者)可能分属于不同的主体,算法解释的主体应根据特定场景循名责实。在算法决策对个人隐私、信息保护产生影响时,受算法决策影响的相对人可依就近原则径直向算法使用者请求算法解释;对影响公共利益、国家安全等公共算法,政府监管部门可要求算法设计者、使用者对算法分别加以决策解释。其二,就“请求内容”的问题,算法解释的范围应根据具体场景加以界定。学理上探讨的算法解释范围包括决策系统的逻辑、意义、设想后果和一般功能以及具体决策的基本原理、理由和个体情况(38)张恩典:《大数据时代的算法解释权:背景、逻辑与构造》,《法学论坛》2019年第4期。;或至少应包括数据(原始数据和训练数据等)、代码(算法的运算法则)、决策目标、决策结果、合规情况、利益冲突情况(算法的关联方及潜在的利害关系)、数据使用方法等(39)包康赟:《论算法解释的基本原则——来自司法公开的启示》,《时代法学》2020年第6期。。然而,算法决策场景、决策类型的不同,决定了算法解释范围并无统一定式。可依据公共算法和商业算法不同类型制定算法解释标准清单,并就每一项解释对象的适用条件加以规定,且对基于深度学习的算法亦应规定特殊的解释清单。同时可参照《专利审查指南》给出实施例的做法,就每种适用情形给出具体解释实例,避免因算法技术复杂性造成非技术人员的难以理解。其三,算法解释应以必要、合理为原则,解释的对象范围、人员范围等须控制在一定限度之内。对涉及影响个人信息利益的数据挖掘算法解释,按照请求的相对性,仅向该相对人解释即可,而不必将人员范围扩大至社会公众;算法解释不应侵害他人在先权利等。其四,算法解释要与算法问责做好衔接。对经过解释的算法,相关部门可依情形分别采取公开源代码、修正后使用、限制使用、禁止使用等措施。同时将算法解释的结论应用于具体个案之中。如对算法共谋问题,由于涉嫌垄断行为,危害公共市场竞争秩序,竞争执法机关既可要求垄断行为实施者也可要求算法设计者进行算法解释,并将算法解释结论作为判定是否构成垄断行为的考量因素。3.算法的行政监管。人工智能的治理主要包括政府主导模式、第三方主导模式和企业自我规制模式(40)汪亚菲、张春莉:《人工智能治理主体的责任体系构建》,《学习与探索》2020年第12期。。由于算法技术牵涉公共利益,除了加强企业内部审查以及引入算法解释权、算法知识产权保护等加以私法规制外,行政机关亦应加强对算法的监管。当前,学界对建立算法专门监管主体、算法审查机制、算法监管的技术标准内容与算法并重的双轨审查机制、算法的分层分类的多元监管分别进行了探讨(41)参见孙建丽:《算法自动化决策风险的法律规制研究》;靖鸣、娄翠:《人工智能技术在新闻传播中伦理失范的思考》,《出版广角》2018年第1期;江溯:《自动化决策、刑事司法与算法规制——由卢米斯案引发的思考》,《东方法学》2020年第3期;张凌寒:《风险防范下算法的监管路径研究》,《交大法学》2018年第4期;倪弋:《网络时代,应如何规范“算法”》,《人民日报》2018年7月4日,第19版。,但对算法立体式监管体系构建的关键共性问题讨论尚存不足。第一,针对算法监管主体设置,考虑到算法的技术复杂性和场景应用的多元性,可设立专门的数据和算法监管机构,负责算法的审核、管理、解释标准制定等事项。第二,针对算法监管工具的选择,可综合采用算法认证、算法备案、算法评级、算法有限披露、算法有效性测试、内容审查、监管接口、监管沙箱(42)沙箱是法律监管外的一个“安全空间”,准入的企业可在其中测试创新产品、服务、业务模式和交付机制,监管沙箱可缩短创新想法进入市场的时间。参见柴瑞娟:《监管沙箱的域外经验及其启示》,《法学》2017年第8期。目前监管沙箱在金融科技领域探索较多,今后可将监管沙箱模式在算法应用重点领域加以推广,在促进算法创新同时,亦有利于创新算法行政监管方式,进行算法的动态监管。等手段,既强调对算法技术层面的过程监管,又重视对算法决策的结果监管。如在金融领域,“开发公司可根据宏观金融形势,每月或每季度对算法模型进行检验,并根据市场的波动规律对算法模型进行检查验证,修改完成后需向监管部门进行备案”(43)陈慧华:《监管视角下智能投顾算法的应用风险治理研究》,《保险职业学院学报》2020年第3期。;又如依据算法评级为算法使用设定准入门槛。第三,针对算法监管方式,可分为决策前、决策中、决策后的监管。某种算法采取何种监管方式,须综合考量算法类型(公共算法、商业算法)、算法分级、应用场景等因素。对影响国家安全和公共利益的公共算法,既需要算法有效性测试、算法评级、算法备案等事前监管,还可能需要通过接入监管接口进行动态监管以及对算法决策内容加以事后审查等。第四,针对算法监管的行政责任,对于过程监管,除了对未履行监管要求承担相应的不利的后果之外,算法监管机构可视情形对某一算法作出自由使用、限制使用、禁止使用等决定;对于结果监管,依据行为违法性质及所适用的法律来确定相应责任。算法从逻辑实现到代码实现,是人类世界与程序世界对话的发端,但受算法技术的复杂性、人类主观性偏见等影响,引发了算法黑箱和算法歧视等技术类风险。算法贯穿人工智能系统运行的全过程且存在迭代过程,导致算法技术类风险“感染性”极强,可引发算法数据类、决策类风险连锁反应。通过算法知识产权保护、引入算法解释权、算法行政监管等措施,可从源头上减少算法风险的发生。有学者提出,对机器进行双重意义的编码,将人类所要实现的法律目的写入法律,同时写入控制机器的软件(44)孙那:《人工智能的法律伦理建构》,《江西社会科学》2019年第2期。,进而实现法律规则的代码化(45)马长山:《人工智能的社会风险及其法律规制》,《法律科学》2018年第6期。,也即代码即是法律,以代码规制代码(46)劳伦斯·莱斯格:《代码2.0:网络空间中的法律》,李旭、沈伟伟译,北京:清华大学出版社,2009年,第89页。。然而,以深层神经网络技术为代表的深度学习发展,算法实现由显性编码向非显性编码转变,寄希望于借助代码规制实现算法规制具有较大局限性,未来对算法技术类风险的规制应适应这种变化,精耕细作算法解释权、算法行政监管等规制方式和手段,确保人类世界与程序世界和平对话,封住算法风险“潘多拉之盒”。二、从规则学习到自主学习:算法的数据风险规制框架
早期的人工智能以与人类逻辑推理过程相符的推理方法去验证命题或谓词正确与否,或者学习推导出新规则新知识(47)吴飞:《人工智能:从规则学习,到数据驱动,再到能力增强》,《杭州科技》2017年第2期。,属于有监督学习。随着机器学习的发展,人工智能的发展从依赖诸多编程规则软件的规则学习阶段向基于机器学习尤其是深层神经网络自我反复训练数据的无监督学习系统阶段转变。基于数据库编码的计算机自动化逐渐让位于基于机器学习的算法自动化,数据加持机器学习模型,在范围不确定的环境中进行规律挖掘或模式识别,并逐步向基于神经网络的超级自动化迈进(48)唐林垚:《“脱离算法自动化决策权”的虚幻承诺》,《东方法学》2020年第6期。。机器学习语境下,算法基于自身已有模型对新输入数据的排列和分类,除了依赖于算法框架,更依赖于用于训练人工智能的大数据(49)吴午东:《人工智能生成内容与传统版权制度的分歧》,《山东社会科学》2020年第7期。。数据质量与自主学习能力的密切关系,防范数据风险对人工智能发展具有重要意义。(一)算法与数据的内在逻辑
机器学习依赖算法模型,而算法模型的形成离不开海量数据的喂养和训练。算法的应用对象主要是数据结构,在算法研发中,往往先要进行数据结构的调整和搭建,以保证算法对其有充分的适应性(50)范玉红:《数据结构、算法和程序之间关系分析》,《中国新通信》2017年第18期。。在给定已知数据前提下,机器学习算法的步骤可分为“确定模型→训练模型→使用模型”。人类在由传统物理社会牛顿的“大定律,小数据”技术范式向人工智能算法时代默顿的“大数据,小定律”技术范式转移过程中(51)王飞跃:《人工智能:第三轴心时代的来临》,《文化纵横》2017年第6期,以量子力学为基础,利用规则由小数据产生大数据,再由大数据练就“小定律”,通过“小定律”精准地掌握知识(52)郑智航:《人工智能算法的伦理危机与法律规制》,《法律科学》2021年第1期。,这里的“小定律”便可视为基于大数据训练所生成的算法模型。计算机科学家尼克劳斯·沃思提出“数据结构+算法=程序”。机器学习语境下,对数据、算法、程序(代码)、算法决策之间的关系可进一步描述为,数据结构→算法模型(输入实际数据)→代码形式+数据结构(可执行程序)→(输出)算法决策。总体来看,人工智能经历了规则学习、机器学习(深度学习)发展历程,从依赖编程逻辑的规则学习转向非显性编码的深度学习,由模仿人类理性行为的系统转向模拟基于数据驱动的深层神经网络系统,对数据愈发依赖。(二)基于数据问题所引起的算法风险
“基础数据的不完善将直接影响算法输出的科学性”(53)李婕:《算法规制如何实现法治公正》,《检察日报》2018年7月10日,第3版。。“无论学习算法有多好用,也只是在获得数据时好用。控制了数据的人也就控制了学习算法”(54)佩德罗·多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,黄芳萍译,北京:中信集团出版社,2017年,第58页。。算法开发离不开数据的喂养,而一旦数据本身出现缺陷或偏见,将可能使“算法决策可以强化已有的社会歧视模式,继承人类决策的某种偏见”(55)B.Lepri,N.Oliver,et al.,“Fair,Transparent,and Accountable Algorithmic Decision-making Processes”,Philosophy & Technology,Vol.31,No.4,2018.。在数据资源向数据资产的转变过程中,数据属性、数据主体、数据形式、数据价值等不断发生变化,谁拥有数据、谁控制数据等问题并未定于一尊。数据法律保护的阙如导致数据缺陷、数据滥用等常有发生,影响着数据的获取及流通,为算法在具体领域运用产生诸如歧视、安全、隐私等风险埋下了隐患。有学者指出:算法训练时采用的数据和实际输入的数据在数据质量上重合度愈高,愈能得出符合预期目标的结论数据。如果用于训练算法的数据存在诸如不完整、陈旧、不相关等缺陷,无论算法设计得多么完美,最后的数据输出也是错误的(56)张超:《新闻生产中的算法风险:成因、类型与对策》,《中国出版》2018年第13期。。数据在人工智能中的本源性地位,数据错误极易引起结果失真。同时,训练数据与实际输入数据之间存在偏差,也会产生内容失实、信息错误乃至偏见;若未经许可将他人隐秘信息和个人信息纳入输入范围,还可能存在侵犯他人隐私权和个人信息权等风险。(三)理性主义与经验主义的法治对话:算法数据风险规制要旨
算法风险的规制不能拘泥于算法本身的规制。“当对数据进行严格保护的时候,其实就在源头上对人工智能进行了规制”(57)汪庆华:《人工智能的法律规制路径:一个框架性讨论》,《现代法学》2019年第2期。。“算法规制本身就体现着对数据收集、利用层面的规制”(58)F.H.Cate,M.S.Viktor,“Notice and Consent in a World of Big Data”,International Data Privacy Law,Vol.3,No.2,2013.。为防范数据层面的风险对算法所造成的影响,确保数据的流通和共享,需对个人信息保护、企业数据保护等加以合理制度安排。1.原始数据的适度保护。“垃圾输入,垃圾输出(GIGO:Garbage in,Garbage Out)”(59)Y.Kim,J.Huang,et al.,“Garbage in,Garbage Out:Data Collection,Quality Assessment and Reporting Standards for Social Media Data Use in Health Research,Infodemiology and Digital Disease Detection”,Journal of Medical Internet Research,Vol.18,No.2,2016.,数据人格权对原始数据的适度保护,在保护原始数据生成者利益的同时,亦有利于保证高质量数据的持续供给,防止诸如大数据杀熟和信息茧房现象的发生。由于“当代个人信息保护法的诸项原则以经济活动中的个人信息采集和处理为主要假设场景”(60)刘文杰:《被遗忘权:传统元素、新语境与利益衡量》,《法学研究》2018年第2期。,若对数据人格利益采取超越技术发展水平的保护,将可能引起数据流通的“梗阻”,使算法缺乏数据的持续供给,影响算法决策的科学性,进而阻碍人工智能产业发展。原始数据主要包括私密信息、个人信息等,如用户基于某种事实行为而形成的数据。《民法典》颁布之后,基于原始数据的形态不同,对隐私和个人信息的保护加以区分的同时,并对个人信息的保护加以专门规定。但《民法典》并未将个人信息的保护进行正面确权,而是将其视为一种防御性利益予以保护(61)李媛:《民法典为个人信息保护确立方向》,《中国社会科学报》2020年7月22日,第4版。。纵然数据的获取和利用受到个人信息处理规则的约束,数据获取须经过原始数据主体的许可或授权,但这种约束须保持在合理的限度。企业数据主要包括原生数据与衍生数据,原生数据主要指汇集个人数据而形成的规模化数据。“原生数据被记录、存储后,经过算法加工、计算、聚合而成的系统的、可读取、有使用价值的数据”(62)杨立新、陈小江:《衍生数据是数据专有权的客体》,《中国社会科学报》2016年7月13日,第5版。称之衍生数据。司法实践中形成的“三重授权”原则,明晰了获取企业数据时“用户、数据控制者、第三方”之间的授权规则,但对不具有识别性的企业数据的获取,个人信息处理规则并不能延及于此,否则数据流通将受到极大限制。诚如学者所言,个人数据可以基于不同的目的进行开发和使用,产生不同的增值服务或衍生应用,而这种多目的或多用途的适用之间又会产生更复杂和更高级的应用(63)吴伟光:《大数据技术下个人数据信息私权保护论批判》,《政治与法律》2016年第7期。。所以,考虑到数据收集目的与利用目的之间的偏差,当企业数据不具有可识别性时,企业数据形成阶段的用户授权规则并不能对后续衍生数据的利用加以约束。2.企业数据的权利保护及行使限制。衍生数据虽然是算法决策的产物,但从动态观之,其之后亦可成为算法建模时的训练数据。当前,企业数据保护主要存在立法赋权模式和行为规制两种模式(64)宁立志、傅显扬:《论数据的法律规制模式选择》,《知识产权》2019年第12期。。有学者认为,数据用益权属于一项新兴财产权,根据不同主体对数据形成的贡献来源和程度的不同,应当设定数据原发者拥有数据所有权与数据处理者拥有数据用益权的二元权利结构,以实现数据财产权益分配的均衡(65)申卫星:《论数据用益物权》,《中国社会科学》2020年第11期。。此外,按照“数据权属—数据获取与使用—数据控制”的规则框架,在肯认数据权基础上,还可依据反不正当竞争法对数据获取和使用进行调整(66)曹胜亮、张晓萌:《人工智能时代数据竞争的法律规制》,《学习与实践》2019年第10期。。然而,数据权利保护方式亦广受质疑,一些学者认为依靠传统财产权路径,存在阻碍数据流通以及权利配置中权利客体不清晰、缺乏法律排他性、权利内容和范围缺乏公示等问题,数据治理合同路径更契合当前数据经济的发展(67)金耀:《数据治理法律路径的反思与转进》,《法律科学》2020年第2期。。通过赋权模式保护数据隐藏着逻辑漏洞与风险,并可能制约数据、人工智能行业的发展,应构建以合同为中心的中间权模式(68)张素华、李雅男:《数据保护的路径选择》,《学术界》2018年第7期。。数据合约保护模式绕过权利保护寄希望于合约对数据交易方的行为加以一定规范,虽具有一定的灵活性,但亦存在合同具有相对性、产权不清晰导致数据交易成本过高、数据投资激励不足等问题,从而制约着数据的创新和流通。算法建模和机器学习过程中,离不开海量的企业数据,若对企业数据采取绝对性的权利保护方式,将可能给数据流通形成阻碍;若不对企业数据加以保护,将可能挫伤数据创新动力,进而影响数据生成、算法训练、机器学习。对基于原始数据的加工和处理所形成的企业数据尤其是衍生数据的保护,应平衡好数据原始主体与数据经营者、数据流通与数据创新等之间的关系,并将其作为一种新兴权利并纳入知识产权体系保护之中,但对其权能内容应加以合理设计和限制,确保数据创新、数据流通、数据共享之间的互动发展。3.原始数据的删除、移植、修改。数据的必要删除、有序流动、合理修改可为算法提供干净、高质量的数据,进而推动人工智能的发展。其一,被遗忘权和数据携带权皆起源于欧盟《一般数据保护条例》。对被遗忘权的本土化,学界进行较为广泛的讨论。有学者认为,从欧盟数据保护体制来看,“被遗忘权”具有遗忘权与删除权两个维度(69)张里安、韩旭至:《“被遗忘权”:大数据时代下的新问题》,《河北法学》2017年第3期。,其中,删除权针对的是缺乏法律基础的信息,以排除对信息的不法收集和处理;被遗忘权所针对的信息则是在合法的基础上收集、使用、加工、传输的已过时、不相干、有害和不准确的信息(70)满洪杰:《被遗忘权的解析与构建:作为网络时代信息价值纠偏机制的研究》,《法制与社会发展》2018年第2期。。还有学者认为,被遗忘权应改为删除权,且纳入个人信息权之中(71)郑志峰:《网络社会的被遗忘权研究》,《法商研究》2015年第6期。。被遗忘权的权能主要在于删除,试图根据删除信息的不同划分为遗忘权与删除权实无必要。在人这一主体身份“被数据化”背景下,被遗忘权作为一项主动性权利,可打破固有数据记忆,维护人格尊严、减少隐私泄露,有效纾解记忆与遗忘的困境,保证数据合理流动。但凡事过犹不及,“被遗忘权并不是任意删除,也不是对个人信息、人生痕迹的任意涂改或掩过饰非”(72)满洪杰:《被遗忘权的解析与构建:作为网络时代信息价值纠偏机制的研究》。。基于无监督机器学习的人工智能系统离不开多元、全面的数据,而删除决定其关键规则的数据可能会降低人工智能的精确性。故在权利设置中,应对被遗忘权的主体和客体等加以严格限制。被遗忘权权利主体应在公众人物和普通人物之间有所区分,不具有人格属性的法人组织等应排除在权利主体范围之外;被遗忘权客体应仅限于侵害隐私和个人信息权益、过时的、错误的数据等,从而防止被遗忘权的滥用造成数据失真及匮乏,影响人工智能健康发展;被遗忘权内容主要包括删除权,但不同的删除义务主体(数据控制者)所承担删除义务亦有差异,如对于搜索引擎服务商,删除主要表现为断开链接,而对既提供平台亦介入交易的内容服务商,删除则表现为具体的可识别性信息内容。其二,数据携带权“指数据主体有权获得其提供给控制者的个人数据或者有权将这类数据转移给另一个控制者”(73)卓力雄:《数据携带权:基本概念,问题与中国应对》,《行政法学研究》2019年第6期。。但数据携带权一方面在增加用户体验、推动数据开放利用和数据分享、防止数据垄断方面具有积极意义,另一方面可能诱发其他企业在数据获取时“搭便车”的行为。为促进数字经济的发展,在确保隐私和个人信息安全基础上,我国在相关制度构建中应以不对数据转移设置技术障碍为前提,并依据不同场景为用户获取、转移数据以及跨平台数据交换提供便利,逐步推进数据携带权的建立。其三,《民法典》第1037条规定,“自然人可以依法向信息处理者查阅或者复制其个人信息;发现信息有错误的,有权提出异议并请求及时采取更正等必要措施”。未来可对数据修改条件、修改程序作出更加具体明确的规定,在动态上确保数据的准确性,为人工智能的持续发展提供高质量的数据。理性主义与经验主义的不同哲学取向对人工智能的研究产生了深远影响(74)赵泽林:《理性主义与经验主义:人工智能的哲学分析》,《系统科学学报》2018年第4期。。规则学习到自主学习的演变伴随着人工智能从理性主义到经验主义的转向,数据的角色日益重要,如深度学习依赖于以数据驱动为基础的随机梯度下降算法、卷积神经网络算法等。在某种程度上,“算法自动化决策系统事实上是以决策为用、以数据为体、以机器学习为魂的”(75)肖冬梅:《“后真相”背后的算法权力及其公法规制路径》,《行政法学研究》2020年第4期。。基于深度学习人工智能系统的自主性、反馈性、迭代性等特征,对数据的依赖日渐加深,然而,诸如个人信息泄露、数据安全、数据缺陷、数据垄断等问题不断涌现,掣肘人工智能发展。通过个人信息保护、企业数据权利保护以及对数据风险的防范,处理好数据创新与数据流通之间的关系,便是对人工智能时代法律变革的有力回应,可为人工智能的持续发展提供持续资源保障。三、从辅助系统到智能系统:算法的决策风险规制框架
自动化决策可划分为计算机技术(1980—2000)、算法程序(2000—2020)、深度学习或神经网络(2020+)三个阶段(76)唐林垚:《“脱离算法自动化决策权”的虚幻承诺》。。辅助系统主要指在人工智能发展中,人类处于主导地位,机器仅视作人类支配的工具;智能系统指机器具有独立的主体地位,并能承担一定的法律责任的“主体”。算法决策作为算法、程序(代码)、数据等作用于计算机的产物,交织着人机交互和机器自我学习,使得算法决策形态具有多元性、算法决策机制具有隐蔽性、算法决策主体具有模糊性,从而对算法决策风险的规制形成了挑战。(一)算法决策的应用场景
算法决策的形态既可表现为数据产品,又可表现为某种推荐或选择,还可表现为人工智能生成物乃至具有思维能力的智能机器。具体说来,有以下四种呈现方式:(1)数据产品。大数据产品属于算法生成物,是网络运营者在收集巨量用户数据的基础上,以特定的算法或人工处理、分析、整合后产生的衍生数据产品(77)李永明、戴敏敏:《大数据产品的权利属性及法律保护研究》,《浙江大学学报》(人文社会科学版)2020年第2期。。数据产品形态印证了数据与算法是相辅相成的关系,数据在喂养算法、促进算法不断优化的同时,算法也使数据的获取和分析更加科学和精准,并不断生成新的数据。(2)算法推荐。推荐系统是帮助用户解决信息过载问题的有效工具,协同过滤、基于内容推荐、基于图结构推荐和混合推荐是目前较为常见的推荐方法(78)杨博、赵鹏飞:《推荐算法综述》,《山西大学学报》(自然科学版)2011年第3期。。算法造成的风险主要是滥用数据挖掘和深度学习技术,不当收集、分析用户数据,并利用用户画像对用户进行定制化服务,甚至对用户进行歧视性定价或进行差别化对待(79)鲁春雅:《自动化决策算法的法律规制》,《民主与法制时报》2020年11月19日,第6版。,如大数据杀熟和算法共谋等。(3)人工智能生成物。未来将存在“外部制造”的“人化物”(越来越高级的机器人)和“内部改造”的“物化人”(即通过植入芯片乃至基因改造“新人”)(80)何怀宏:《何以为人,人将何为——人工智能的未来挑战》,《探索与争鸣》2017年第10期。。“现阶段,人工智能生成的内容只是应用某种算法、规则和模板的结果”(81)王迁:《论人工智能生成的内容在著作权法中的定性》,《法律科学》2017年第5期。。弱人工智能时代,计算机软件智能生成报告与人工智能生成物并非同一概念,前者游离于数据库、衍生数据、商业秘密等形态之间。而“人工智能的生成成果是人工智能程序在人类参与度极低的情况下基于数据和算法通过自主学习和建模所自动生成的内容”(82)陶乾:《论著作权法对人工智能生成成果的保护——作为邻接权的数据处理者权之证立》,《法学》2018年第4期。。(4)人工智能主体(机器人)。当前,人类自然世界与机器程序世界的相互影响,“机器正在生物化,而生物正在工程化”(83)凯文·凯利:《失控:全人类的最终命运和结局》,东西文库译,北京:新星出版社,2010年,第3页。。弱人工智能时代,智能机器并不具有主体地位,更多附属于人类,属于人类的支配工具。强人工智能时代,人工智能将不再是简单的以技术工具角色参与人类社会生活,未来将可能产生各种各样的具有独立思维意识的机器人,对基于“主客体二分法”以人类为中心而构建的法律体系带来前所未有的冲击与挑战。(二)基于算法应用所引起的决策风险
在人工智能的不同发展阶段,算法应用所引起的决策风险具有不同的表征,当前人们对算法推荐、算法共谋、人工智能责任等决策风险较为关注。其一,算法推荐问题。伴随信息技术迅猛发展,信息爆炸式增长、信息过载的时代悄然迈入。有学者指出:越来越多的信息被生产出来,而最终信息总量远远超过了个人或系统所能接受、处理或有效利用的范围(84)徐瑞朝、曾一昕:《国内信息过载研究述评与思考》,《图书馆学研究》2017年第18期。。个性化推荐算法通过收集用户之前的一些历史记录等信息,分析用户的偏好并向用户推荐,有效解决了信息过载问题。然而,在个性化推荐算法具体应用中,基于逐利动机、信息的不对称等影响,诸如“个人信息泄密、大数据杀熟、信息茧房”等现象相伴而生。如搜索引擎的竞价排名、电子商务的商品推荐、社交网络的朋友推荐、资讯APP的新闻推荐等基于推荐算法所产生的大数据杀熟、信息茧房、低俗劣质信息精准推送等问题,对互联网内容治理、用户知情权的保障、竞争秩序维护造成严重影响。又如,效率导向是算法的主导原则,在算法应用某一领域时可能会缺乏人性关怀。受一味追求效率、实现利益最大化影响,外卖骑手可能会被困在平台算法精确设计的系统里,被算法所压榨,同时触发交通安全等问题。其二,算法共谋问题。数据在算法加持下,使经营者对产品需求、价格变化、用户习惯、竞争对手等信息获取更为便利,为不同经营者之间通过利用算法寻找利益共同点并达成共谋提供可能。算法共谋可分为“信使型、轴辐型、预测型、自主型”等几种方式,其中,“信使”类算法和“轴辐”类算法只是执行企业共谋限制竞争意图的工具,属于以正式协议、意思联络或一致意志为基础的“明示共谋”;“预测”类算法和“自主”类算法属于不依赖任何协议、意思联络的“默示共谋”(85)时建中:《共同市场支配地位制度拓展适用于算法默示共谋研究》。。算法可能构成经营者共谋达成垄断协议的工具,而受到反垄断法调整。但在算法缺乏透明度情形下,如何界定人为合谋与机器合谋则需要竞争执法机关在实践中结合算法类型、主观意图、损失大小等加以综合判断。其三,人工智能主体地位问题。在弱人工智能向强人工智能转变过程中,机器自主学习得到前所未有的提升,人工智能由客体性地位向主体性地位转变的可能性不再是天方夜谭,附属关系的人机交互由平等关系的人与人工智能交互替代的图景可期,强人工智能是否具有主体资格引起人们关注,启迪人们进行面向未来的法治研究。判断人工智能是否具有主体地位,关键在于算法自动化决策中占据主导作用的是人类抑或机器本身,这也是辅助系统与智能系统的分水岭。对于无人驾驶事故责任,规制对象由传统的驾驶人员向算法设计者、智能系统制造者乃至智能系统本身转变。对于人工智能生成物,可区分为人工智能作为人类创作辅助工具生成的计算机衍生作品和人工智能创作无需人类事先定义规则而作为独立的创作主体(86)刘影:《人工智能生成物的著作权法保护初探》,《知识产权》2017年第9期。。根据人为因素与机器因素参与程度的不同,人工智能生成物的权利归属存在着“虚拟法律人格说”、“人工智能编程设计者为作者说”、“社会公有领域说”、“人工智能使用者说”、“人工智能编程设计者与使用者为共同作者说”(87)朱梦云:《人工智能生成物的著作权归属制度设计》,《山东大学学报》(哲学社会科学版)2019年第1期。等不同论断。(三)辅助系统与智能系统的法治对话:算法决策风险规制要旨
算法应用场景十分广泛,非某一部法律法规所能囊括,关于算法决策风险讨论范围十分广泛。“智能革命对当下的法律规则和法律秩序带来一场前所未有的挑战,在民事主体法、著作权法、侵权责任法、人格权法、交通法、劳动法等诸多方面与现有法律制度形成冲突”(88)吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。。有学者认为,算法可能因为运用算法主体、针对对象、涉及问题等不同而具有不同性质。算法规制应采取场景化的规制路径(89)丁晓东:《论算法的法律规制》,《中国社会科学》2020年第12期。。算法的应用若侵犯了消费者的公平交易权,有消费者权益保护法规制;若涉及滥用市场支配地位,有反垄断法规制;若与价格欺诈有关联,有价格法规制,还有民法、电子商务法、网络安全法等法律作保障(90)沈亮亮:《算法在市场竞争中的应用与法律难题——从大数据杀熟谈起》,《太原学院学报》(社会科学版)2019年第3期。。同理,基于算法推荐的“大数据杀熟”行为,可能涉及价格法、网络安全法、反垄断法、电子商务法等多部法律法规的协调规制。弱人工智能时代的算法法律问题主要以人类为法律关系主体,机器并未获得独立的法律主体地位。而在向强人工智能时代转变过程中,诸如人工智能可否成为著作权法上的主体、无人驾驶汽车事故的责任认定等问题对法治转型和制度变革提出了新要求。有学者认为,“在智能机器人不具有独立法律地位之前,由算法运营商和算法技术开发商对智能机器人提供的算法服务造成的妨害全盘承担民事责任;一旦智能机器人具有独立法律地位,则可认定智能机器人有优于运营商和技术开发方的信息地位,由智能机器人与运营商、技术开发方共同承担连带责任”(91)唐林垚:《人工智能时代的算法规制:责任分层与义务合规》,《现代法学》2020年第1期。。我国《电子商务法》便确定了“对网络平台的搜索算法明示义务、搜索算法自然结果的提供义务及推荐和定价算法的消费者保护义务”(92)张凌寒:《〈电子商务法〉中的算法责任及其完善》,《北京航空航天大学学报》(社会科学版)2018年第6期。。可见,人工智能领域法律问题维度由单向的“人机交互”向多维的“人机共处”转变。当前,人工智能处于辅助系统向智能系统的转型期,算法自动化决策的法律性质定位较为混沌,混杂着人机交互场景和人机融合愿景的双重视角讨论。对于人工智能算法风险决策的规制,其一,就现有制度框架可以解决的算法决策风险问题,可通过法律解释等方式,增强现有法律适用张力。如对算法共谋问题,本质上仍是垄断行为在算法决策领域的新表现,可通过完善垄断行为认定规则,确保算法共谋行为适配于现有垄断行为类型之中。其二,对于现有法律制度无法解决且已经出现的算法决策风险问题,通过法律修订、立法续造等方式,及时出台相关规则,裨补缺漏,使新型算法自动化决策风险的规制有法可依。其三,对未来可能出现的算法决策风险问题,可通过不具有传统管理型法律规范结构的“促进型”立法方式,对涉及算法决策风险防范的关键技术和行业加以扶持,为未来算法决策风险规制提前做好制度安排。我国《新一代人工智能发展规划》对建立保障人工智能健康发展的法律法规框架提出了明确要求。有学者认为,我国应当构建“国家战略—基本法律—标准体系”三级人工智能规范(93)张玉洁:《论我国人工智能的法治化进程:现状、挑战与革新》,《广州大学学报》(社会科学版)2019年第2期。。在人工智能由作为工具性价值的辅助系统向主体性价值的智能系统嬗变过程中,交织着弱人工智能、强人工智能的复杂讨论,考验着算法自动化决策过程中人为主导因素和机器主导因素的精确甄别和判断能力,加之算法技术风险、数据风险、决策风险面向不同的维度,决定了不但构建一部集算法技术风险、数据风险、决策风险于一体的人工智能算法风险规制体系并不现实,而且算法决策场景的复杂性、所涉领域的广泛性,使得算法决策法律规制自成体系亦不具有逻辑自洽性。“花开两朵,各表一枝”,较为可行的办法是,采取立足当下的“渐进式立法”与面向未来的“顶层式立法”并重、并存的立法模式,也即对基于弱人工智能所产生的算法风险,除了依据现有制度予以规制外,可分别采取“成熟一部制定一部、成熟一条制定一条”的渐进式立法模式弥补规制依据不足问题,对基于未来强人工智能可能产生的算法风险,在构建人工智能算法风险规制的基本原则、伦理标准、政策体系基础上,采取制定人工智能促进法的顶层式立法模式,强化政府在扶持和引导算法决策风险防范领域关键技术和行业领域的责任。待时机成熟,再通过人工智能基本法的方式,将算法公开、算法问责、知识产权保护、隐私和个人信息保护、企业数据保护、网络安全和信息安全、算法自动化决策、人工智能法律主体地位等予以法律确认,指引人工智能具体发展领域的立法,为建立友好人工智能(94)友好人工智能指人工智能不仅在当下,而且在将来都能够与人类和谐相处并且给人类带来益处,而不是伤害与威胁。参见杜严勇:《建构友好人工智能》,《自然辩证法通讯》2020年第4期。提供制度保障。四、结语——不确定未来中的确定性
恐惧往往来源于未知,当人们讶异人工智能开始全面渗透、互嵌人类生活的同时,算法黑箱、算法歧视、算法共谋、算法损害(95)张凌寒:《搜索引擎自动补足算法的损害及规制》,《华东政法大学学报》2019年第6期。、算法操纵(96)高奇琦:《警惕“算法操纵”》,《领导决策信息》2019年第5期。、算法霸权(97)凯西·奥尼尔:《算法霸权——数学杀伤性武器的威胁》,马青玲译,北京:中信出版集团,2018年,第21-22页。、算法权力(98)许天颖、顾理平:《人工智能时代算法权力的渗透与个人信息的监控》,《现代传播(中国传媒大学学报)》2020年第11期。、算法监狱(99)周建明、马璇:《个性化服务与圆形监狱:算法推荐的价值理念及伦理抗争》,《社会科学战线》2018年第10期。、算法囚徒(100)彭兰:《假象、算法囚徒与权利让渡:数据与算法时代的新风险》,《西北师大学报》(社会科学版)2018年第5期。、算法奴隶(101)郝雨、李林霞:《算法推送:信息私人定制的“个性化”圈套》,《新闻记者》2017年第2期。等概念相继提出,折射出人们对人工智能发展过程中的算法风险隐忧。在智能社会形态由雏形走向成熟过程中,对国家治理能力现代化提出了新要求,“技术+规则”的国家治理体系建设刻不容缓。应该基于整体性治理和全流程规制的视野,将算法技术层、基础层、结果层视为一个整体,在关注“逻辑实现—代码实现”、“规则学习—自主学习”、“辅助系统—智能系统”横向维度中算法风险生成的同时,嵌入“输入层→隐含层→输出层”纵向维度中算法风险转化的考量,秉持前瞻性、系统性、包容性、审慎性等原则,对人工智能时代所产生的算法技术风险、数据风险、决策风险等的规制提出因应之策,以期突破算法风险对人工智能发展的桎梏,助推国家治理体系和治理能力现代化。然而,伴随人工智能尤其是深度神经网络算法应用的迅猛发展,人工智能经历着由理性主义向经验主义转变、由辅助系统向智能系统转变、由客体地位向主体地位转变的过程,无论是输入变量、输出变量,抑或是二者之间的隐含层,存在诸多人类无法探究、触及之处。“人是生而自由的,但却无往不在枷锁之中;自以为是其他的一切主人的人,反而比其他一切更是奴隶”(102)卢梭:《社会契约论》,何兆武译,北京:商务印书馆,2005年,第4页。。为防止坠入人工智能奴隶的深渊,人类须以超前智慧做好人机共处的制度准备和应对,让人工智能“带着镣铐跳舞”。法国学者帕斯卡尔曾言,“人只不过是一根苇草,是自然界最脆弱的东西;但他是一根会思想的苇草”(103)帕斯卡尔:《思想录——论宗教和其他主题的思想》,何兆武译,北京:商务印书馆,1985年,第157-158页。,人工智能倒逼人类将其思维带至穷极之处。诚如有学者将个人信息保护、数据治理、算法规制、大数据竞争、人工智能伦理与治理等纳入未来法治领域之中一样(104)王轶:《在未来法治领域发展中国特色法学理论》,《北京日报》2021年1月25日,第19版。,人工智能的法治建设没有“完成时”,只有“进行时”,需要人们以“面向未来、走向未来、引领未来”的学术定力和学术容量,不断精进、丰富算法风险的法律规制范式,将不确定的未来纳入法治轨道,破解“人工智能的崛起可能是人类文明的终结”之命题。
【本文载于湖北大学学报(哲社版)2021年02期】
为方便手机阅读,微信版未附完整附件和详细注释,如果您想了解全貌,可点击微信下部“阅读原文”,下载全文pdf,或到本刊官网在线浏览。
责任编辑:马建强 / 微信编辑:江津