查看原文
其他

人工智能风险的全流程规制逻辑及制度因应 | 数字社会

胡小伟 刘丽 学习与实践杂志
2024-09-04

 导 读 

人工智能规制的核心问题是风险防范问题,建构人工智能法应以风险规制为中心,辩证分析人工智能的风险类型,并就各类风险之间的一体化规制进行系统考量。在全流程规制视域下,其受制于人工智能风险生成、演化、作用规律的支配,内蕴人工智能风险生成多元性的防范、演化交替性的防范以及风险结果未知性的防范。



人工智能风险的全流程规制逻辑及制度因应

作者:胡小伟  刘  丽



 摘 要 

人工智能风险并非确定性、单一性的风险,而是蕴含着生成多元性、演化交替性、结果未知性的体系性风险,这成为人工智能风险全流程规制的逻辑基础。全流程视域下,人工智能风险可类型化为算法设计风险、数据要素风险、平台控制风险、网络安全风险、自动决策风险等具体样态。人工智能风险规制立法应基于全流程规制视角,在规制范围上,加强全周期贯穿,实现人工智能风险的穿透规制;在规制进路上,注重全过程传导,实现人工智能风险的渐进规制;在规制内容上,强化全要素统筹,实现人工智能风险的一体规制。

 关键词 人工智能风险 全流程规制 人工智能法



作为新兴技术的人工智能在给人类带来发展机遇的同时,其风险亦相伴而生。《新一代人工智能发展规划》提出:“实现对人工智能算法设计、产品开发和成果应用等的全流程监管。”人工智能规制的核心问题是风险防范问题,即如何通过预防性行为与因应性制度来应对人工智能所产生的现代性负面影响。[1]建构人工智能法应以风险规制为中心,如欧盟《人工智能法案》,作为全球首部全面监管人工智能领域的法案,由低至高将人工智能风险划分为四个等级,并进行分类分级监管。人工智能风险的法律规制不能仅侧重对人工智能应用的风险规制,而忽视源头性、过程性风险。应基于全流程视域,条分缕析人工智能风险类型谱系,动态把握人工智能风险转化规律,进而推动人工智能法的出台,实现人工智能风险的全流程监管。


人工智能风险全流程规制的逻辑基础



人工智能风险并非确定性、单一性风险,而是蕴含着复合性、流程性的体系架构,这由人工智能风险的技术运行逻辑所决定。需厘清人工智能各形态风险的关联逻辑,基于全流程运行机理,探讨人工智能风险的一体化规制。

(一)人工智能风险全流程规制的技术运行逻辑

人工智能是基于机器学习形成自主决策,即通过数据喂养训练算法,并通过算法进行数据输入输出的过程(见图1)。在平台、网络(物联网)的加持下,实现人工智能体之间的万物互联、万物互通。在全流程视域下,分析人工智能基础层、感知层、传输层、平台层、应用层等基本技术架构,以及内嵌于人工智能运行框架中的算法、数据、平台、网络、自动化决策等内容,有助于明晰人工智能风险类型化的技术机理。

图1 基于单体智能机器学习的人工智能运行原理

(点击图片查看大图)

具言之,在基础层,“算法是人工智能应用(深度神经网络)的计算程序,它们被编程以执行自动化决策任务”[2]。人工智能以算法模型加以架构,用数据或以往经验进行机器学习,以此优化计算机程序的性能标准。给定已知数据后,算法模型的数据标注及模型训练得以开展,机器学习算法依“确定模型、训练模型、使用模型”等进路展开。在感知层,通过语音识别、图像识别和自然语言处理等前端的交互技术的应用,人工智能借助各种传感器和采集装置,实现数据的获取与采集。数据是人工智能的基础,人工智能越智能越依赖数据的喂养。[3]在传输层,智能网联实现了不同智能终端设备之间、不同系统平台之间、不同应用场景之间的互融互通、万物互融,单体智能开始向系统智能转变。在平台层,人工智能平台包括连接管理平台、设备管理平台、应用使能平台、业务分析平台等,平台把持数据、算法、算力、资本等人工智能发展的重要要素。加之,随着工业互联网、能源互联网、移动互联网、车联网、物联网等网络形态兴起,机器单一智能开始向平台系统智能嬗递,平台本身逐渐演化为庞大的复合人工智能体。在决策层,人工智能感知层、传输层、平台层、应用层虽然都存在自动决策,但该决策具有工具性、特定性、阶段性特征,即是为完成数据采集、传输、处理等特定事项而进行的相关决策。人工智能决策层主要是指,在平台层之上建立相关的应用生态,基于平台层管理的设备与汇集的数据分析进行自动化决策。换言之,人工智能决策可分为整体决策和局部决策,整体决策是输入特定数据而获得的特定输出结果,呈现出单一的线性关系;局部决策是在人工智能基础层、感知层、传输层、平台层、应用层各个层级,为完成特定的算法训练任务、采集数据任务、传输数据任务、处理数据任务而进行的局部决策。每个特定的局部决策都离不开其他层级的配合,例如,为完成特定局部决策均须有算法模型的架构,作为基础层的算法渗透于各层级中。

围绕人工智能上述技术运行逻辑,可将人工智能风险划分为算法设计风险、数据要素风险、网络安全风险、平台控制风险、自动决策风险等类型。其中,算法风险可细分为算法责任风险、算法黑箱风险、算法偏见风险;数据要素风险可细分为数据缺陷风险、数据垄断风险、数据产权风险;网络安全风险可细分为物理安全风险、系统安全风险、信息安全风险;平台控制风险可细分为平台侵权风险、平台竞争风险、平台安全风险;自动决策风险可细分为决策主体风险、决策损害风险、决策权力风险。人工智能法应囊括算法设计、数据采集、数据传输、数据处理、决策应用等全流程、全生命周期,促使人工智能不同领域风险规制之间形成共通性规则,保证人工智能法不同规则之间的逻辑自洽,实现人工智能风险的一体化规制。

(二)全流程视域下人工智能风险的类型化分析

当前,学界已开始从全流程视角关注人工智能风险,将其归纳为“准备阶段面临数据安全风险,运算阶段面临算法偏见风险、生成阶段面临知识产权风险”[4]。总体而言,人工智能风险法律规制的研究呈现散状化、碎片化、末端化态势,不乏“点上突破”式的研究,却缺乏“全流程贯通、面上展开”式的系统性研究,较易陷入“头痛医头、脚痛医脚”的规制定式。因此,仍需辩证分析人工智能的风险类型,并就各类风险之间的一体化规制进行系统考量。

其一,基于风险成因的分类。当前,人工智能风险法律规制的对象研究聚焦于机器代替人类所产生的经济风险、社会风险、伦理风险、法律风险等宏观把握上,而未落脚于具体风险样态。有学者从经济层面提出,人工智能可能造成财富分配结构的恶化、社会供需结构的失衡等经济风险。[5]有学者从伦理层面将人工智能风险划分为:人机边界模糊下的伦理关系失调风险、责任追究困境下的伦理规范失效风险、价值鸿沟扩大下的价值失衡风险、技术过度依赖下的伦理行为异化风险等几种类型。[6]依据风险成因的人工智能风险分类,侧重于关注人工智能风险在不同社会领域的生发机理,可从社会运行机理角度把握人工智能风险的产生根源及影响路径,以实现人工智能风险法律规制的循因施策。但是,这不利于人工智能风险防范由现实问题向法律表达的转化,亦不利于把握不同人工智能风险的转换逻辑,进而造成人工智能风险规制对象的游移不定。

其二,基于应用结果的分类。有学者从人工智能对社会侵害层面,将风险划分为伦理风险、极化风险、异化风险、规制风险和责任风险等几种类型;[7]或是归纳为隐私泄露、劳动竞争、主体多元、边界模糊、能力溢出、惩罚无效、伦理冲突、暴力扩张、种群替代和文明异化等十大风险类型。[8]人工智能风险的具体表现虽然形态各异,但并非杂乱无章。基于应用结果的人工智能风险分类,侧重于关注人工智能应用层面的主体性风险,无法穿透人工智能风险产生的底层逻辑,忽视源头性、过程性风险。

其三,基于权益侵害的分类。有学者从受影响权益的维度,认为人工智能法律风险包括个人信息保护风险、法律伦理风险、侵权风险、刑事犯罪风险等。[9]还有学者将人工智能风险划分为:人工智能应用引发新型社会纠纷(人工智能体侵权纠纷、著作权纠纷以及人工智能技术滥用带来的权益纠纷)、人工智能赋能政府治理进程存在较高的不确定性、人工智能技术不完善造成社会公害(算法偏见和数据偏见)三大类型。[10]由于人工智能风险规制缺乏顶层架构,基于权益侵害的规制模式极易各自为战,导致诸如算法技术风险、数据要素风险、网络安全风险、平台风险、自动决策风险间无法一体统筹,人工智能立法亦呈散状态势。当前,我国对人工智能采取要素治理方式,同步推进算法、数据等通用规则的制定,而未选择制定类似欧盟“人工智能统一规则”的专门综合立法,[11]这与人工智能风险缺乏系统规制具有莫大关系。

人工智能风险全流程规制的正当性


工智能类型化风险厘定了人工智能风险全流程规制范围,奠定了全流程规制基础。人工智能风险全流程规制亦受制于人工智能风险生成、演化、作用规律的支配,内蕴人工智能风险生成多元性的防范、演化交替性的防范、风险结果未知性的防范。

(一)精准规制射程:人工智能风险生成多元性的防范

技术具有自然属性和社会属性,在技术逻辑服从资本逻辑的当代社会,既不能对技术予以过多谴责,以致用技术批判代替社会批判,亦不可用感伤和道德正义来阻止技术异化,而应强调社会制度的变革。[12]人工智能涉及复杂的系统集成技术,贯穿算法设计、产品开发和成果应用等全流程,风险来源具有多元性且遍布不同风险节点,风险范围呈现弥散性扩张态势。全国网络安全标准化技术委员会发布的《生成式人工智能服务安全基本要求》,从语料安全、模型安全、网络安全、内容安全等维度,对人工智能全流程风险进行了规定。总体观之,数据要素风险层面,在数据基础制度体系尚不健全的情形下,涉及人工智能大模型训练、生成、输出等节点中的数据来源风险、数据利用风险、数据存储风险;算法技术风险层面,存在算法设计、人工标注、模型生成和优化等过程中的算法偏见和歧视风险;网络安全风险层面,在单体智能向万物互联、万物互通的系统智能衍化过程中,涉及物理层面的物理系统安全风险、软件层面的网络系统安全风险、信息层面的网络信息安全风险;平台控制风险层面,平台尤其是超级平台,基于用户数量、海量数据、算法、技术、资本、平台规则等控制优势,依托在用户锁定效应、网络外部性、规模效应加持下所形成的市场影响力和垄断势力,形成对人工智能的实质垄断;自动决策风险层面,涉及虚假信息、深度伪造、侵权风险等多元场景应用风险。

在人工智能风险规制过程中,应充分借鉴技术工具理论和技术批判理论,既要关注人工智能应用过程中所产生的各种自动决策风险规制,亦要进行规制前移,周延人工智能风险的规制射程范围,加强对算法技术风险、数据要素风险、网络安全风险、平台控制风险等人工智能源头性和过程性风险的规制,实现人工智能风险的全流程规制。

(二)消弭规制盲区:人工智能风险演化交替性的防范

人工智能数据、算法、决策、平台、网络等各要素之间并非孤立存在,而是存在链式关系。“软件开发各个阶段之间的关系通常不是顺序的、线性的,而是带有反馈的、不断纠错的迭代过程。”[13]基于人工智能系统深度学习的自主性、反馈性、迭代性等特征,算法技术风险、数据要素风险、自动决策风险、平台控制风险、网络安全风险之间存在相互交替、传导、转化的可能。典型的风险交替形态包括:一是数据要素风险向算法技术风险的转化。算法模型的设计和训练依赖于历史数据的喂养,一旦历史数据存在缺陷,将影响算法模型训练的科学性,产生算法技术风险。数据污染、数据中毒、数据偏见等将会造成算法设计缺陷和人工智能决策偏差,如通过插入错误标记的数据来修改算法模型的训练集,欺骗机器学习系统,诱导人工智能错误决策。二是算法技术风险向自动决策风险的转化。作为基础层的算法渗透于人工智能全生命周期,算法设计不当将造成处理数据失真、人工智能决策失误和失当,影响自动决策的可信性。三是数据要素风险向自动决策风险的转化。数据在人工智能中的本源性地位,使得经过主观选择的数据运用于算法模型之中,极易产生“偏见进,偏见出”[14]等现象。譬如,若训练数据中男性样本远远超过女性样本,人工智能系统在识别女性特征时可能会造成决策不具有可信性。四是自动决策风险向数据要素风险的转化。智能决策的生成物亦可成为算法建模的训练数据,一旦决策失真将难以保证历史数据的质量,产生数据要素风险。譬如,人工智能生成的低质量内容会造成数据污染,进而反噬下一代人工智能的机器学习,造成不良反馈。五是网络安全风险向自动决策风险的转化。人工智能具有脆弱性,可能受到外来网络攻击行为而导致缺乏鲁棒性。譬如,将一张特别的彩色图案挂在身上,便可避开AI摄像头的监控。

上述形态只是人工智能风险传导和演替的典型形态,事实上,不同类型的人工智能风险之间呈现点阵式、散状式、辐射式的交织状态。由于当前人工智能风险规制的研究,侧重于关注机器代替人类面向下的自动决策风险,导致决策风险之外的其他节点风险脱嵌于人工智能风险。这致使人工智能风险的一体化规制缺乏理论基点,全流程规制能有效解决这一问题。

(三)夯实规制预期:人工智能风险结果未知性的防范

风险规制的核心在于,根据当下经验对未来判断采取预防措施。人工智能风险的不确定性内蕴风险是否发生、何时发生、发生结果等多方面。一是工智能风险是否发生具有不确定性。纵然人类对人工智能自主程度和智能水平的控制能力不断提升,但伴随信息技术的高速迭代,哪些风险会发生,哪些风险不会发生,人们无法作出准确预测。二是人工智能风险何时发生具有不确定性。有学者认为,当前人工智能从内部结构、运行机制和外部功能诸多方面看,都已经符合“图灵测试”这个智能标准,智能程度已经接近甚至超越人类而临近“奇点”。[15]在人工智能技术发展初期,人工智能风险并没有得以完全呈现,而一旦技术发展成熟,技术所产生的后果已深深嵌入经济社会体系之中,风险何时发生难以被准确预测。三是人工智能风险发生的结果具有不确定性。首先,人工智能本质上是在不确定条件下作出相应决策,则人工智能风险发生的结果并非完全可控。人工智能是用固定的经验、有限的过去,来预测变化的未来、无限的未来,那么,基于过去的数据得出的结论便并非绝对可信。其次,受算法不可解释性、数据缺陷、网络攻击等因素影响,人工智能风险发生的结果具有较大的随机性,同样的输入亦可得出不同的输出结果。最后,人工智能风险发生的结果具有两面性,这体现在风险既可能带来威胁,亦可能孕育巨大发展机会,从而为风险规制带来难题。例如,国家在多大程度上应介入人工智能风险决策,是否预防、怎么预防、多大程度上预防,皆与传统以权利保护为核心的法律规制颇具差异,[16]如何趋利避害考验着规制者的权衡智慧。

人工智能风险的全流程规制,有利于最大限度地纾解人工智能风险结果的未知性,减少预期偏差。其一,人工智能风险规制不应局限于损害结果原则,而应转向风险预防原则,以作“最坏的打算”和“最充分的准备”的理念确立底线思维,对人工智能风险加以事先防范。其二,在人工智能风险规制的制度设计上要把握长期与短期的关系,立足弱人工智能与强人工智能的不同面向,有序推进人工智能法的制定,避免制定不符合人工智能发展水平的规制制度。其三,准确把握算法技术风险、数据要素风险、自动决策风险、平台控制风险、网络安全风险的风险结构和演替规律,以便于循因施策、分类施策。


人工智能风险全流程规制的制度因应


人工智能风险全流程规制视域下,应加强顶层设计,统筹算法治理、数据治理、平台治理、网络安全治理、自动决策治理,稳妥推进以风险规制为核心的人工智能法的立法进程。

(一)全周期贯穿:人工智能风险的穿透规制

风险规制需要“决策于未知之中”。人工智能风险是否发生、何时发生、如何发生皆具有不确定性,决定了人工智能法应将风险预防作为基本原则之一,强调人工智能风险的穿透规制,实现规制前移。

在人工智能法制定过程中,应基于全流程规制视域,识别出人工智能在设计、产品开发和成果应用等全流程节点、全业态场景、全生命周期运行链之上的风险,并据此凝练出算法技术风险、数据要素风险、平台控制风险、网络安全风险、自动决策风险规制规则,建立分类分级管控体系,一体化建构人工智能风险规制的秩序体系。具言之,既要考虑将人工智能法作为顶层设计的必要性,亦要考虑算法治理、数据治理、平台治理、网络安全治理、自动决策治理等全流程链上不同节点的立法进度和立法时机的差异性,形成“伞状”立法体系。人工智能法在确定人工智能风险规制中共性规则的同时,亦应注重与不同类型风险规制特殊规则的协同设计、有序衔接,科学把握风险演化规律,及时跟进配套立法,统筹推进人工智能风险规制,以确保人工智能风险规制的持续性和自洽性。

(二)全过程传导:人工智能风险的渐进规制

人工智能法的制定是一项复杂工程,需要结合人工智能发展阶段,统筹推动中央立法和地方立法、综合立法与配套立法、一般立法与行业立法。具言之,按照初阶、进阶、高阶的立法进路,循序渐进地完善人工智能法治体系。

1.初阶:人工智能促进法。对人工智能产业发展需要正向扶持的事项,可通过制定促进法的方式予以推进。促进型立法主要是指导性规范和自愿性规范,即鼓励性条款相对较多,强制性条款相对较少。[17]较之传统的管理型立法,促进型立法偏软法性质,多为政策性宣示、鼓励性条款、肯定性后果,法律执行效果不强。在人工智能发展初期采取此种立法模式,有利于强化政府在扶持和引导人工智能风险防范领域关键技术及行业发展的责任。当前,一些地区正积极探索人工智能地方立法,如《上海市促进人工智能产业发展条例》《深圳经济特区人工智能产业促进条例》等相继出台。与此同时,随着人工智能风险的不断蔓延,管理型立法须及时跟进。

2.进阶:人工智能风险规制分散立法。在弱人工智能向强人工智能转变的过程中,由于不同行业、不同领域、不同地域的人工智能应用水平颇具差异,算法设计风险、数据要素风险、平台控制风险、应用决策风险、网络安全风险在不同行业、不同领域、不同地域的表征亦不尽相同。由此,可分别采取“成熟一部制定一部、成熟一条制定一条”的渐进式、小切口式的立法模式,对不同类型人工智能风险规制予以分别立法。例如,针对算法技术风险,我国制定了全球首部以算法为调整对象的《互联网信息服务算法推荐管理规定》;针对平台控制风险,《促进平台经济规范健康发展的指导意见》《网络交易平台经营者落实法定责任行为规范》《关于平台经济领域的反垄断指南》等规范性文件相继出台;针对自动决策风险,《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法》颁布实施。

3.高阶:人工智能法。我国人工智能法的制定广受关注,“人工智能法草案”被列入国务院2023年立法工作计划,《人工智能法(学者建议稿)》于2024年3月发布。同期,欧盟于2024年3月通过全球首部人工智能领域的系统监管法《人工智能法案》。随着人工智能风险监管的逐渐成熟,对人工智能风险的共性规制可采取制定《人工智能法》的立法进路,以此作为基本法来整体统筹。在全流程规制视域下,人工智能法应秉持类型化的思路和分类管控的原则,将散见于其他法律法规中的人工智能特定风险类型规制规则加以抽象,并据此对人工智能风险规制对象、规制主体、规制工具、规制内容加以凝练、重构,勾勒人工智能风险规制体系的基本框架。进而,对人工智能算法设计类、数据要素类、平台控制类、应用决策类、网络安全类风险规制作出系统性安排,形成人工智能风险规制领域的基础性、综合性、统领性法律。

(三)全要素统筹:人工智能风险的一体规制

人工智能法欲自成体系,须立足人工智能全生命周期,进行必要的全流程规制规则构造。具言之,以基础性规则、准用性规则、主体性规则、责任性规则为主干,制定以人工智能风险规制为核心的人工智能法,凝练人工智能风险规制共性规则,构建融安全战略、法律、政策于一体的人工智能风险防控和治理体系。

1.基础性规则。即结合不同风险类型确定相应的规制主题,进而创制具体规则。具言之,算法技术类风险的客体涵摄范围包括“算法可专利性、算法的商业秘密保护、算法的软件著作权保护、算法解释权/请求权、算法监管”等主题,可据此构造集算法公开、算法解释、算法保护、算法监管于一体的规制规则;数据要素类风险的客体涵摄范围包括“个人信息保护、数据财产权保护、数据的竞争利益保护、数据的合约保护、数据安全保护”等主题,应着重构造人工智能领域数据获取、数据产权、数据权属、数据安全等规则;平台控制类风险的客体涵摄范围包括“平台竞争、平台侵权、平台安全”等主题,应构造平台经济反垄断规制规则、平台侵权规则、平台监管规则;网络安全类风险的客体涵摄范围包括“人工智能系统安全、人工智能网络信息安全、信息传播安全、信息内容安全”等主题,应构造人工智能网络安全规则;自动决策类风险的客体涵摄范围则相对复杂,大致包括“人工智能生成物权利归属、无人驾驶汽车侵权、算法共谋、自动化行政风险”等主题,应着重构造人工智能主体规则、人工智能权属认定规制、人工智能决策与人类决策的贡献度认定规则。

2.准用性规则。人工智能应用场景十分广泛,具体场景之间又有重要差别,存在进一步分类规范的要求。并且,对于某些极其特殊的应用场景有必要单独规范。[18]例如,人工智能应用若侵犯了消费者的公平交易权,有消费者权益保护法规制;若涉及滥用市场支配地位,有反垄断法规制。又如,基于算法推荐的“大数据杀熟”行为,可能涉及价格法、网络安全法、反垄断法、电子商务法等多部法律法规的协调规制。在框架立法与专门立法并存的立法模式下,对于人工智能风险规制而言,除了适用人工智能法之外,还涉及民法、行政法、刑法等规则调整。为保证人工智能法治体系的完整性,可通过适用准用性规则,援引条款转至其他制度之中。此外,与准用性规则类似的情形,还包括人工智能技术标准的援引,可直接援引相关技术标准,赋予其法律效力,实现标准与法律的融合。

3.主体性规则。人工智能风险类型跨越不同场域,牵涉行政主体、社会组织、企业乃至人工智能体等众多主体,须根据不同的风险类型来厘清主体内涵,实现人工智能风险的协同共治。鉴于人工智能风险的复杂性、交叉性、广泛性等特征,决定了某行政主体难以就某风险类型实行单一监管,须进行“1+X”的人工智能风险监管体系架构。这蕴含两层含义:一是“1+X”指向单一监管机构对不同类型特定人工智能风险的监管;二是“1+X”指向单一特定人工智能风险的综合监管。进言之,“1+X”人工智能风险监管架构旨在实现行业监管与综合监管相结合。行业监管需要厘清单一监管主体对不同人工智能风险的监管权限、监管层次、责任清单,根据人工智能产业的不断发展,适时成立专门的人工智能监管机构,避免人工智能风险监管中的职责不清、交叉扯皮。必要时成立跨部门的人工智能监管协调议事机构,防止人工智能风险综合规制的九龙治水。与此同时,人工智能风险的协同共治强调,在建立以政府为主导的“1+X”监管矩阵之时,还要及时对市场主体的参与规制、人工智能的自我规制进行必要纠偏。在市场主体尤其是平台参与人工智能风险规制的过程中,政府须对平台控制风险加以控制,让技术从资本中解放出来,防止数据、算法、平台被资本所裹挟,而导致规制俘获。在人工智能的自我规制中,要预设监管底线,预留监管接口,防范技术脱缰于人类控制之外。

4.责任性规则。法律责任在立法中的安排,可划分为“分散编排”模式和“集中编排为主、分散编排为辅”模式。前者表现为法律责任条款与义务规范条款相结合,且分散规定于法律规范之中;后者表现为法律责任条款与义务规范条款相分离,法律责任以分编、专章、专节等形式抽象集中规定于法律规范之中,同时考虑不同领域法律责任的差异性,对特殊责任加以分散规定。在人工智能法的制定过程中,考虑到不同类型风险的法律责任有所差异,宜采取“集中编排为主、分散编排为辅”模式。具言之,在集中编排层面,围绕人工智能的主体责任、责任配置、构成要件、归责机制等,集中规定人工智能风险的行政责任规则、民事责任规则、刑事责任规则等一般性规则;在分散编排层面,在各分编与《民法典》《著作权法》《反不正当竞争法》《反垄断法》《电子商务法》等法律责任做好衔接,进而,在保持与外部规范系统相互映射的基础上,依据不同主体对人工智能系统的控制程度苛以相应的合规义务和注意义务,划分人工智能产业链各主体的责任义务。民事责任方面,重点就人工智能领域的算法侵权责任、平台侵权责任、产品侵权责任等加以明确。行政责任方面,应区分“行政主体及其公务员承担的行政责任”和“行政相对人承担的行政责任”。前者基于自动化行政的重要地位,有必要单独类型化,确定不同法律情境中自动化行政责任的构成要件和承担主体;[19]后者重点就平台垄断、数据垄断、算法共谋的反垄断责任,以及违反算法监管、数据安全、网络安全、网络空间内容治理的行政责任予以规定。刑事责任方面,区分人工智能“作为犯罪工具”和“作为犯罪对象”不同情形下的刑事责任,以刑法的引致条款作为保底,并且,允许在刑法之外由人工智能法对人工智能领域的刑事责任予以例外规定,以确保人工智能风险刑事规制的及时性、针对性、系统性。



 注释

[1]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学,2017(05):128-136.

[2]叶青,刘宗圣.人工智能场景下算法性别偏见的成因及治理对策[J].贵州师范大学学报(社会科学版),2023(05):54-63.

[3]郑志峰.人工智能时代的隐私保护[J].法律科学,2019(02):51-60.

[4]刘艳红.生成式人工智能的三大安全风险及法律规制——以ChatGPT为例[J].东方法学,2023(04):29-43.

[5]侯东德,周莉欣.人工智能发展中的经济风险及制度应对[J].安徽大学学报(哲学社会科学版),2022(02):69-76.

[6]张铤.人工智能的伦理风险治理探析[J].中州学刊,2022(01):114-118.

[7]马长山.人工智能的社会风险及其法律规制[J].法律科学,2018(06):47-55

[8]何哲.人工智能技术的社会风险与治理[J].电子政务,2020(09):2-14.

[9]姚万勤.大数据时代人工智能的法律风险及其防范[J].内蒙古社会科学(汉文版),2019(02):84-90.

[10]杨福忠,姚凤梅.人工智能赋能社会治理之维度及风险法律防治[J].河北法学,2022(11):89-102.

[11]张浩.人工智能治理的实践进展与展望[J].人工智能,2022(01):16-21.

[12]许良.走出技术批判的误区[J].自然辩证法研究,2004(09):55-58.

[13]周玉萍.信息技术基础[M].北京:清华大学出版社,2017:242.

[14]Himmelstein D U,Woolhandler S. Bias in, bias out:a reply to Sheils, Young and Rubin[J].Health affairs,1992,11(01):7-20.

[15]Ray Kurzwell.奇点临近[M].李庆诚等,译.北京:机械工业出版社,2016:234.

[16]李忠夏.风险社会治理中的宪法功能转型[J].国家检察官学院学报,2020(06):3-15.

[17]李艳芳.“促进型立法”研究[J].法学评论,2005(03):100-106.

[18]龙卫球.人工智能立法规范对象与规范策略[J].政法论丛,2020(03):95-106.

[19]戚莹,高文英.人工智能时代自动化行政的实践困境及规制路径[J].中国人民公安大学学报(社会科学版),2022(01):67-75.

(▲向下滑动查看全部注释)


 基金项目 

国家社会科学基金“人工智能语境下宪法财产权制度创新研究”(项目编号:19BFX016)。


 作者简介 

胡小伟,临沂大学法学院讲师;

刘   丽,中国政法大学法学院博士研究生。


本文原载于《学习与实践》2024年第5期。


-end-


# 推荐阅读  (点击下方标题前往阅读)
01  《学习与实践》2024年第5期目录及摘要

02  《学习与实践》“数字社会”专栏稿约

03  技术执行的结构整合:数字化监督体系运行的逻辑分析 | 数字社会(作者: 董石桃 范赛果)

04  人工智能体执法并承担执法责任的可能性 | 数字社会(作者: 宋华琳 唐曼)

05  数字服务税收属性及中国税制构造进路 | 法律(作者: 李 蕊 王苏姗)06  论系统观念在依规治党中的逻辑展开 | 政治(作者:祝捷 万孝笑)

07  国家力量的双重进入与村规民约的重塑——基于215份优秀村规民约的文本分析 | 基层善治(作者:陈 锋 徐悦鑫)

08  主体、正当性与话语权:近代“舆论之母”的历史考察与话语分析 | 新闻与传播(作者:贾梦梦 周光明)

# 推荐栏目  





(点击下方标题前往栏目阅读)


马克思主义理论与实践
数字社会
基层善治
政治
经济
法律
公共管理
社会
文化
新闻与传播
继续滑动看下一个
学习与实践杂志
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存