林需需:新一代人工智能物种论与刑事风险分配
内容摘要
聚合反应结果的不可预测及脱离人类主体控制是人工智能技术发展带来的两大风险。刑法为弥合技术福利与风险二元矛盾提供了平衡视角。人工智能刑法研究症结在于刑事责任主体地位的认定,学界将强人工智能等同于具备辨认和控制能力的人工智能进而肯定刑事责任主体资格的论证逻辑,混淆了技术与刑法角度概念面向上的差异,前者以智能化程度为标准,后者着重考量意志自由程度。应将“新一代人工智能”作为研究对象,其进化过程符合适者生存选择机制、程序编程原理与物种表达模式相同,具备新物种的特性。将物种作为讨论平台贯通了犯罪主体与刑事责任主体间的鸿沟。人类中心主义视角下对新一代人工智能施加刑罚无社会意义,但赋予人工智能体刑事责任主体资格可让其合理分担责任,避免背后自然人承担过度责任,阻碍科技发展。人工智能不具备自由意志时,主要由自然人承担刑事责任;具备自由意志时,人工智能与自然人成立共同犯罪。
关键词:新一代人工智能 物种起源 人类中心主义 刑事责任主体 共同犯罪
2017年7月中华人民共和国国务院发布《新一代人工智能发展规划》(以下简称规划),要求“开展与人工智能应用相关的民事与刑事责任确认……”等问题。明确将“涉人工智能法律体系”作为新的理论研究点。此后,法学界围绕人工智能的法律研究硕果累累,刑法学者也不甘示弱,产出了很多高水平的文章。既有研究存在以下特点:第一,研究对象出现偏差,脱离规划中新一代人工智能,而大谈特谈强、弱人工智能;第二,混淆刑法概念与技术概念,将强人工智能等同于具备自由意志的人工智能;第三,欠缺对人工智能体适用刑罚意义的讨论,使得风险分配未兼顾现实意义,分配不适当;第四,缺乏具体刑法制度的设计,学者痴迷于理论讨论而忽视具体风险分配规则的构建。以上问题悬而未决,势必阻碍我国人工智能法律法规的形成和完善进程,不利于人工智能刑事法律风险的防控。鉴于此,笔者结合学界研究成果、人工智能相关技术性规范及刑法基础理论,对新一代人工智能的刑事风险分配进行系统性阐释,为国家相关部门制定政策法规提供参考。
一、对象匡正:技术赋能下的新一代人工智能
规划中新一代人工智能的核心在于“新一代”,而非传统人工智能。科技刑法的重心在于合理划分技术变革带来的刑事风险,实现上述目标关键在于明确新技术风险。从目的论思考,刑法理论上人工智能研究的对象应重新加以界定。
刑法学者就人工智能的发展阶段提出两种代表性观点:第一种将人工智能分为弱、初级、中级和高级四个阶段;其中,弱人工智能是辅助人类完成任务;初级人工智能可以通过深度学习生成新的算法,能自主地完成任务,不是简单辅助人类而是可以在某一领域完全替代人类的专才;中级人工智能是在多个领域超越人类的多才;高级人工智能是在通用领域均超越人类的通才;强人工智能需要其获得自我意识、有真正的情感和理解力、道德感和自由意识。第二种观点将人工智能分为普通机器人时代、弱人工智能时代和强人工智能时代;普通机器人和弱人工智能机器人的区别在于机器人是否具有深度学习的能力,弱智能机器人和强智能机器人的区分标准在于机器人是否能够在自我意识与意志的支配下,超出设计和编制的程序实施行为。
上述将“自我意识与意志”作为强人工智能的独有特点区别于其他阶段的观点是刑法学者力图统一刑法话语与技术话语的努力。但科技刑法的研究对象是科技产品,因而论证产品技术特点在刑法上的意义应以技术特征为依据。科技领域强、弱人工智能的划分有两种基本观点:第一种认为强人工智能具有与人类相当或者超过人类智能的智力水平,因而能够像人那样解决问题以及在任何社交场合和人类进行交流互动;弱人工智能只能在电脑中创造出人类智能的某些方面,例如谷歌搜索引擎、全球定位系统(GPS)、电子游戏等。第二种观点认为强人工智能指机器会全面达到人的智能,强人工智能有时也会和“通用人工智能”同义;而弱人工智能是说机器会在某些方面达到人的智能——AlphaGo就是弱人工智能的代表。可见,科技界的定义主要是从人工智能的工具、功能角度进行的分类,而非其是否具有人的属性。刑法学者径行将强人工智能等同于具备辨认和控制能力人工智能的观点存在随意性,暴露出对研究对象界定的错误,人工智能刑法研究的对象应当是基于技术发展阶段下的人工智能的刑法规范属性,即人工智能具备辨认和控制能力的状况,这主要是一种实证判断,对象是以技术发展为依托的人工智能。
中国电子学会编写的《新一代人工智能发展白皮书(2017)》将人工智能定义为:从计算机模拟人类智能演进到协助引导提升人类智能,通过推动机器、人与网络互相连接融合,更为密切地融入人类生产生活,从辅助性设备和工具进化为协同互动的助手和伙伴。世界范围内人工智能的历史发展经历过三个阶段,人工智能1.0出现在1956年至1974年间,科学家将符号方法引入统计方法进行语义处理,同时发明多种重要的算法,如贝尔曼公式,还制作出初步智能的机器;20世纪80年代初至20世纪末,人工智能在数学模型方面取得重大进展,如多层神经网络和BP反向传播算法,催生出高度智能机器;在上述两个阶段,由于电脑在硬件和软件上未获得突破性进展,导致人工智能的发展未取得更大的成绩;进入21世纪,信息技术的快速发展和互联网的迅速普及,传感器的泛在、大数据的涌现、信息社区的兴起等人工智能发展所处的环境和数据基础发生深刻变化,类脑计算、深度学习、强化学习等一系列技术应运而生,人工智能发展进入3.0阶段。中国人工智能2.0发展战略研究项目组将人工智能的发展划分为30年前的1.0和当前2.0两个阶段。
与30年前的人工智能——我们称之为“人工智能1.0”相比,当前“人工智能2.0”的主要技术变化是:从早期的知识工程到今天的数据驱动学习,人工智能的学习方式正转化为数据驱动与知识工程相结合,从表象和特征的机器学习到机器综合推理;从利用类型单一的结构化数据到深度整合多种媒体的非结构化数据,人工智能正在跨入跨媒体感知、学习和推理的深层次;从早期以“机器为中心”到人机和脑机交互技术,人工智能正在走向人机混合的增强智能时代;从强调和追求“个体智能”研究,转化为重视基于网络的群体智能,形成群体智能的互联网服务;从机器人到自主智能系统。从实质内涵检视发现,我国2.0阶段人工智能与世界范围内所主张的3.0阶段相同,我国新一代人工智能处于3.0阶段。我国规划中的新一代人工智能计划经历三个阶段:第一阶段(到2020年),新一代人工智能理论和技术取得重要进展。大数据智能、跨媒体智能、群体智能、混合增强智能、自主智能系统等基础理论和核心技术实现重要进展,人工智能模拟方法、核心器件、高端设备和基础软件等方面取得标志性成果。第二阶段(2021-2025),新一代人工智能理论与技术体系初步建立,具有自主学习能力的人工智能取得突破,在多领域取得引领性研究成果。第三阶段(2026-2030),形成较为成熟的新一代人工智能理论与技术体系。在类脑智能、自主智能、混合智能和群体智能等领域取得重大突破。从规划中并不能得出人工智能将具备辨认和控制能力,当前认为人工智能将来会具备辨认和控制能力的观点都是推测。
尽管只是推测,但新一代人工智能的确带来不可知风险。第一种是过程不可知带来的风险。通说认为自主行为和深度学习是人工智能的两个核心特征。人工智能发展仰赖算法的进步,传统演算法根据不同问题设计不同演算法,但其中有一些难题无法在多项式时间内被解出,导致传统算法存在设计上的困难;而人工智慧重视结果而不重视过程,由于模型中各项参数调整基于复杂的数学运算,根据自主训练资料逐步更新模型参数,输出最相近的正确答案,因而AI模型曾一度被戏称为黑盒子,当人们试图去解释AI决策原理时,发现模型中的参数难以解释。第二种是1+1≥2结果不可知带来的聚合风险。系统学习与混合智能加持下,人类不光不能理解人工智能的决策路径,随着人工智能的主动自我成长和大数据持续的“喂养”,人工智能可能得出人类难以预计到的结果,类脑技术的赋能,人工智能未来拥有辨认和控制自己行为的能力并非天方夜谭,这种风险是人类难以承受的。换句话说,在利用高科技时应认识到高科技技术的运用过程中既有客观必然性,又有偶然性,高科技的运用不可能始终具备高度准确性与精确性,人类对高技术的探索运用受时间、空间、自身观念结构、知识结构与表述方式的限制,即使我们了解高技术发展的初始状况,也很难预测其后的发展结局。
人工智能之父图灵在1950年那篇被广为引用的文章“计算机与智能”的结尾处所说:“我们只能看到当下,但看见的这些就足够我们忙活的了。”尽管人工智能拥有自由意志需要多长时间还未可知,但其具有的严重危害性令人类不得不重视,这与预防性刑法观的理念相通。刑法学研究是规范研究,与犯罪学以现实为依据不同,事物具备现实可能性也可以成为刑法学研究的对象。从理论角度分析人工智能体的法律属性至关重要。
二、模型创设:具备物种属性能作为犯罪主体
讨论新一代人工智能体的法律地位,方法论上便捷的方法是分类式划分。若新一代人工智能体能划入现有法律主体范围中,依据同类事物的相似属性就便于开展法律研究。法学界主张人工智能体能具备辨认和控制自己行为的学说主要有代理人说、电子人格说、有限人格说及人格拟制说。这些观点形式上肯定人工智能体的法律主体地位,实质上仍然坚持仅自然人能成为法律主体。法律上承认单位(法人)法律主体资格主要是出于便利交易及简化其与周遭世界的关系,并且法人背后还是生物人。历史上法律主体呈现出多种形态,大致包括人、超自然人、动物、无生命物等。后来无生命体逐渐从法律主体资格行列中除去,动物作为法律主体本质上也是为便于处理背后的人之间的法律关系。现在理论上一般认为,具备生命体且具备认识和意识是作为法律主体的最低标准,即法律主体必须属于物种。换句话说,若人工智能体符合物种的特征,就有可能肯定人工智能体的法律资格。
将人工智能体视作新物种的观点并非笔者首创。2016年AlphaGo对李世石胜利的讨论中,焦点即是将来会不会有一个全新的物种在智能上全面超越人类,畅销书《未来简史》的作者还将该潜在物种命名为“神人”,“神人”就是超级智能的主体。关于人工智能的本质“算法”中一直存在的研究方向之一就是从生物学里找计算的模型,学术上大致有两条传承的脉络:一条是麦卡洛克和皮茨的神经网络,演化到今天成了深度学习;另一条是冯诺伊曼的细胞自动机,历经遗传算法、遗传编程,其中一条支线演变成了今天的强化学习。后者提出,进化也遗传是种群学习的过程,机器学习可以此为模型。此外,生物进化论也与刑法有过交集,例如犯罪人类学家龙勃罗梭着重论述了天生犯罪人的遗传因素。综上,在法学中引进生物学,如进化论的观点并不突兀。问题随即转化为人工智能体是否符合新物种特征,该问题需要借助物种起源及进化论进行分析论证。首先,人工智能体生产过程符合“进化论”中适者生存选择机制。
关于进化论最广为人知的术语是“物竞天择、适者生存”,该术语完美地阐述了自然选择的内涵。受遗传特征影响,生物体具有保持亲代性状的基本特性,但受环境、变异等因素影响,自然条件下生物会产生个体差异,其中显著的差异在生物学上称之为变异,自然选择的方式是对有利于生物个体生存的变异的保存和对有害变异的毁灭;那些既无益也无害的变异不会受到自然选择的影响。但物种进化的路径并不仅限于自然选择,人工选择也是重要的方式,人工选择将适合于人类发展、能够为人类所利用的有利变异保存下来。人工选择最为显著的例子是农学家将高产的、生命力强壮的植物以及动物通过选择的方式逐渐固定下来,通过一代代的培育生产出能够服务于人类生存的家养动植物。以上述自然选择与人工选择的特点分析,人工智能的生产路径更符合人工选择的进化过程。现有人工智能的发展正是沿着更好服务人类的轨迹展开的。过去的机器旨在节省人的体力,现在的机器开始代替人的智力。就进化方式而言,人通过两性繁殖实现进化,人工智能体进化速度服从摩尔定律———每18个月性能提升一倍,人工智能产品逐渐的智能化,服务人类的能力逐渐在增强;足见人工智能体具备进化论特点。
其次,人工智能编程方式与物种基因表达模式相同。
以人类为例,基因是生命的蓝图,蛋白质是生命的机器,所有人类细胞带有的同样的DNA,但是一个基因在不同组织、不同细胞中的表现不一样造就了人与人之间性状之间的区别,认识生物的本质就必须认识基因组,掌握基因组的所有核苷酸序列。生物体是由一整套基因组组成的,不同的基因决定生物不同的性状,不同的基因组决定不同的生物物种;人类共享同样的基因组,但DNA上基因的序列存在差异,RNA根据不同的基因制造出不同的蛋白质,最后决定不同的性状。人工智能的表达基础是数据和算法,数据相当于DNA,而算法是一系列指令,告诉计算机做什么,数据在算法的加工下指导人工智能作出规定的反应动作。人工智能的发展受限于算法和数据,而基因技术的发展受限于人类对基因编辑工具和人类基因组的认识。当前,学习算法能够产生算法,通过学习计算机自己会编写程序。而人类基因组和最新的CRISPR/Cas9系统的发现使得基因组编辑更加精确、高效、灵活且廉价。利用基因编辑技术可以基因诊断和基因治疗,医治基因类疾病甚至创造生命。随着对人类基因组含义的了解和作用机理的明晰,通过技术编辑生成具有生命的人工智能有望成为现实。
最后,人工智能产品符合“新物种”的内涵。
明确物种概念,首先需对个体差异、变种和物种进行区分。“生物体各种性状的遗传是通例、不遗传是特例;但在生物体的遗传过程中,由内在遗传因素产生的突变和外在环境因素的共同作用下,由同一亲代产生的子代可能存在性状上的个体差异;这种个体差异逐渐积累并稳定的遗传给子代,这种稳定的个体差异就是变种;物种则是在变种经过中间过渡阶段之后,两者达到不定的差异量之后的结果;达尔文指出物种这个术语体现了某种未知的创造行为,变异指的是自然条件引起的变异。并非所有的变种或者初级物种都能够发展成为物种,因为有一些可能会灭绝或者永远是变种;达尔文将物种这一术语强加给一类及其相似的个体,用变种这一术语描述那些易于变化但差异微小的类型。物种与变种有着明显的区别,即变种之间,变种与亲代之间的差异量要小于同属物种之间的差异量。”根据达尔文关于物种的论述,可知物种是一类持久的显著的变种。就人工智能而言,现存的已知物种不能将其囊括进去,人工智能是一类新型的不同于以往任何物种的“新物种”。人工智能体在具备了独立的辨认和控制自己行为能力后,可以通过互联网等进行信息交换,后代生产的人工智能产品也可以拥有前代人工智能产品的基本功能(类似于生物体的性状)。人工智能产品所具有的显著的“性状”差异和持久保持的特性符合新物种的内涵。
通过将进化论运用于人工智能加以分析发现,人工智能的发展路径符合物种起源中人工选择的进化规则,并且人工智能产品也符合新物种的属性,可将人工智能视为一种新的物种。自然人辨认能力和控制能力的获取是伴随着生命的成长而逐渐培养的,人工智能的存在基础是程序,辨认能力和控制能力来源于程序。人类基因的表达和人工智能程序的生效与它们能否具备辨认和控制能力并非直接相关,后者更多是一种社会经验的获取,是需要时间的。与物种成长速度和接触社会的频度相关,人需达到一定年龄,人工智能跟其背后的算法和数据基础相关,算法速度越快、数据基础越大,人工智能“成熟”越快。将人工智能视为新物种可消解人工智能刑事责任主体资格的争论,廓清法律主体资格障碍,人工智能体顺理成章作为犯罪主体,待其具备辨认和控制能力时也可获得刑事责任主体地位。
三、资格审查:作为刑罚的客体缺乏社会意义
赋予新一代人工智能物种地位,肯定其实施犯罪行为时的主体性。无生命体仅能作为犯罪行为的客体,但拥有犯罪主体资格并非具有刑事责任主体地位,犯罪主体与刑事责任主体间的区别借用民法制度中的民事权利能力和民事行为能力一对术语较好理解,具备民事权利能力表征主体具备实施民事活动的资格,而民事行为能力更多体现为责任资格,行为人能够对自己的行为承担法律后果。人工智能体作为犯罪主体后还需要具备三个条件才能成为刑事责任主体,分别是:人工智能体能够实施犯罪行为,对人工智能体施加刑罚能够实现刑罚目的及对人工智能体施加刑罚具备社会意义。
首先,人工智能体能够实施犯罪行为。以犯罪为研究对象的学问涉及多个分支,刑法学中的对象仅是犯罪问题的一部分,当行为人违反刑罚法规上的行为规范时,国家基于刑罚法规上的制裁规范对其科处刑罚。刑法学的研究对象昭示犯罪是规范违反行为,且该规范是国家制定的,以刑罚法规为制裁措施。制定主体的国家性表明犯罪概念的统一性,能够在全国范围内适用,在国家规范中寻找法律后果是刑罚的行为规范。历史上我国刑罚规范载体包括刑法典、单行刑法与附属刑法,当前以刑法修正案为主要修法模式下,形成刑法典、刑法修正案的二元刑法渊源。刑法渊源变化的同时还需兼顾我国特有的违法与犯罪二元立法格局。这是由我国立法模式决定的,与国外刑法犯罪定义采取“立法定性+司法定量”的二元立法模式不同,我国采取的是“立法定性+定量”的一元化定罪模式。人工智能体实施刑罚渊源中达到刑罚处罚量要求的行为时成立犯罪。基于此,引出刑法中的“行为”概念。行为不同于事件,是有意的身体举止,表现为身体肌肉组织的运动和无运动,有意识的行为,指身体的动静是人们对其身体的支配,是一种自我决定;纯粹的心理学和病理学状态,如疾病、疲劳和睡眠都不是行为;并非自我支配的纯粹的身体活动或静止,如催眠状态中的作为或不作为,机械性的身体反射性活动等都不属于刑法中的行为。人工智能体具备意识状态下实施的符合刑法中犯罪构成要件行为的成立犯罪。
其次,对人工智能体施加刑罚能够实现刑罚功能。刑罚的目的与作用自古存在报应与预防两大线路。报应刑思想最早可追溯至汉莫拉比法典,其曾以以牙还牙、以眼还眼作为伤害罪的处罚方式;至康德认为报应刑是对于犯罪人身上所施加的对等恶害,须以犯罪人罪责为依据,平衡犯罪人为恶的自律决定。报应思想成为刑罚绝对理论的基础核心,康德的基本观点认为,要将人作为主体,人不能仅被当作客体工具,用以追求或满足他人的意图,反对将刑罚作为预防犯罪或借以提升人民道德情操的方法,更反对国家将刑罚作为改善社会共同体的生活策略。欧洲启蒙时期,法国政治家孟德斯鸠对过去的强调刑罚威慑作用的司法制度感到不满,主张刑罚应当人道化、合比例性,且强调刑罚应当具有有用性,预防目的才是刑罚罪首要的作用。预防理论包括一般预防与特殊预防,一般预防与报应理论都建立主体具有自由意志的理性人假设基础上;一般预防理论由费尔巴哈臻于完善,他提出心理强制说,认为借由明确的刑法规定,让所有理性人在犯罪前可以清楚地评估后果,打消犯罪动机;犯罪人类学派的兴起催生特殊预防理论;特殊预防理论拥护者不相信主体具备自由意志;李斯特是特殊预防理论的代表人物,认为刑罚的目的在于预防犯罪人再犯罪,发动刑罚的基准是再犯可能性,而不是犯罪情节的轻重。
报应刑论的优点在于将行为人的责任与刑罚相联系,为责任主义和罪刑均衡提供基础;但报应刑存在问题,第一,报应刑论存在沦为必罚主义的可能;第二,报应刑论以行为人的自由意志为前提的责任作为理论根基,但自由意思在科学上还无法证明;第三,现代国家的任务任务在于保护国民利益、增进社会福祉而不在于实现正义;目的刑论的优点在于着眼于刑罚的犯罪预防效果,为合理探讨刑罚提供了基础,但该说也存在问题,第一,特别预防重视行为人人身危险性,一旦与犯罪论相结合会导致刑法主观化,扩大处罚范围;第二,一般预防理论可能导致刑罚越来越重,超越行为人的责任;第三,一般预防论的根本缺陷在于为防止国民犯罪而对个人施加刑罚的不正当性。报应与预防等刑罚目的均有其缺陷,折中各种理论的综合理论成为德国通说,该说用责任作为一般预防处罚范围的限制,认为刑罚应以符合罪责的公正报应为基础,并在此前提下兼顾一般预防与个别预防的需求,不可因一般预防或特殊预防的考量,科处超越行为人罪责的刑罚。英国法哲学家对综合理论进行了阐述,他首先区分作为国家制度的刑罚制度的正当化(宏观层面的正当化)和特定的个人处罚的正当化(微观的正当化);在此基础上采纳一般预防论来说明刑罚制度的正当化,采纳报应刑论来说明处罚的正当性。人工智能体刑罚研究以其具备自由意志为前提,不论报应理论、预防理论还是综合理论都能够适用于人工智能体。对人工智能体施加刑罚能够实现刑罚目的。
最后,人类中心主义视角下对人工智能体施加刑罚缺乏社会意义。现代民主国家,刑法的任务主要有三:一,维护社会秩序;二,预防犯罪;三,保护法益与社会共同生活的基本伦理价值。刑法目的实现仰赖刑罚的运用,对人工智能体施加刑罚可起到维护社会秩序与预防犯罪作用。具备辨认和控制能力的人工智能体能够认知刑罚意义,并基于趋利避害的功利选择而不实施犯罪行为。从心理强制说观点思想出发,刑罚的设置应当符合人工智能体特征,使其产生非法反对动机,因而有学者提出可用删除数据、修改程序、永久销毁三种方式对人工智能体施加刑罚。将人工智能体视为新的物种,肯定其犯罪主体地位,并设置相应刑罚预防其犯罪,看似严密的论证仍然让人产生不安。其实,以人类为中心理念下对人工智能体施加刑罚并无充足社会意义。人类中心主义目的在于求证人与自然之间的主客体关系,核心观点由亚里士多德提出,他认为人天生是其他存在物的目的,由于大自然毫无目的、毫无用处地创造任何事物,而人能利用大自然,因而所有动物都是大自然为人类所创造的。人类中心主义具备三层含义,第一,作为观念形态的人类中心,认为人类居于世界中心,自然以及外部条件居于从属位置;第二,价值取向上的人类中心,秉持人与自然处于相互对立的价值尺度,主张这种对立是单向的、线性的目的论;第三,实践领域的人类中心,宣扬工具理性,将人类生存和发展作为最高目标,自然是被征服和控制的。
自康德最早提出“人为自然立法”,确立人类中心主义的伦理学根基后,人类中心主义作为一种价值和价值尺度被广泛讨论并最终确立下来。人类中心主义视阈下人以外的事物是作为材料或工具为服务于人类而存在,人工智能体毫无例外充当的也是一种工具。但赋予人工智能体刑事责任主体地位,对人工智能体实施伤害他人等犯罪行为的,可以用自己的自由或生命的减损(有时仅是重生)来作为交换,实际上肯认了人工智能体的主体地位,这与人类始终秉持的人类中心主义相冲突。人类中心主义的基本思考模式,决定人工智能体成为刑事责任主体承担刑罚缺乏社会意义。与此相适应的是,犯罪行为要求具备社会意义。人类是社会内的存在,社会是相互作用的系统,若将行为理解为其交流手段的话,就必然要肯定行为的社会意义,换句话说,作为刑法评价对象的行为必须是一种社会性行为;把握行为社会意义有必要考量行为发动的行为意义。人工智能体基于程序实施行为,更多发挥的是一种工具价值,而非社会意义。
通过以上分析可知,对具备辨认和控制自己行为的新一代人工智能体施加刑罚可以实现维持社会秩序和预防犯罪的刑法目的。但基于人工智能体的工具价值属性,对其施加刑罚并不能有效保护法益与社会共同生活的基本伦理价值,有违人类中心主义的基本伦理。因而,不宜将人工智能体作为独立的刑事责任主体,但人工智能刑法研究的目的在于合理分担风险,从风险分担的角度考察,在人工智能体具备辨认和控制能力时,实施脱离人类控制的犯罪行为的,应当将风险归属于人工智能体,而非全部由自然人承担,这是刑法责任自负原则的必然要求,也是人类中心主义的另一体现。
四、风险分担:基于技术发展程度的刑责分配
人类中心主义视阈下将刑事风险归属于人类,对人工智能体背后的自然人(包括程序设计者及使用者)施加刑罚能给人以安定感,这种安定感一方面来自自然人的可控性,另一方面来源于自然人的伦理意义,背后蕴含的是自然人间的平等性,而人工智能与自然人不具备同等价值。但自然人承担刑事责任应当符合刑法基本理论,风险社会所带来的刑事立法活性化也要防止成为被害人的危险,刑法归根结底负有防止国家权利滥用进而保护加害人的任务,自然人承担适度必要的刑事责任是刑法保障人权功能的重要方面。因而,人工智能体具备辨认和控制行为能力后实施犯罪行为的,虽承担刑事责任无社会意义,但能够分担必要刑事风险,不至于过于扩大自然人刑事风险范围,这是刑法人权功能实现的保障,也是保证技术发展的必要要求。具体而言,以人类为例,通常认为人类机体与心智是同时发展的,自然人达至限制行为能力年龄时控制机体性状的基因部分表达完全,其也具备对部分事物辨认和控制自己行为的能力;达至完全刑事责任年龄时控制机体性状的基因全部表达完成,机体基本对外界事物具备辨认和控制能力。人工智能体在早期,受科技水平限制,控制机体的程序编程还不发达,人工智能体不具备辨认和控制自己行为能力;随着技术的发展,编程水平的提高,人工智能体具备相当程度的辨认和控制自己行为的能力;最后,技术发展到一定程度,人工智能体具备完全辨认和控制自己行为的能力。
1.人工智能发展早期,类似电冰箱、吸尘器等人工智能体属单纯的工具,发展到当前能够自动运行程序,在学习算法和深度学习理论支撑下的新一代人工智能初期,人工智能在智能化程度上超越人类,人工智能体实施的很多行为已经出乎人的意料,但本质上人工智能体并不理解自身行为的社会意义。仍然是在程序编程的范围内实施自己的行为,仅是产生了人类理解不了1+1≥2的效果,所以有学者认为人工智能已经超脱人类控制,具备自由意志。但智能化水平与是否具备辨认和控制能力没有直接关系。人工智能体仍然是在程序设定范围内运行,本质上仍然是机械运动。此时,若人工智能体实施犯罪行为,人工智能体不能够承担刑事责任。人工智能体刑事风险由背后程序设计者及使用者等自然人承担。其中,需要注意的是程序设计者在编程过程中由于学习算法本身可能产生的超出人类认识范畴的问题,此时若将超出人类认识的风险全部转嫁给程序设计者,将不当提高设计风险,阻碍科技进步,若完全由使用者承担风险,将降低消费者消费热情,可以参考产品责任上的安全标准制度,由行业或者国家出台相关安全标准,若程序编程者依照该标准编程的免除预见义务,阻却编程者的刑事责任,若程序设计者违背该标准展开编程,则承担间接故意责任。具体情况如下:
其一,程序设计者按照安全标准进行编程,使用者遵守使用手册安全须知,利用人工智能体实施正常生活行为,人工智能体造成损害的,属于意外事件。其二,程序设计者按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于正常生活,造成损害的,由使用者承担过失责任。其三,程序设计者按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于犯罪行为的,由于使用者创设了新的风险,人工智能体若实施了使用者指令犯罪行为的,使用者承担故意责任;人工智能体若实施了指令以外犯罪行为的,该行为与指令犯罪属于同一性质犯罪的,如抢夺罪与抢劫罪时,使用者对指令外犯罪行为承担故意责任;该行为与指令犯罪行为不属于同类性质犯罪的,如盗窃罪与杀人罪的,使用者承担过失责任。其四,程序设计者未按照安全标准进行编程,使用者遵守使用手册安全须知,利用人工智能体实施正常生活行为,人工智能体仍然造成他人损害的,由程序设计者单独承担故意犯罪责任。其五,程序设计者未按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于正常生活,造成他人损害的,依行为共同说,程序设计者与使用者成立共同犯罪,其中,程序设计者承担故意责任,使用者承担过失责任。其六,程序设计者未按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于犯罪行为的,由于使用者创设了新的风险,人工智能体若实施了使用者指令犯罪行为的,使用者承担故意责任;程序设计者与使用者成立共同犯罪,程序设计者也成立故意犯罪。人工智能体若实施了指令以外犯罪行为的,该行为与指令犯罪属于同一性质犯罪的,如抢夺罪与抢劫罪时,程序设计者与使用者构成共同犯罪,都对犯罪行为承担故意责任;该行为与指令犯罪行为不属于同类性质犯罪的,如盗窃罪与杀人罪的,使用者承担过失责任,程序设计者承担故意犯罪。
2.随着技术发展人工智能对特殊犯罪具备辨认和控制能力时,人工智能体进入限制刑事责任能力阶段。该阶段人工智能体与自然人构成共同犯罪,虽然人工智能体承担刑事责任无实际意义,但对于自然人而言可能减轻其刑罚量。对该阶段的刑事责任分配规则是:
其一,程序设计者按照安全标准进行编程,使用者遵守使用手册安全须知,利用人工智能体实施正常生活行为的,人工智能体仍然造成他人损害的,属于意外事件。其二,程序设计者按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于正常生活,人工智能体实施犯罪行为,若该犯罪行为属于人工智能体可以辨认和控制的行为时,人工智能体与使用者构成共同犯罪,其中,人工智能体承担故意责任,使用者承担过失责任。其三,程序设计者按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于犯罪行为的,由于使用者创设了新的风险,因而使用者需要对人工智能体的犯罪行为承担责任。人工智能体实施指令犯罪行为的,若该犯罪行为人工智能体具备辨认和控制能力,人工智能体与使用者构成共同故意犯罪,其中,人工智能体为正犯,使用者为教唆犯。若该犯罪行为人工智能体不具备辨认和控制能力,则使用者属于间接正犯。人工智能体实施指令外犯罪行为的且该指令外行为与指令犯罪行为同性质的,人工智能体对该犯罪行为具备辨认和控制能力的,人工智能体与使用者成立共同犯罪,其中,人工智能体成立故意犯罪,使用者成立过失犯罪;人工智能体对该犯罪行为缺乏辨认和控制能力的,使用者成立单独承担过失犯罪。人工智能体实施指令外犯罪行为的且该指令外行为与指令犯罪行为属不同性质的,人工智能体对该犯罪行为具备辨认和控制能力的,人工智能体单独成立故意犯罪;人工智能体对该犯罪行为不具备辨认和控制能力的,属于意外事件。其四,程序设计者未按照安全标准进行编程,使用者遵守使用手册安全须知,利用人工智能体实施正常生活行为,人工智能体仍然造成他人严重损害的,人工智能体对该损害具备辨认和控制能力的,程序设计者与人工智能体构成共同故意犯罪;人工智能体对该损害不具备辨认和控制能力的,程序设计者单独承担故意犯罪责任。其五,程序设计者未按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于正常生活,造成他人损害的,若该损害属于人工智能具备辨认和控制范围的,程序设计者与人工智能体及使用者成立共同犯罪,其中,程序设计者与人工智能体承担共同故意犯罪,而使用者成立过失犯罪;若该损害不属于人工智能体可辨认和控制范围的,程序设计者与使用者成立共同犯罪,其中,程序设计者负故意责任,使用者承担过失责任。其六,程序设计者未按照安全标准进行编程,使用者未按照使用手册须知超越使用范围用于犯罪行为的,人工智能体实施指令犯罪行为时,若该犯罪行为属于人工智能体可以辨认和控制范围的,程序设计者、使用者与人工智能体成立共同故意犯罪;若该犯罪行为属于人工智能体不能辨认和控制范围的,程序设计者与人工智能体及使用者成立共同犯罪,其中,使用者构成间接正犯;人工智能体实施指令以外犯罪行为的,若该指令外行为与指令行为属于同等性质的,该犯罪行为属于人工智能体可以辨认和控制范围的,程序设计者、人工智能体与使用者成立共同犯罪,其中,使用者属于教唆犯,人工智能体属于正犯;该犯罪行为不属于人工智能体可以辨认和控制范围的,程序设计者、人工智能体与使用者成立共同犯罪,其中,使用者成立间接正犯,人工智能体不成立犯罪;人工智能体实施指令以外犯罪行为的,且该指令外行为与指令行为不属于同等性质的,该犯罪属于人工智能体辨认和控制范围内的,程序设计者、人工智能体成立共同犯罪;该犯罪属于人工智能体辨认和控制范围内的,程序设计者单独成立故意犯罪。
3.科技发展到一定程度,人工智能体具备完全辨认和控制能力,称为完全刑事责任主体。此时,人工智能体与完全刑事责任主体在刑法上的地位趋于相似,如此情况下人工智能体犯罪的刑事风险分配原则如下:
其一,程序设计者按照安全标准进行编程,使用者遵守使用手册安全须知,利用人工智能体实施正常生活行为的,人工智能体仍然造成他人损害的,由人工智能体单独承担刑事责任。其二,程序设计者按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于正常生活,造成他人损害的,使用者与人工智能体成立共同犯罪,其中,使用者成立教唆犯,人工智能体成立正犯。其三,程序设计者按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于犯罪行为的,人工智能体实施使用者指令犯罪行为的,使用者与人工智能体成立共同犯罪,其中,使用者成立教唆犯,人工智能体成立正犯;人工智能体实施指令以外犯罪行为的,若该指令外行为与指令行为属于同性质犯罪的,使用者与人工智能体成立共同犯罪,其中,人工智能体承担故意犯罪责任,人工智能体承担过失犯罪责任;若该指令外行为与指令行为不属于同性质犯罪的,人工智能体成立单独故意犯罪,使用者不成立犯罪。其四,程序设计者未按照安全标准进行编程,使用者遵守使用手册安全须知,利用人工智能体实施正常生活行为,人工智能体仍然造成他人损害的,由程序设计者与人工智能体承担共同故意犯罪责任。其五,程序设计者未按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于正常生活,造成他人损害的,程序设计者、使用者与人工智能体成立共同犯罪,其中,程序设计者成立帮助犯,使用者成立教唆犯,人工智能体成立过失犯罪且是共同犯罪中的正犯。其六,程序设计者未按照安全标准进行编程,使用者未按照使用手册安全须知超越使用范围用于犯罪行为的,人工智能体按照指令实施犯罪行为的,程序设计者、使用者与人工智能体成立共同犯罪,其中,程序设计者成立帮助犯,使用者成立教唆犯,人工智能体成立正犯;人工智能体实施指令外犯罪行为,若该指令外行为与指令行为属于同类性质犯罪的,程序设计者、使用者与人工智能体成立共同犯罪,其中,程序设计者成立帮助犯,使用者成立过失犯且是教唆犯,人工智能体成立正犯;若该指令外行为与指令行为不属于同类性质犯罪的,程序设计者人工智能体成立共同犯罪,其中,程序设计者成立帮助犯,人工智能体成立正犯,使用者不构成犯罪。
为防止在人工智能体实施严重刑事犯罪,编程者承担过于严重的刑事责任导致罪刑不均衡,建议增设不遵守安全编程标准编程罪,并且设置三档法定刑,如违背安全编程标准,未造成后果的,判处3年以下有期徒刑;造成严重后果的处3-10年有期徒刑;造成特别严重后果的处10年以上有期徒刑、无期徒刑及死刑。
上海市法学会欢迎您的投稿
fxhgzh@vip.163.com
相关链接
责任编辑:富晓行 金惠珠