明晔 何万里|论人工智能的刑责承担问题
明晔
西安工程大学人文社会科学学院硕士研究生
何万里
西安工程大学人文社会科学学院副教授
要目
一、研究人工智能刑责承担的重要性二、人工智能技术和人类自我意志的相似与不同三、从刑法的发展历程看人工智能的地位四、对于人工智能技术的规制
刑法学界对于人工智能的刑责承担问题,分为应赋予其主体地位和不应赋予其主体地位两种观点。但是部分学者碍于人工智能的理论知识和法律知识之间的隔阂,难以从技术层面去分析人工智能的主体地位,通过从技术层面和法律的发展两个方向分析研究,讨论人工智能的刑责承担问题。
人工智能技术方兴未艾,21世纪是人工智能技术的世纪。党的十八大以来人工智能技术发展势不可挡,新一轮科技革命和产业革命的窗口已经开启。人工智能技术发展不仅给科技、经济、政治带来了新挑战、新机遇,更在法律层面产生了许多值得钻研的问题。特别是在人工智能的刑责承担方面,刑法学界掀起了空前的讨论热潮。刑法学者们将人工智能分为了弱人工智能和强人工智能两个不同的层次。一种观点认为人工智能在可以预见的很长一段时间内,会一直处于弱人工智能阶段。因而,人工智能仍然摆脱不了人的意志的影响,会一直成为为满足人类自身利益,专精于某一领域的具有一定自身判断能力的专家系统。其本质是人类为了满足自身的需要和利益而使用的某种工具。强人工智能更是仅存在于想象中的虚幻之物,赋予其刑法主体地位更会使立法显得虚无缥缈。在这种模式下人工智能完全不具有人的属性,更谈不上刑法上的主体地位。所以由人工智能所造成的犯罪行为的罪责应该由使用人工智能的特定的行为人承担。另一种观点则截然不同,这部分学者认为人工智能必然会步入强人工智能阶段。这时的人工智能已经摆脱了对人类的依赖,有了自己独立自主的意识,在自主意识和意志的支配下去做出或不做出某种行为。这时的人工智能与现在刑法上所定义的主体的属性几乎完全一致。所以,应该赋予人工智能在刑法上的主体地位,人工智能自己所实行的犯罪行为的后果应该由自己承担。由此可见,目前刑法学界对于人工智能刑责的承担问题主要还是从法律的角度出发去看待人工智能技术问题,在已有的法律框架内讨论人工智能的刑事责任,对于技术的涉猎也只是浅尝辄止,并未能很好地将人工智能技术的发展与刑法的发展相结合起来。造成了关于人工智能的刑责承担问题的讨论天马行空的表象。本文拟从人工智能技术发展的层面出发,结合刑法的发展去讨论人工智能的刑责承担问题。
一、研究人工智能刑责承担的重要性
在人工智能刑法主体地位持否定观点的学者们看来,现在讨论人工智能在刑法上的主体地位仍然为时尚早。现阶段的人工智能完全展现不出来人类所特有的智慧。因而现在就将赋予人工智能在刑法上的主体地位提上日程未免显得操之过急,甚至于在某些领域的研究出现了违反人们常识和反智的情形。
但是,人工智能技术的独特之处在于,其不是简单的经过某种技术的堆砌或者迭代所产生的新技术。而是一门包罗万象的学科,与之前发展的各种计算机技术的融合度特别高。假如把人工智能技术比作海洋,那这个全新的海洋里面所蕴含的是计算机行业几十年发展的精华。包括:深度学习、数据挖掘、大数据、云计算、复杂神经网络、链路分析、分布式存储、物联网、数学建模等等,可以说是包罗万象。因此人工智能技术所带来的收益与风险和以往的技术革新也是不可同日而语的。谁也不能预料到科幻作家弗诺·文奇(Vernor Steffen Vinge)笔下所写的人工智能技术的奇点何时到来。一旦人工智能技术达到强人工智能阶段,人工智能可能因为自己的喜怒哀乐,或出于维护自己或者他人甚至于其他人工智能的利益去实行一些犯罪行为。同时这个实行了犯罪行为的人工智能的算法可能随着互联网传遍了世界。更有赖于P2P技术和分布式存储技术的加持,其广播在全球互联网的算法更是不可能完全清除。日后如有其他的人工智能主动下载或者被动接受了此算法必然导致此前犯罪行为的重复出现。这种犯罪行为的可复制性、重复犯罪的顽固性、犯罪主体的广泛性和预防犯罪的复杂性,是现阶段刑法学界所不能预见的。国家制定、诉求、裁量、执行和监督刑罚想要达到的目的是每个人利益的最大化,预防国民犯罪和使犯罪的国民得到应有的惩罚。在上述情形中,存在一个刑法无法规制的主体在肆无忌惮的实行犯罪行为,而且这种犯罪是极易被大规模复制而发生的。这无异于现代的人类生活在法律甚至道德出现之前茹毛饮血的原始社会。一切的规则都将被打破,已经成型的社会架构将会被颠覆,我们所熟知的法律范式也将不复存在。待到进入强人工智能时代再开展类似的研究必然导致“科林格里奇困境(Collingridge’s Dilemma)”所以,开展人工智能刑责承担问题的法律研究十分迫切。
二、人工智能技术和人类自我意志的相似与不同
刑法学界对于人工智能技术的认知,大部分还停留在人工智能技术是一种极特殊的算法程序黑箱。将人们所掌握的数据输入进去,可以得到一个在既有的算法框架下的最优解。而这个算法黑箱里面的逻辑是通过人工智能无数次的训练得来的,人工智能在无数次的训练中是被动地接受了人们给其输入的既定事实。从而使这个算法黑箱在今后遇到相似的情况下自然而然地输出了相对特定的结果。在这个逻辑中,虽然人工智能最后输出的结果是不可预估的,但是其输出的范围仍然在程序预先设定好的范围内,并且是按照研发者或者使用者的意志进行的。所以,人工智能仅仅是一项工具而已。其仍然在开发者或者使用者的掌控之中。笔者认为,此种观点将人工智能逻辑的来源过于简单化,对人工智能技术的认识不深,彻底否定了人工智能的自主性和独立性,难免有“人类中心主义”之嫌。
现代人工智能技术真正起源于1960年马文·明斯基所写的那篇著名的论文——《通向人工智能的步骤》。其后诞生了人类历史上第一个对话机器人伊莉莎,其最基本的逻辑就是扫描某个关键词,并在自己的数据库中匹配与关键词相对应的合适词汇,将这些词汇组合成一段通顺的语句后再将这段语句输出。这个程序毫无智能可言,甚至都达不到逻辑自洽的地步。之后就是人们所熟知的机器人深蓝,它在1997年击败了当时的国际象棋世界冠军加里·基莫维奇·卡斯帕罗夫。而深蓝也不是真正意义上的人工智能,其最核心的技术思路是穷举,即计算出所有棋子下一步移动的所有可能性,并将最优解输出出来。可以说,这个阶段深蓝的胜利,完全是计算机计算能力的胜利。计算机的计算速度与能力高于人脑很多,通过这种穷举的方式计算出所有的可能性并最终打败了卡斯帕罗夫。这个时期的人工智能有了目前人工智能技术的雏形即选择最优解。然而我们现在的人工智能已经完全抛弃了以往的简单的扫描词语然后输出,或者是用看起来无穷无尽的运算能力去“暴力”解决一切问题的思路。计算机学家通过仿生学的原理,模仿人类的逻辑将思维、感知和行动有机地统一。现在的人工智能不仅仅是一个专家系统、一个解决问题的工具,更是一种思维、一种类人的智能。
人类如何去认识世界,提出问题并解决问题,形成自己的价值观、人生观、世界观是人类智能的关键之所在。人类智能在刑法上的表述就是人类如何依靠自己的思维和意志支配自己的做出或者不做出某些特定的行为。那么人类智能是如何产生的,或者说人类智能为何如此的与众不同,有如此高的辨识度。艾弗拉姆·诺姆·乔姆斯基博士(Avram Noam Chomsky)曾有一段著名的论述:“几乎可以肯定,在五万年之前,一小群人获得了一种能力,能将两种概念合并成为第三种概念同时又不会无限制的破坏原有的概念。”由此可见,人类的符号系统即语言和文字,在人类智能的发展过程中起到了不可或缺的作用。但是人类的智能并不仅仅是由符号系统所构成的。当老师给学生布置了一道数学题时,老师通过符号系统传达给学生特定的信息,学生通过视觉和听觉系统捕获到了这些信息,并通过早已储存在自己大脑中的符号系统通过类似于查字典的方式,将捕获的这些抽象化的信息在自己的大脑中一一对应的具象化成自己可以理解的内容,进而解决这道数学问题。人类是通过长期地、不断地学习各种理论知识,并且在社会生活中的反复的实践这些理论知识,同时将在实践中获得的经验不断总结,才得到的人类智能。在这个过程中人类始终以道德和法律为自己行为的指导和框架。相对应的,在目前的人工智能技术中,人工智能也有自己独特的符号系统——二进制。通过数学建模并用二进制的语言将这个数学模型存储在人工智能的存储系统中,使得人工智能可以理解人类社会中的各项规则和运行方式。当然,这个过程还离不开大量的训练和机器学习。通过将人类社会中的各种数据制作封装成数据集的方式,来对人工智能进行大量的训练,调整算法中的特征值和约束条件,使得输出的结果最大可能的符合人类定义的最优解。在这种方式中,人工智能在没有通过大量的数据进行训练时犹如一个呱呱坠地的孩童。其硬件设施已经完备,但是其还不存在应该被称之为“智能”的东西,因其还没有完成特定的学习。在此人工智能的存储系统中,还没有自己、行为的范式,无法依靠自己的认识和意志支配自己的躯体去完成一定的任务,做出特定的行为。而其在有了算法的加持并进行了大量的学习训练之后,在存储系统中就会产生一定的逻辑结构,与其说是逻辑结构,不如说是学习到的大量的人类社会经验并在其中标记了特征值,通过特征值对这些社会经验进行归纳分类,在自己的存储系统中构建了特定的知识体系。每当人工智能的符号系统接受到来自I/O设备输入的信息流后,就会激活这个符号系统去查找与这个信息流最相近的特征值,并将这个特征值对应的结果通过做出某种相对特定行为的方式向外界表达出来。当前这种人工智能的技术路线已经相对成熟并且在可以预见的将来,人工智能依然会沿着这条道路走下去。在这种式下,人工智能负责处理信息的硬件系统与人类负责处理信息的器官在功能上是相当。人类智慧的增长在于广泛地学习知识,在自己的脑海中形成固有的知识体系。人工智能的“智能”的增长在于使用大量的数据进行训练,在存储系统中形成固有的思维体系,解决各种问题。特别需要提到的是,在训练过程中算法的约束条件正好对应着人类社会中的法律和道德。法律、道德指导人类的各种社会活动,而约束条件则要求人工智能应该做什么行为或者不应该做什么行为。所以,人工智能无论是从硬件的功能、思维方式还是其智能的获取方法与人类相比都是大致相当的。
美国著名法学家奥利弗·温德尔·霍姆斯(Oliver Wendell Holmes,Jr.)有云:“法律的生命不在于逻辑,而在于经验。”如果法律的判决是依据严格的逻辑推理,过分地强调逻辑的严谨性和科学性,忽视不断变化的社会经验的作用。将会使法律严重脱离经验世界而日渐封闭,其活力日渐枯萎,最后蜕化成为社会发展的桎梏。霍姆斯的话强调了经验在法律体系中的重要作用,这是因为人们在日常的社会生活中所作出或者不做出某些行为,绝大多数的理论依据是自己的生活经验和习惯。根据自己当下所面临的情况或者问题,在自己的大脑中归纳演绎,自然而然的得出了相应的结论。这个结论绝不会是非常严谨科学的逻辑推理,它的诞生更类似于概率问题,因为不能保证人类在相同情况下都会做出完全一致的决定。这也是人类智能的一大特点,在自己特定的知识框架下所做出行为的相对不确定性。而在21世纪一开始,计算机学家们就意识到,以往以纯逻辑的理论推导为基础的人工智能的实现方式所输出的结果,往往不尽如人意。这种结论上的大相径庭其原因在于忽视了经验主义的作用,纯逻辑的推导结果很多都脱离实际。所以现在的人工智能所作出某种决定的依据是数学方法中的统计概率。人工智能经过大量数据训练得知人类在此种情况下最有可能的解决方式,并模仿这种解决方式作出相应的行为。这种技术路线完全模仿了人类做出决定的方式,使人工智能真正的按照人类的行为方式去行事。
人工智能通过模仿人类的符号系统、思维方式和做出决定的逻辑完全展现出了其与人类智能的相当性。人工智能所作出的一切行为都已经脱离了它的使用者的意志,而是完全拥有类似于人类的自主意识的行为。仅就这点来看,人工智能完全依靠自己的意志支配自己的行为,可以成为刑法上的主体,单独的承担刑事责任。
帕特里克·温斯顿(Patrick Winston)曾表示人工智能技术的关键不在于算法,而在于建模。人工智能技术的关键是将人类生活中繁杂而具象化的各项工作进行必要的拆分,在抽象概括的基础上将各项工作一一映射为计算机系统中的各种模型。这个建模的工作是整个人工智能中最基础最核心的部分,通过数学建模人工智能得以理解人类社会的各项规则和人类的各种行为。所以研发者给人工智能构建了什么样的模型,直接决定了人工智能对整个社会规则,特别是法律的理解方式。也直接决定了人工智能将要按什么样的方式去作出自己的行为。所以人工智能从诞生之初起就与研发者有着密不可分的联系。
其次,上文提所及的人工智能的思维和意志的由来离不开大量数据的训练。而这些数据的来源、这些数据里面所包含信息好坏的甄别。还有对这些数据进行训练集和测试集的划分。还有最重要的数据集的标注工作,所谓标注就是按照人类的定义对这些数据进行解释,并将带有解释的数据集输入到人工智能系统中进行训练。就像孩童在幼儿园时,老师教授什么是苹果什么是香蕉。这样在孩童的大脑中就有了苹果和香蕉的概念,自然而然地就知道了苹果和香蕉是不属于同一类型的物质。通过这种方式,人工智能得以了解这些数据在人类社会中的含义。以上的工作都不离开研发者自身的意思表示。
最后,人工智能是否达成了我们需要的目标,需要靠交叉验证的方式来进行。简单的概括就是从对人工智能进行训练的数据集中分出测试集和训练集。通过这两个集合交叉对比的方式,看看人工智能的准确率有多少。而测试集的划分,相当于研发者告诉人工智能什么样的行为是对的、合适的,而什么样的行为是错误的、应该避免的。
人类独立的思维和意志是经过了长期的社会生活所形成的,其中包括了人类的伦理、道德、政治、法律、宗教和家庭教养等等,这些在成长中经历的事件和学习到的知识不以任何人的意志为转移。但是,无论人工智能开发的哪个阶段,都离不开研发者的意志对人工智能进行指引。从数学模型的构建、数据集的划分到行为正确与否的判断都包含了研发者的主观意志,研发者将自己的内在的意志转换成了研发人工智能的行为,在这个研发过程中,特别是在对人工智能的有效性进行判断时,必须依靠研发者的自身的价值观进行判断。虽然,人工智能的开发完成后,可以视作完全脱离了研发者的主体在刑法上独立存在,但是人工智能思维的成长却与人类很不相同。人工智能没有经历完整的社会生活,对于人类社会的认识仅仅通过短期的机器学习的方式所获得。并且人工智能所能够接触到的数据以及这些数据在人类社会中的含义,都是经过了研发者的筛选加工而成。人工智能最重要的行为准则——约束条件也是研发者所赋予。所以其内在的价值观,其行为方式的构建完全可以向前追溯到研发者的行为。假如在研发时,研发者故意或者过失的将故意杀人作为人工智能解决纠纷的最后手段添加进了数据集中,并且人工智能进行了杀人行为,这时候,虽然人工智能是个独立的个体,但是也很难否认研发者在其中所起到的主要作用。虽然进行训练时人工智能还不是刑法的主体,不存在两个主体通谋的行为。但是此时的人工智能确确实实地贯彻了研发者的思维,并将这种思维外化于行。从这方面来看,我们将人工智能作为刑法上的个体,单独定罪处罚又没有起到刑法应有的惩戒和预防效果。
三、从刑法的发展历程看人工智能的地位
最初的刑法可以追溯到公元前1785年的古巴比伦,国王汉谟拉比颁布了汉谟拉比法典,而后的古希腊和《圣经》中也有关于犯罪及其刑罚的规定。近代西方刑法的变革则是文艺复兴时期,在启蒙主义思想的指导下进行的。何勤华教授认为:“近代以后的刑法,在启蒙主义思想的指导下,通过观念的更新和周密的制度设计,成了市民社会公民自由和权利的保障,这是人类社会一个巨大的历史性变革。”由此可见刑法是市民社会的法,是保障公民权利和自由的法,不管将来社会出现了任何的新事物和新的社会关系。刑法的本质和目的不会改变,分析这些事务和社会关系都要从刑法的产生、本质和目的出发,人工智能也不例外。
“……由此可见,是有一个根本理性存在着。法就是这个根本理性和各种存在物之间的关系,同时也是存在物彼此之间的关系。”孟德斯鸠认为存在一种东西贯穿于整个社会现象,是社会现象的本质。而刑法是社会现象的一种其本质孟德斯鸠称为“法律精神。”法律精神受多重因素的制约,政治、经济、文化、习俗、道德、自然气候等等都可能塑造不同的法律精神。而法律精神贯穿于刑法的始终,要对刑法有准确性的把握,必须首先了解一个社会的风土人情,通过现象看本质。人工智能在其研发之初,研发者已经将这些法律精神所包含的东西以数据集的形式输入到了人工智能的存储系统中,并进行了反复多次训练。并且,人工智能的存储系统比人类的记忆力要强得多,只要硬件不被损毁,这些知识可以永久存续。所以,人工智能对于法律精神的掌握可以说是十分牢固,由此带来的其对刑法的认识也十分深刻。对于刑法想要达到的目的和刑法对自己行为的约束的理解应与常人无异。法国学者雷蒙·阿隆(Raymond Aron)对于法律精神有着更深刻的认识,“人们一旦掌握了决定事件总的进程的深刻原因后,未来就成为可理解的了。一旦把多样性置于为数不多的类型或概念之中,那么多样性也就成为可知的了。”这表明,一个正常人类一旦理解了法律精神,那么这个人对自己当前的行为在刑法上所产生的后果应该有充分的认知。而人工智能可以很轻松地理解法律精神,并且人工智能也拥有完整的逻辑思维能力去预见自己的行为在刑法上的后果。仅就此而言人工智能是可以独立承担刑事责任。
陈兴良教授对于康德所提出的人最重要的价值——自由是这样剖析的:“人的本性是一种‘非社会的社会性’,即一方面人具有社会性,希望生活在社会中,以利于发展他的自然禀赋;但另一方面人又具有非社会性,因为他有很强的感性倾向,要作为个体而生活,以便能按照自己的意愿来行事。”这是最基本的人性,也是人最渴望的自由。而刑法诞生的目的就是为了维护个人的自由。需要看到的是,刑法并不是社会中的个人积极主动追求的结果,而是每个人在社会的发展当中不断妥协的产物。人的“社会性”是为了谋求自己更好的发展和进步,人类从起源时就是群居动物,一个人的力量在当时面对未知的大自然时是渺小的,只有群居生活才能保护自己的生命安全。而现在的人类,在社会这个大集体中,只有认清自己在社会产业分工中的地位,认真完成所分配到的任务才能在社会这个集体中生存下去。人的“非社会性”则会不断地撕裂个人与社会的关系,加剧社会的阶层冲突,使个人不遗余力地占据本属于集体的生产资料。这会严重破坏其他人的利益,阻碍他人的发展与进步,严重者就会导致犯罪。每个人为了自己的利益最大化,保护自己的既得利益,合理分配将来能够获得的利益,在社会生活中不断磨合、妥协因而产生了刑法。而切萨雷·龙勃罗梭(Cesare Lombroso)更是提出了“天生犯罪人”的概念,强调社会中的罪犯有大约40%的人是因其天生的生理结构所导致的犯罪。龙勃罗梭认为犯罪是由遗传的基因所导致的,所以有些人就是天生的犯罪人。但是并不是所有的犯罪人都是天生的,还有一些犯罪人是在社会生活中经历了某种刺激与伤害。杰里米·边沁(Jeremy Bentham)的功利主义法学则认为人是具有趋利避害性的生物。当一个人犯罪所获得的快乐大于他因犯罪所受到的惩罚时,犯罪行为就是不可避免的。而对于人工智能而言,假如其犯罪行为是因为硬件上的缺陷所导致的,人工智能的研发者则负有不可推卸的责任。人工智能的研发者将人工智能交付给使用者时即视为对人工智能正常运作,完成使用者所交付的任务,并保障使用者和不特定第三人的生命、财产安全做出了承诺。一旦因为硬件的缺陷导致了犯罪行为,根据龙勃罗梭的理论,正处于犯罪进程中的人的意志与理性将变得不再可靠此时的人工智能更不可能是处于自己的意志的支配下而实行的犯罪行为,我们完全可以依据产品缺陷的归责原则,追究研发者的刑事责任。而对于人工智能的犯罪动机是为了追求自己利益的最大化,或单纯的逞一时之快则是很难去查明的。惠子曾对庄子说过:“子非鱼,安知鱼之乐?”这说明,人工智能所实行的犯罪行为是为了自己的快感还是为了自己的利益,或者是为了使用者、研发者的利益都是很难从其行为的客观表现分析判断出来的。我们所讲的个人快感、社会中的利益都是非常抽象化的概念,无法通过数字的形式去量化地表达出来。因此我们只能通过分析谁是最终受益者的方式去应对。假如是人工智能实行自身纯获益的犯罪行为,既然研发者和使用者在这项犯罪活动中没有收益,我们就可以认为研发者和使用者并没有积极主动地追求犯罪结果发生的主观意志,因此只能单独地对人工智能定罪处罚。而是否存在放任犯罪结果发生的问题,如果不能够提出客观完整的证据链,那么就应该按照疑罪从无的原则,认定研发者和使用者与此犯罪行为无关。对于研发者和使用者从人工智能的犯罪行为中获益的情形,我们可以借鉴适用民法中的过错推定原则。人工智能的研发者和使用者对于人工智能的主观意志和使用过程中存在的风险应有充分的预见性,刑法也应当严厉打击研发者和使用者利用人工智能从事犯罪活动并从中获得收益的行为。一旦他们从人工智能的某个犯罪行为中获得了收益,我们就可以认定为他们直接或者间接地参与了犯罪活动,这时的举证责任倒置,由研发者和使用者证明自己没有参与犯罪活动。因为这时对于研发者和使用者提出了更高的要求,公安机关或者有资质鉴定人工智能相关产品的机构应在必要时予以充分协助。
我们目前的刑法已经形成了相当完善的体系。但是,法律必然存在滞后性,现有的刑法对于人工智能这种新兴事物还是存在着许许多多难以有效规制的地方。
“无行为则无犯罪”这是一条流传甚广的法律格言,它表明了行为对于犯罪成立的决定意义。但是人工智能犯罪却呈现出别样的特点。我们常讨论的人工智能是特定的人工智能体,但是人工智能体仅仅是人工智能算法的承载对象而已,人工智能体所具体作出的行为是由人工智能算法控制的,这个算法才是整个人工智能的核心。可以说一旦出现犯罪行为,该犯罪行为是由算法导致的而不是这个算法的载体所导致的。假设这个算法包括了目前所有的犯罪手段与方法,就目前的刑法体系而言,其仅仅是停留在犯意阶段。当前刑法这样的规定对于人类犯罪而言是完全合理有效的,因为特定个人的智能不能脱离其肉体单独存在。限制或者消灭其肉体,其犯罪的意志也随之消灭或受限制。但是对于人工智能的算法而言,其可以和任何一个载体相结合,可以使任何一个载体实行犯罪行为而算法本身却不会被刑法所处罚,而且一旦此算法接入了互联网,后果是灾难性的。任何一个算法的载体都有可能成为这个算法实施犯罪行为的工具。而通过接入互联网这种手段,这个算法的传播可以非常迅速,其传播的范围也会十分广泛。因为这个算法在传播的过程中不会有任何其他因素的影响,所以这个算法所代表的犯罪意志十分完好地传递给了下一个载体,而下一个载体再次实施犯罪行为可以说是必然的。在目前的刑法体系中,算法这个犯意不能成为定罪处罚的对象,也就导致了治标不治本的现象的发生。任何一个人工智能体触犯了刑法,我们可以剥夺它的自由甚至生命。人工智能的生命可以是其硬件的完整性也可以是其算法的完整性。但是只要算法还在,这个人工智能的思维和意志就没有磨灭,它再犯的可能性几乎是百分之百。对算法载体的处罚也就起不到任何打击犯罪的效果。因为其犯罪意志本就不依赖于载体而存在。刑法固然有其谦抑性的存在,但是在这种情况下过分地追求刑法的谦抑性,造成的后果将会贻害无穷。
抛开“四要件”和“三阶层”理论孰优孰劣的争论,无论是“四要件”理论中的主体资格的辨别,还是“三阶层”理论有责性的判断刑事责任能力都占据着重要的地位。对于年龄所带来的刑事责任能力的不圆满状态我们可以轻松地判断,但是对精神病人的刑事责任能力的判断却是一个极为复杂的问题。“在主张精神病人责任能力的认定是一个法律判断的同时,却又不能提供一套具有可操作性的认定方案,这可能导致法官对精神病人责任能力的认定无从下手,最后或沦于直觉判断,或盲从于司法精神病专家的鉴定意见。”可以明确看到的是,虽然刑事责任能力在犯罪构成中占据着如此重要的地位,但是学界对其判断仍然没有严格统一的标准。对于刑法中的精神疾病的定义为:由于精神障碍所引起的精神异常状态。现阶段刑法框架下定义的精神疾病和刑事责任年龄对于人工智能刑事责任能力的判断完全不具有可操作性。我国新修订的刑法修正案(十一)中重新规定了刑事责任年龄的标准。“已满12周岁不满14周岁的人,犯故意杀人、故意伤害罪,致人死亡或者以特别残忍手段致人重伤造成严重残疾,情节恶劣,经最高人民检察院核准追诉的,应当负刑事责任。”这表明刑事责任年龄并不是固定的,而是随着社会的发展和广大青少年的认知水准而变化。我国的刑事责任年龄是经过了长期的实践和讨论得来的。刑法修正案(十一)的颁布也意味着我国的刑事责任年龄从静态的“一刀切”向着动态的判断,并且极特殊情况下提请最高人民检察院核准得更为人性化的方向迈进。而对于人工智能的刑事责任年龄,则很难用准确的数字去把握。我们通常理解,人类达到刑事责任年龄后就可以清晰地认识到自己的行为可能产生的危害后果,因而可以承担刑事责任。但是,人工智能是经过大量的数据训练后获得的“智能”,而这些数据的内容直接影响着人工智能的判断能力,假如这些数据全部是人类未满12周岁孩童所产生的数据,那么是否应当认为经过这些数据训练后的人工智能未达到刑事责任年龄。在更为复杂的情况下,这些数据中部分是达到了刑事责任年龄的人类产生的,部分是未达到刑事责任年龄的人类产生的,对于此时人工智能的刑事责任年龄又该如何判断。同样的,对于已经完成了训练的人工智能,如何去判断其智力是否有缺陷,是否属于刑法所定义的精神疾病状态?以现有的技术手段来看,不管是从医学层面还是法律层面,都完全不能够进行判断。在我们将人工智能作为刑法上的主体,对其定罪处罚的时,这种问题就会凸显出来,导致许多学者反对人工智能的刑法主体地位。因为这会彻底颠覆我们现在既有的刑法体系,打破我们对嫌疑人定罪处罚的许多原则。但是,刑法就是为了维护绝大多数人的利益而存在的,遇到可能严重侵犯多数人利益的情况,刑法就有义不容辞的规制义务。
四、对于人工智能技术的规制
“预防性犯罪化立法为了保障社会安全,以严重刑事犯罪的风险为依据,秉承事先预防优于事后处置的理念,将具有产生严重刑事犯罪风险的行为作为独立的犯罪予以规定。如此一来,便在具有严重社会危害性的犯罪之前设置了一个缓冲预防带。这有利于对风险社会背景下具有严重社会危害性的犯罪行为进行预防,有利于实现刑法保护社会的机能,体现了刑法立法对风险社会背景下日益积聚的刑事风险挑战的积极应对。”对于人工智能这种可能有极大危害性的技术而言,预防性犯罪立法是最好的规制方法。因此应着重考虑刑法的一般预防目的,应辩证地看待人工智能技术所带来的挑战。人工智能既有其人类性的一面,也有其工具性的一面。简单地将人工智能技术归为刑法中的个体或者人类所使用的工具,都是不合时宜的。
首先,对于人工智能技术从其研发开始,就应该对研发者的行为通过法律予以规范,对数据集的选择、数据的标注工作应该制定相应的法律,用法律的强制力杜绝研发者通过数据研发专门的犯罪人工智能。在其研发过程中使用的数据应交由相关部分核查备份,一旦数据集中出现违反法律规定的数据,应当迅速叫停研发行为。
其次,人工智能的研发应在物理隔离的实验室中进行,对于研发过程中必要的使用互联网的行为,可以通过本地镜像的方式下载互联网上所需的信息,坚决禁止研发中的人工智能直接接入互联网的行为,严防有瑕疵的人工智能算法通过互联网广泛传播造成不应有的损失。
最后,应该设立人工智能学术道德委员会,对于研发完成的人工智能经过学术评估合格后才可投入使用。对于故意研发可能破坏现有法律的人工智能的行为采用一票否决制,严禁研发者再次从事人工智能的研发活动。
对于特殊预防可以借鉴商法中人合性的概念。正是因为研发者、使用者和人工智能本身之间存在独特关系,所以将他们三者捆绑起来,把人工智能的研发者、使用者和人工智能本身视为一个命运共同体,需要采取双罚制,既要对人工智能本身定罪处罚,也要对研发者、使用者定罪处罚。只有这样才能更好地防止研发者、使用者滥用人工智能的独立地位,来进行为自己牟利的违法犯罪活动。人工智能实行了犯罪行为,就应该作为刑法上的主体,对其所犯的罪行按照刑法的规定进行相应的处罚。彻底删除其存储的数据和与之相关的一切信息,特别是互联网上其残留的数据。对于研发者和使用者则充分考虑其主观意思,如若故意使人工智能犯罪则认为其将人工智能当作工具,按照故意犯罪定罪处罚即可。过失犯亦可按照过失犯罪定罪处罚。
人工智能作为人类历史发展过程中的产物是社会关系的一种,必然要受到刑法的规制。对于人工智能的刑法规制问题,应该把握其本质,刑法是人类社会的法,是为了全人类的共同利益所制定的。而人工智能技术也应当是为了全人类的共同福祉而开发应用的技术。所以我们对人工智能技术的规制应当着眼于人类社会的利益,在不损害人工智能技术发展的前提下将人工智能这把技术的“双刃剑”转化为新时期技术革命的“胜利之剑”。
往期精彩回顾
王亚萍|平台经济领域的温和性反垄断规制:以父爱主义和母爱主义为指引
刘欣睿 蔡元臻|利益平衡视角下网络游戏直播画面的邻接权保护模式
上海市法学会官网
http://www.sls.org.cn