李立丰、王俊松:人工智能嵌入刑法体系的障碍与定位 | 法治研究202301
The following article is from 法治研究杂志社 Author 李立丰 王俊松
【来源】北大法宝法学期刊库《法治研究》2023年第1期(文末附本期期刊法学目录)。因篇幅较长,已略去原文注释。
内容提要:人工智能时代的到来引发了刑法学界的热议,不过这并未给刑法理论带来挑战。人工智能在事实层面上应以科学技术为应然理解,在规范层面上无法通过刑法体系化的检验。刑法学界对人工智能相关问题的思考大都是以风险社会为大背景展开的,因此,刑法解决人工智能问题最根本、最透彻的方法即是对作为源头的风险社会理论进行检讨。刑法对于风险社会大可不必动辄架构新的风险刑法体系,风险社会相关理论无法通过刑法教义学的检验,其本身就是一道伪命题并不值得被刑法关注。最后,刑法重点关注的是人工智能在当下刑法体系中的应然定位。刑法首先从规范的角度对理论界关于强弱人工智能分类做出否定,而后在厘清人工智能风险来源的前提下,以内外二元风险之“产品性”和“工具性”为基础来明确自己的定位。
关键词:人工智能;风险社会;风险刑法;法益保护原则;产品属性
目次 一、人工智能的本质需以科学技术为应然理解
二、人工智能进入刑法体系后的障碍
三、刑法教义学视角下风险社会理论的反思
四、人工智能在刑法体系中定位的厘清
五、结语
2015年,德国大众汽车公司员工在调试机器人时,被机器人摔至金属板惨遭碾压身亡,这就是震惊当时的“机器人杀人事件”。无独有偶,Google在测试其无人驾驶技术时,因导航故障引发交通事故,所幸无人伤亡。类似的高度智能化应用情形还有,AlphaGo击败韩国围棋手李世石、国际象棋棋王卡斯帕罗夫和计算机之间的“深蓝”对决等。人工智能技术的飞速发展以及高度智能的场景化应用模式的建立引发了一系列关于人工智能主体性地位的思考,涉及的学科有哲学、法学等。比如,在人工智能主体性这一问题上,刑法学界有学者主张,鉴于人工智能技术如此突飞猛进,人类势必要进入到一个强人工智能时代,在这个时代,机器人将会产生独立的思考能力、意识以及控制能力,因此学者建议将其规定为刑法上的主体。也有学者认为,人工智能机器人就是人类社会生产的一种辅助工具,并不具备人的要素和属性,因此,刑法大可不必将人工智能体视为责任主体。上述分歧体现出人工智能时代的到来已经在法律规范层面上带来了争议,尤其是刑法规范是否应当对这一现象做出反应。因此,本文拟从人工智能的技术本质入手,进而对人工智能进入刑法体系产生的障碍做出分析,并进一步指出这种以人工智能技术为张贴对象的风险社会理论的虚伪性,最终以人工智能的技术本质为刑法定位的落脚点。
人工智能时代的到来符合技术发展的客观规律,先进科学技术的进步与应用必然会在社会层面引起广泛的关注和探讨,而且,社会层面的波动也会引发法律规范层面上的联动反应。不过,人工智能技术有无在刑法规范层面探讨的必要性,这要取决于对人工智能本质的探讨。刑法应从实质上了解人工智能背后的运作原理,在事实层面明确人工智能的运行本质,而后再进入到刑法规范的话语体系中进行探讨,唯有此才可以全面刺破人工智能时代的面纱。
从宏观的人工智能技术定位来看,人工智能总体上即是以科学技术为体现的一门技术学科。人工智能(ArtificialIntelligence,简称AI)是计算机学科的一个分支,其与空间技术和能源技术并称为20世纪70年代以来的世界三大尖端技术,从字面意思来看ArtificialIntelligence指的是智能的人工制品,而且,P.Winston早在1978年就对人工智能做出了如下评价:人工智能本质上是为了帮助人们变得更加智能的一项技术,其不仅是局限在使计算机模拟智能的研究上。除此之外,也有学者指出人工智能其实就是一门技术科学,其主要是用来模拟、延伸以及扩展人类智能,因此,人工智能本质上是计算机科学的一个分支,即其属于计算机技术的前沿领域。并且,人工智能作为一门跨技术领域众多的学科,其研究都是结合具体领域,诸如问题求解、自然语言处理、人工神经网络、遗传算法、专家系统、知识工程、人工生命、深度学习以及智能控制等。这些领域综合起来所设计出的智能系统便是AI系统。这些系统都是高度智能化的系统,当它们组合到一起的时候,这种计算机程序就体现出了一定的“智能化”。这些系统主要包括问题求解系统、自然语言理解和处理系统等大概12种系统。A.Barr和E.Feigenbum指出人工智能作为一门学科,它属于计算机科学的组成部分,它的主要任务就是设计智能化的系统,而这一系统要与人类的行为相似;ElainRich认为人工智能就是让计算机去模拟人类大脑活动,用它解决一些只有专家才能够处理的问题,这些活动主要包括推理、设计以及规划等;MichaelR.Genesereth和NilsJ.Nilsson认为人工智能首先是一门科学,而这门科学的主要任务就是建立关于自然智能实体行为的理论和指导创造具有智能行为的人工制品。
从微观的人工智能技术的具体运行来看,人工智能的本质就是借助算法、智能系统运行的一套完整的技术程序。人工智能的运行逻辑是建立在算法之上,算法撑起了人工智能的技术框架。人工智能的本质是在自然语言基础之上、以数据为对象将算法与数据相互结合应用,并且这一过程并不是简单的模拟人脑。人工智能之所以能够逼真地模拟人类行为,这与它的运作系统密不可分,而判断一项AI技术成功的标准,关键是看其能否通过“图灵测试”。人工智能作为一门科学,其自身的特征也是独一无二的。以利用推理为例,AI程序系统立足于模拟人类思维的一般规律进而使用知识,即这一推理实际上是模拟人类推理形式而来。再如,AlphaGo之所以能够战胜世界围棋选手,最大的优势在于其能够进行不断的自我学习。这种自我学习是一种系统上的自我学习,其主要是将围棋巨大无比的搜索空间压缩到可控的范围之内,AlphaGo自身配备的系统非常周密,加上Google强大的硬件支撑和云计算资源,结合CPU&GPU进而不断增强自己的学习水平和博弈能力。这背后体现的是AlphaGo自身深度学习的能力,这其中依赖于一般的博弈算法,比如极大极小搜索算法、α-β剪枝算法等。由此可见,无论是人工智能的设计程序抑或是人工智能的运作原理,其都主要是强调模拟人类工作、学习等方面,即人工智能的最大特征在于高度拟人化、模拟人类。
人工智能技术应用产生的风险确实也引起了人们担忧。比如,斯蒂芬·霍金曾指出忽略人工智能的危险或是“历史上最致命的错误”。实际上,担忧者并不在少数。比尔·盖茨以及牛津大学的哲学教授也曾主张人工智能威胁论,然而,人工智能专家对人工智能威胁论持反对态度,伦敦大学的金史密斯学院认知计算机系教授马克·毕绍针对斯蒂芬·霍金的担忧做出了评价,他认为霍金的这种担忧完全是错误的。在刑法学界,有学者就以AlphaGo战胜世界围棋冠军为例,主张人工智能时代下的机器人已经具备了自主学习的能力,而且其拥有自主意识和意志力,进而主张人工智能机器人实施的行为可以被评价为刑法意义上的行为。
综上所述,人工智能在事实层面上无论是从宏观视角还是微观视角,都能够得出人工智能本质上是以算法、程序为核心的科学技术。从事实层面上看人工智能机器人具备独立意识、意志力等观点是无法成立的,技术本质决定了这种高度智能的人工智能体只可以作为人类先进的辅助工具,以人工智能技术为程序基础的相关生成品应做产品之理解。
文章前述章节明确了人工智能的技术本质,刑法还应当立足于规范自身,在刑法体系内部检讨人工智能进入刑法理论后的障碍。本部分主要是检讨人工智能进入刑法体系中产生的障碍。人工智能有关问题无论是从法规范主体的可解释性上,还是从刑法体系内关键要素如罪过形态以及刑罚论的检讨上,都无法得到刑事规范肯定性的答复。
(一)人工智能不具备法律主体的可解释性
人工智能进入到刑法领域内的首要问题是,人工智能主体是否具备刑法规范主体的可解释性。这是因为,主体行为的可解释性是责任承担的基本前提,而且,权利的可实践性正是以其具备可解释性为关键前提。因此,人工智能拟作为法律规范上的主体必须要经过主体理论的检验。毕竟,法律是由人类创造的社会产物,目的是为了调整人与人之间的社会关系。法律规范关注的首要问题便是主体问题,否则无从谈及后续的法律关系以及法律责任问题。
当下,学界对于人工智能主体在刑法规范上的定位产生了争议。肯定人工智能主体地位的观点如,人工智能时代下智能机器人因为具有了辨认能力和控制能力,因此可以作为刑事责任主体。还有学者从法人的角度出发,主张通过类比法人制度来赋予智能机器人权利主体资格,其认为通过这种“法律拟制”可以为立法者提供解决智能机器人权利来源的问题。否定人工智能主体地位的观点认为,行为主体意指在刑法上实施犯罪行为的主体,其通常来说指的是自然人,刑法构成要件要素中所规定的主体指的也是自然人,而且其所描述的行为主要也是指由自然人实施的行为。哲学层面上所指的刑法主体必须具备实践性和社会性的本质特征,实践性要求主体能够进行有意识的活动,社会性要求主体能够与特定的社会关系进行互动。即便是人工智能技术在无人驾驶领域的应用有着优越的表现,但在德国修订的《道路交通法》中,也未予承认人工智能的主体地位,由此可见,立法者并不认为可以将这一主体纳入到立法蓝图中,毕竟不论是自然行为论、目的行为论还是社会行为论都主张行为的发起者应当是自然人。
在本文看来,人工智能法律规范的主体地位是不成立的,理由如下:其一,刑法必须正视人作为规范主体的独立性与专门性,人工智能主体性的观点忽视了人作为规范的终极目的性。我国法律规范体系中,宪法及刑法都在其规定中明确指出立法宗旨是为了服务人类自身,人类是法律规范意义上独一无二的主体。人工智能也不具备获得道德主体地位的资格,这当然会影响到它的规范主体地位。当下,就法律主体的概念而言,德国法哲学家拉德布鲁赫曾做出以下定义,其主要是指能够被特定时代实定法当作是目的本身而予以尊重的事物。换言之,法律主体在特定时代下永远是目的而不是手段。基于此,反观当下肯定人工智能主体性的理论,可以发现这一系列观点背后的主要目的是为了服务人类自身,即该观点认为将人工智能视为法律规范的主体更加便于在立法上进行管理,这就意味着人工智能主体性理论始终都被视为手段而非目的。
其二,人工智能不具备法律主体要求的辨认能力和控制能力。无论是强人工智能还是弱人工智能,其所谓的能够“自主学习”“独立思考”等实际上都依赖于设计者所设计的基础程序,这种“辨认能力”和“控制能力”也不过是计算机算法运行的体现,与人的意志体现并不相同。刑法规范根本无法期待人工智能机器人能够实现独立自动的思考。毕竟,从犯罪成立的基础要求来看,犯罪永远都是人的行为,与人的意志无关的事件永远无法实现犯罪构成,行为都是受制于人的思想且无关于机械或生理活动。即便是强人工智能高度模拟了人类行为,诸如对人类常识、直觉等特殊的感知能力的模拟,人工智能也难以实现自由意志。由此可见,人工智能技术无论发展到哪一阶段,其都是技术创新与进步的体现,其“意志”不过是人类意志的体现,人工智能始终无法与“自由意志”产生必然联系。
其三,理论中以法人获得主体资格的法理来类比演绎人工智能主体性的观点是无法成立的。这一主张忽视了法人集合体人合性的本质特征,法人与人工智能体的根本区别在于法人的行为总是通过自然人来“完成”。单位犯罪一般是由单位的决策机构按照单位规定的决策程序做出决定,然后交由直接责任人实施。并且,单位这一主体在刑法的前置法如民法、经济行政法都得到了确认,相比之下人工智能的主体性则未予确认。单位犯罪具体行为的实施还是要依靠自然人来完成,单位脱离了自然人也就不复存在,单位的意志也是全体成员意志的集合。此外,对于法人本身能否成为刑事责任主体当下也并未形成统一意见,在德国刑法中就不承认法人和经济企业的刑事责任。
(二)人工智能不具备刑法要求的罪过形态
罪过形态作为完整的犯罪体系中不可缺少的因素,也是人工智能进入刑法理论体系绕不开的话题。有学者主张在强人工智能时代下,机器人已经具备了认知能力。并且,学者还主张智能机器人与自然人有很多共同之处,由自然人实施的绝大多数犯罪行为智能机器人也可以实施,例如诈骗罪等。需要注意的是,刑法规范注重对行为人故意或者过失这种罪过形态的判断,故意和过失的认定在刑法体系中的位置不言自明。而且,刑法强调对故意和过失的判断,不能仅停留在对事实的认定上,还包括对法律规范的认识和感知。换言之,刑法不能只要求行为主体对记述的构成要件要素具备认识,还应具备规范意义上的认识,并且,这种认识应当是对行为性质、后果以及作用的认识。
在本文看来,人工智能并不具备刑法意义上的罪过形态,原因如下:其一,人工智能体不具备故意或者过失这一罪过形态。无论是从事实层面还是规范层面,人工智能始终无法产生故意或者过失的罪过形态,无法通过其自身能力理解法律法规所规定的意义。也无法期待人工智能与刑法分则中规定的目的犯产生碰撞,比如诈骗罪要求“以非法占有为目的”等,因为特定目的产生的前提是主体必须具有自由意志,而且主体能够认识到其行为的社会评价以及规范评价,而人工智能显然不具备这一点。此外,立足于自主性的发展逻辑来看,人工智能难以生成较强的自由意志,更不用说能具备实质的自我意识。其二,故意或者过失罪过形态的证明也成为人工智能作为刑事规范主体的障碍。刑法将人工智能机器人作为法律主体的观点在证据法上也存在障碍,即在罪责层面上对故意和过失的证明成为一大难点。刑法无法期待仅通过人工智能体的行为证明其具备犯罪意图,这也难以达到排除合理怀疑的程度,即刑法无法判断这是否是因为人工智能体内部程序运行出错导致。故意、过失这种心素的记载对评价行为具有重要的意义,如果缺乏这种心素的描述行为就失去了表达的含义,失去了主观要素的支撑,仅靠单纯的“裸”行为要素似乎难以起到“筛选”犯罪的作用。反观智能机器人所实施的行为,正是不具备心素内容的“裸”行为,这种无意识的行为并不具备被刑法评价的资格。
(三)人工智能不具备进入刑罚体系的资格
人工智能除了前述理论上的障碍以外,其在刑罚论中也不具备进入到当下刑罚体系的资格,这主要体现在人工智能受刑能力的缺失以及针对人工智能增设新罪名以及新配套措施上的障碍。
1.人工智能不具备受刑能力
人工智能进入到刑罚体系中,无法期待对人工智能的处罚能产生刑罚上的意义。刑罚作为联结行为与行为人的桥梁,其有着将行为产生的责任过渡到具体行为人身上的功能。刑罚是国家针对侵犯法益的犯罪行为而予以惩罚的一项严厉措施,其一般建立在剥夺性、限制性等痛苦基础之上。本文认为,人工智能不具备受刑资格,主要体现在以下几点:
第一,人工智能不具备受刑能力。受刑能力的关键是受刑者能够感知到其行为带来的规范意义上的否定性评价,并由此承担精神或者身体上的痛苦。通过受刑对象对刑罚感知的回应,以此可以证明规范实施的有效性。受刑者只有借助这种由刑罚实施产生的羞耻感或者痛苦,才能体现刑罚的功能和作用,受刑者或潜在的犯罪人才会理性掌控自己的行为,国家和社会才得以正常运转。人工智能实则并不存在情感,也不具有道德判断和认知,且欠缺感知刑罚痛苦的能力,故导致刑罚必要性的缺失。因此,人工智能体不具备感知痛苦的能力决定了对其实施刑罚的无意义和不切实际性。毕竟,无法期待一台冰冷的机器能够感受到痛苦或者羞耻,即便是其未来会产生痛觉或者羞耻感,这也是建立在人类为其编写的程序基础上。实际上,人类创造的机器人应由人类自身为机器人的“不法”行为买单。当然,法人组织也不具备感知受刑能力,但我国刑法对法人犯罪规定了相应的处罚措施。这是因为,法人具备人合性的组织特征,法人组织感知受刑的能力都可以内化到内部成员。
第二,人工智能体具备受刑能力的观点在当下规范逻辑上出现了障碍。按照部分学者主张应承认人工智能具有受刑能力的逻辑,进而也应当承认赋予智能机器人基本的权利。有学者从权利历史演进的角度主张应遵循动物获得权利的轨迹,认为智能机器人也应当被赋予权利,同时,指出权利主体不应是一成不变的。但在本文看来,法律规范赋予人工智能体权利这一做法并不现实,理由如下:其一,人工智能体无论是从技术还是从道德上来看,其在赋权过程中都存在障碍。人工智能体最初是以工具身份亮相,这就决定了其最终也只得以工具来定位。法律规范无法期待人类与人工智能体或者人工智能体自身之间能够达成社会契约,因为这种社会生活的游戏规则只有人与人之间才具备制定与遵守的资格和能力。其二,刑法规范若赋予人工智能体权利,则这一权利的根据来源不明确。我国宪法强调保护人权,若在刑法中承认机器人享有权利,但宪法条文中并未就此做出明确指示,这就造成了刑法与宪法相冲突的尴尬困境。其三,法律规范若赋予人工智能体权利,则这一权利的行使面临一定的困难。例如,法律规范倘若赋予人工智能体生育权、财产权等基本权利,接下来所要考虑的是如何保障这一权利的行使。此外,人工智能体是否在满足基本条件之后享有选举权与被选举权等,这都会为法律和社会带来不小的挑战。其四,理论界主张类比动物获得权利的轨迹来启示对人工智能体赋权的工作并不可行。现有的法律条文对野生动物只是做出了保护性的指示,并未明确提及要赋予野生动物权利。倘若赋予动物最基本的诸如生命权等权利,那么,人类伤害或屠宰家禽剥夺生命的行为便属于侵权行为抑或是犯罪行为,因此,动物作为权利主体并不可行,人工智能体同理亦是如此。
第三,刑法惩罚人工智能不符合刑罚的功能和目的。刑罚作为对犯罪人权利和利益的一种剥夺和限制手段,在满足了刑法规范目的的同时,对国家和社会来说都具有相当大的副作用。刑法之所以主张对自然人科处刑罚,是因为对于自然人犯罪刑罚能够发挥一般预防和特殊预防的功能,最终达到减少犯罪的效果。从一般预防功能考察,针对人工智能实施刑罚处罚是否能够起到威慑潜在犯罪的效果,答案显然是否定的。刑法根本无法期待潜在的人工智能会因此产生敬畏法律的意识。从这一点来看,人工智能的一般预防效果无法与规范的有效性产生联动。同理,从特殊预防的角度来看,对人工智能科处刑罚也不具备规范上的意义。而且,对人工智能实施刑罚措施悖离了社会大众对常识常理常情的认知,实在无法想象机器会“在意”对自己的“不法行为”实施的“刑罚”。因此,刑法对智能机器人实施刑罚并不具备任何意义。
2.增设罪名及配套刑罚措施的障碍
目前,刑法学界有观点认为,强人工智能时代刑法应增设人工智能相关犯罪以及配套的刑罚措施,以实现刑法对人工智能犯罪的规制。例如,有学者主张应当围绕着人工智能构建新的刑罚体系。还有学者主张增设滥用人工智能罪和人工智能事故罪,该学者主张在配套的刑罚措施上增设删除数据、修改程序。另外,还有学者主张将人工智能有关犯罪扩充至刑法分则体系中,即在分则第六章专章增设“妨害人工智能发展罪”以及增设有关“扰乱人工智能活动罪”“非法提供人工智能技术罪”以及“非法利用人工智能罪”等。不难看出,上述主张增设人工智能相关犯罪观点背后体现的正是以人类利益为中心的人类利益优先论,即上述罪名从表述来看都是将人工智能作为一种工具或者是技术资源等,人工智能在上述拟增设的罪名中并非是主体。不过应当注意的是,即便刑法主张人类利益优先,也大可不必以扩充刑法体系的方式维护人类利益,而且这一做法并不见得是最佳手段,因为刑罚圈的扩张意味着人类自由空间的压缩,这样看来反而会削减人类的利益,并且还会阻碍科学技术的进步。本文对增设有关罪名及配套刑罚措施的主张持否定态度,理由如下:
其一,新罪名的增设与当下既有的刑法规范相冲突。滥用人工智能罪、非法利用人工智能罪等罪名的增设不过是把人工智能当作是辅助人类的一种工具罢了。之所以要增设新罪,是因为这种观点认为滥用、非法利用人工智能的社会危害性要高于传统的犯罪行为,而后动辄就以新增罪名予以规制。然而,这一做法未免过于激进,对其把控不当的话极有可能阻碍科学技术的进步。以核事故、生化武器为例,人类滥用核能以及生化武器等所造成的社会危害性并不低于滥用、非法利用人工智能的行为,然而刑法并未对滥用核能等行为单独进行规定。事实上,上述增设相关罪名的目的无非是强调对公共安全的保护,因为这种观点认为人工智能潜在的社会危害性较大,而且其危害的对象也不特定,既有的刑法规范无法对其进行规制,因此刑法应当将这一主体单独进行立法。然而,这一现象在既有的刑法体系内,通过现有的刑法解释方法完全可以“以危险方法危害公共安全罪”来消解上述问题。同理,反观增设人工智能事故罪背后的法理,不过是为了提醒研发者和使用者应当尽到注意义务,而现有的刑法体系早已对注意义务作出了规定,比如:重大责任事故罪等。因此,刑法没有必要超出现有的体系增设新的罪名或者是扩充刑罚体系。
其二,新增的“刑罚措施”并不属于刑法意义上的措施。既有的刑罚措施在当下都是建立在以人为主体的前提下,刑法中的处罚措施都是根据人的主体性特征所构建,这也符合刑罚处罚措施的应然状态,因此,刑法无法期待针对人工智能再构建一套新的刑罚体系。再者,刑罚措施应当是刑法所独有的,并且由国家垄断其实施的权利,例如监禁刑、死刑等。反观新增的修改程序、删除数据等措施,并不是专属于刑法的处罚措施,这些措施实施的权利并未由国家垄断,一般的技术员、研发者在发现人工智能出现问题时亦可实施上述措施,这一做法似乎将执行刑罚的权利下放到了技术人员手中,显然不具备合理性。
除了上述争议之外,刑法增设相关罪名以及配套措施的争议还引起了学界划分人工智能刑事责任能力的探讨。毕竟,刑罚的执行也受行为主体刑事责任能力的影响。对此,学界有观点指出,刑法应以人工智能体智能化程度的高低作为划分刑事责任能力的根据,即智能化程度较低的对应刑法中完全无刑事责任阶段,智能化程度较高的则对应相对有刑事责任阶段,智能化程度很高的则对应的是完全有刑事责任阶段,对于“间接性系统异常中病毒”的情形应当类比间接性精神病人的处理原则,进而主张这种情形下的人工智能体实施的不法行为不承担刑事责任能力。这一主张形式上貌似合理,但从实质上来看这一观点存在明显的漏洞,即其主张的将技术评价标准引入到刑法规范中不存在正当性的依据,毕竟技术规范与刑事责任认定标准的出身不同,也即两者的制定主体与制定程序都有着很大的差别。比如,刑法在对未成年人刑事责任年龄的划分上,一贯以未成年人利益最佳原则为根据,考虑因素既有未成年的双面角色,也有长远利益发展的追求。但是,反观人工智能刑事责任年龄的划分,其对无刑事责任年龄或者相对负刑事责任年龄阶段的划分并未提供可靠依据,仅是技术标准和智能程度高低在支撑着人工智能刑事责任能力的划分。人工智能间接性中病毒或者系统异常的情形类比为间接性精神病人的观点更是站不住脚,因为人工智能所谓的“发病”原理与精神病人并不相同,而且这一主张忽视了人工智能可被及时修复的情况。上述观点提出的方案似乎较为随意,且破坏了刑法的严肃性。
综上所述,刑法抛开对人工智能在技术层面的考量后,仅从刑法理论视角出发也能够得出,人工智能法律规范的主体性理论无法在刑法体系内找到合适的落脚点。因此,文章前两部分的讨论基本上终结了人工智能以独立身份进入到刑法体系内的计划。
人工智能属于风险社会有关理论的典型张贴对象,因此,刑法对人工智能的探讨必然要联系到风险社会理论。刑法验证人工智能问题真伪性的额外方案便是从作为源头的风险社会理论入手,从根本上检验风险社会理论的问题,这也是刑法解决人工智能问题最透彻的办法。基于此,本部分首先明确人工智能与风险社会的种属关系,而后从刑法的基本原则入手对风险社会相关理论(包括由此产生的风险刑法理论,以下简称“风险社会相关理论”)进行检验,最终得出风险社会相关理论无法通过法益保护原则和最后手段原则检验的结论。
(一)风险社会理论以人工智能为张贴对象
应当承认的是人工智能时代的到来确实为社会发展带来了诸多潜在的风险,而这也正是风险社会理论一贯主张的由技术发展带来的风险,由此意味着人类已逐渐进入风险社会。对此,学界有观点做出了肯定性回应,例如,吴汉东教授主张应当在风险社会理论的范畴中研究人工智能相关问题。而且,就风险社会的发展来讲,德国社会学家贝克曾指出,由现代科技造成的深刻变革致使世界正在从工业社会逐渐走向风险社会,而风险社会关注的重点就是技术进步所带来的风险,即技术进步导致的社会转型并由此埋下的许多潜在风险,但其并不仅仅局限于技术风险。不过,刑法正视风险社会的到来并不意味着必然会导致风险刑法的抬头。否则,这种由风险社会引发的诸如对“泛人工智能化”的相关探讨极易制造学术泡沫。
事实上,风险社会理论中的风险在当下出现了关注对象泛化的现象,甚至还滋生出了风险刑法理论。风险社会中的风险主要是建立在技术发展的基础之上,并且主要是以技术发展带来的不确定性风险。然而,当下学界有学者认为诸如政治风险、制度风险等也应当纳入到风险的口袋。但是,该主张忽视了贝克口中的风险社会理论的诞生背景,即政治、制度风险无法与技术风险作出同类解释,前后两者之间无法产生必然联系。其实,不管风险社会理论所关注的具体对象为何,从抽象的视角来看,该理论将关注点集中在了“风险”对象身上。同时,风险社会理论在“风险”对象的发酵中还演绎出了风险刑法理论。风险刑法理论认为传统刑法已无法高效应对风险社会所带来的各种风险,故学界有学者对传统刑法保护的滞后性表现出了不满。因此,风险刑法理论受风险社会理论的启发便应运而生。于是,风险社会理论形成了以人工智能为表征,以风险刑法理论为规范分支的较为丰富的结构体系。
(二)风险社会理论在法益保护原则上的瓦解
风险社会相关理论能否在刑法教义学体系内站住脚,关键在于其能否通过刑法“入罪质检员”法益保护原则的检验。刑法应当以保护法益为目的,将行为对法益造成的损害作为违法性的根据,缺少了法益保护原则的支撑,刑法体系就会被抽空。然而,当下风险社会理论在法益保护原则的检讨下出现了以下困难:第一,风险社会中的风险无法上升为刑法意欲保护的法益。风险社会中所指的风险是科学技术发展给社会带来的风险,是传统的一般意义上的社会风险,与刑法中关注的对象完全不同。刑法所关注的对象都是“危险”而非“风险”,这两者之间的对比显然前者要比后者在程度上更为紧迫,后者实际上是中性词,前者则是贬义词,而刑法更关注贬义属性的“危险”。除此之外,刑法中都是针对带有危险性行为的犯罪,如危险驾驶罪、以危险方法危害公共安全罪等。风险这一概念更倾向于在社会层面加以理解,比如投资风险、股市风险、技术风险等。
第二,风险社会相关理论悖离了法益损害实害化的诉求。风险刑法相关理论呈现出法益保护早期化的趋势。根据这一主张,刑法不再过多的关注行为对法益的侵害是否发生了具体的结果,而是转向了以预防为主的模式,以法益是否遭到潜在的风险威胁为标准判断行为是否入罪。这使得关注风险刑法的学者逐渐走向否定法益功能的泥沼中。风险刑法理论认为刑法还应当对未来可能出现的风险行为进行规制。但是,法益保护原则要求刑法规制的是对法益造成损害的行为,这一普适性的刑事立法观在当下扮演着愈来愈重要的角色。在这个问题上,罗克辛教授一贯持否定态度,其主张刑法若是要对风险做出评价,不得脱离法益这一概念以及有关法治国的归责原则。刑法脱离了实在化法益的指导,其在规制行为入罪方面将会变得十分危险,甚至是大幅度萎缩公民的行为。因此,风险社会下刑法是否有必要过早介入,实际上是存在疑问的,否则这种做法很容易稀释法益保护原则。
第三,风险社会相关理论类比抽象危险犯法理的做法并不可靠。风险刑法理论经常借抽象危险犯为例进行论证,指出抽象危险犯并未引起法益损害的实害结果但却被规定为犯罪。因此,风险刑法理论主张以此为根据作为其在刑法教义学中的延伸。但是,在本文看来,刑法增设抽象危险犯的法理与风险社会相关理论并不相同,原因有:其一,从文义解释来看两者关注的对象存在质的差异。抽象危险犯关注的是刑法中的“危险”,而风险相关理论关注的是“社会风险”,后者无论如何也不具备被评价为法益的资格。其二,两组概念产生的背景时间大相径庭,这就决定了两者并非是同种概念。抽象危险犯概念的提出早于风险社会相关理念,抽象危险犯的概念最早可以追溯到19世纪的《德国刑法典》《法国刑法典》,而风险刑法理论是伴随着后工业社会所兴起的概念,两者并不同根同源。其三,抽象危险犯有着实在的法益实害结果诉求,风险社会则不具备法益保护的诉求。即便是抽象危险犯的认定也应当注重对法益侵害结果的考察,即其无论如何也不可脱离与法益实害结果的关联。因此,抽象危险犯在刑法体系中一贯坚持以保护实在化的法益为原则,将法益保护最终落实到对法益实害化损害的考察中,这也就决定了其与风险社会相关理论完全不同。
最后,风险社会相关理论甚至试图在法益内涵的扩充上有所作为,即持风险刑法论的学者主张为适应社会发展,刑法法益的内涵应当被及时更新扩充。这种观点认为法益的概念应当被扩充至以制度保护和对制度的信赖保护为基础的“普遍法益”上,主要包括公共安全、经济制度等。本文持否定态度,原因是,刑法之所以设置法益这一概念,是为了保护人类生活所必不可少的基本命财。法益这一概念的创设最终要服务于人本身,尽管我国刑法分则中也体现了对国家安全、公共安全法益的保护,但从实质上来看,分则中的这一系列法益最终都能够还原为个人法益。对此,学界有观点指出诸如这种集体法益如果不能够被还原为个人法益,刑法也就失去了保护的必要性。基于此,反观风险社会相关理论所主张“普遍法益”,实质上就将法益保护原则空洞化了,即其无法还原到以人为本的个人法益中。
(三)风险社会理论在最后手段原则上的瓦解
风险社会相关理论在最后手段原则的检讨中也出现了问题。刑法若要规制风险社会下的风险,至少还要经受住最后手段原则的检验。风险社会相关理论的主张在应对风险时直接越过了最后手段原则的诉求,即直接主张以刑法规制风险社会中的风险。例如,有学者主张为应对人工智能技术的飞速进步,考虑到技术进步会给法益带来的一系列可能的损害,认为刑法应当进行前瞻性的立法。显然,该主张并未在最后手段原则层面加以论证,即便这种由后工业社会带来的风险已经达到了由法规范调整的地步,是否必然意味着刑法应当规制这种情形尚且存疑,毕竟刑法是保护社会的最后一道防线。
在本文看来,刑法恪守最后手段的原则结果是,风险社会相关理论的主张不具备刑法保护的必要性。刑法立足于最后手段原则的微观与宏观视角来审视风险社会相关理论,该理论不成立的表现如下:
从微观角度来看,风险社会相关理论无法通过该原则内部子原则的检讨。最后手段原则项下包含三个子原则:适当性原则、必要性原则和权衡性原则,适当性原则强调的是刑法要保护的必须是值得保护的法益,并且法益保护和手段之间要具备一定的关联性;必要性原则主张刑法手段的实施必须能够满足特定的立法目的;权衡性原则关注的是刑罚实施的负担与收益要处于平衡位置。风险社会相关理论是否有必要由刑法进行规制,至少还应当考虑到最后手段原则内部具体的诉求。最后手段原则项下的三项子原则对风险社会相关理论的检讨如下:第一,风险社会相关理论无法通过适当性子原则的检讨。适当性原则的要求与法益保护原则的诉求存在很大程度上的重合,并且前述已经对风险社会相关理论进行了法益保护原则上的检讨,故在此不再多做赘述。第二,风险社会相关理论无法通过必要性子原则的检讨。刑法对风险的保护并不能满足刑法中某一特定的目的,包括最主要的保护法益目的,因此其不满足必要性原则的诉求。第三,风险社会相关理论无法通过权衡性子原则的检讨。该项子原则要求刑法应当考虑到风险的普遍性与保护手段之间的负担。现代社会无不充斥着各种风险,例如:核电站的建设也存在核泄漏的风险,但刑法若仅仅因为存在风险而去规制,这一规制手段所造成的负担势必会成为社会发展的羁绊。因此,风险社会相关理论无法通过最后手段原则内部子原则的检验,难以获得正当性的证立根据。
从宏观角度来看,风险社会相关理论也无法获得最后手段原则的支持。最后手段原则注重刑法与其他部门法的互动,刑法自身应当考虑到其手段的严厉性、破坏性等,因此,某一行为能够被其他部门法手段规制时,刑法就没有必要作出规定。除非行为已经达到其他部门法无法规制的地步,此时刑法手段才能够被采取。然而,风险社会相关理论的主张中并未发现“风险行政法”“风险民法”的提倡,而是直接上升到“风险刑法”地步,由此可以看出,“风险刑法”显然是越过刑法的最后手段原则做出的提议。而且,刑法的前置法规范中也并未提及针对风险社会的规制问题,也即风险社会相关理论尚未进入到民法规范、行政规范的视野中。最后手段原则主张刑法的生命在于对法条的解释,而不是一味地就可能出现的情况去进行立法。当下社会公众的刑事立法价值观也一贯否定对人工智能进行超前立法,不仅仅是考虑到未来社会发展的趋势和特点,还要提防超前立法所导致的误判风险。
综上所述,在本文看来当下人工智能所造成的风险仍在可控范围之内,故刑法大可不必针对不确定的风险进行立法。主张风险刑法的学者大都以风险的视角先入为主,忽视了刑法风险语境下风险本身的正统地位,将风险刑法与刑法风险本末倒置,其本身就是一个伪命题。因此,风险社会相关理论无法在刑法教义学体系内安身立命。
人工智能确实作为一种新的社会现象呈现出来并引起了学界的关注和探讨,因此,这就需要立足于整个法规范体系为其寻找安身立命场所。当然,这并非意味着该现象在既有的刑法体系中不存在解决方案。刑法最终落脚点应为人工智能时代下刑法定位问题的探讨,即刑法如何在既有法律规范体系内消解当下“人工智能热”现象。事实上,刑法在厘清了人工智能的技术本质后,人工智能在刑法上的定位已经清晰明了。该部分在前述章节论证基础之上,首先对强弱人工智能在法律规范上的分类提出质疑,而后对人工智能的风险来源进行分类,最终立足于既有的法规范体系从内部以及外部风险出发对刑法的定位做出探讨。
(一)强弱人工智能分类在规范合理性上的质疑
目前,社会层面上出现了强人工智能与弱人工智能的相对性分类,并且这一分类迅速蔓延到刑法规范中,引起了刑法学者们的争议。人工智能划分为弱人工智能和强人工智能(包括超强人工智能)虽然在技术层面具备一定合理性,毕竟,科学技术在传统意义上确实存在技术落后与先进的区分,比如台式电脑与便携式平板电脑就是技术先进与否的典征。但是,这一分类具体到刑法规范层面上来讲是否具备合理性,有待考究。目前学界越来越多的学者主张采取这一划分方法,其考虑到的正是人工智能时刻处于进步、发展的状态,这种进步是建立在技术发展与应用基础之上,故由弱人工智能可以进步到强人工智能时代。并且,学界在此基础上展开了对强人工智能具备“意识”、能够成为法律主体等问题的论证。不过,反对的声音也一直存在,即也有声音对于强弱人工智能的分类方式产生疑问,并指出从人类自身出发应当否定强人工智能的存在。比如,有学者提出,即便是人工智能技术进化到“人工智能黑客”阶段,即在该阶段中“人工智能黑客”已经能够独立地形成一套完整的运作系统,从算法开始到学习、思考并最终能够自主行动,这种情形中其还是无法摆脱工具的属性,此时的责任承担主体依然是这一程序背后的设计者、管理者等。
本文认为,强弱人工智能的分类方法仅在技术层面存有意义,这一分类方法不能进入刑法规范。理由如下,刑法应当注意到技术进步并未改变机器的本质属性。这就好比手机的发展历程一样,由最初的座机发展到今天的智能机,高度智能手机可以实现自助预约做饭、进行对话等高度模拟人类行为的活动,但即便是在高度智能的情况下,这一变化也并不值得引起刑法的关注。人工智能技术发展蕴含的道理也是一样的,难以说明其由弱到强的变化就实现了刑法规制从无到有的飞跃。即便是人工智能高度智能化并通过了“图灵测试”,这也只能说明其在功能意义上与人类主体相同,绝不意味着人工智能可以作为像人类一样的主体。再者,从哲学的角度看“强”“弱”的划分本身就是根据人的价值标准来判断的。如同对人类进行“低级”和“高级”划分一样,这一划分显然是以人类为中心做出的价值判断。这一将价值判断的观念要素代入到刑法规范记载中的做法,违背了罪行法定原则中成文化、明确性的要求。倘若将强弱划分应用到规范层面,至少还应当说明为何人工智能由弱到强是一个“意识”从无到有的变化过程,强人工智能相较于弱人工智能成为法律主体的根据为何,而且,弱人工智能是否意味着必然不具备成为法律主体的资格等,这都存在疑问。因此,强弱人工智能的分类欲想进入刑法规范的工作十分艰难,甚至可以说这项工作永远不会成为现实。
综上来看,刑法规范不承认强人工智能与弱人工智能的划分方法,而且这一划分方法并不会影响到人工智能在刑法规范上的定位。因此,刑法规范中的人工智能概念应当舍弃这一分类方法,即将刑法中关于强弱人工智能问题的探讨统一到人工智能问题的探讨。
(二)刑法之定位以人工智能的风险分类为前提
人工智能是由人类制作而成的产品。事实上,人工智能在部分阶段属于一种智能设备。并且,早在2016年联合国科教文组织就通过了《关于机器人伦理的初步草案报告》,在该份报告中明确指出人工智能将作为科技产品。因此,眼下处理人工智能相关法律问题的关键在于明确其“产品”或者“工具”的本质属性。人工智能在刑法上法律定位的探讨应建立在其产品本质属性的前提下。
人工智能的产品属性决定了对其风险来源的划分。本文认为,人工智能造成的风险可以分为两类:一是人工智能产品本身产生的风险,可称之为内部风险,这体现了其产品性的特征。二是因人类主体利用人工智能产品所产生的风险,可称之为外部风险,这体现了其工具性的特征。人工智能的内部风险主要来源于产品技术本身。此时,人工智能作为产品具备完全意义上的独立性,即不受人类的控制与利用,摆脱了人工智能工具性的属性。这一内部风险从产品生产设计完成时就已经潜在化了,此时内部风险的演变早已脱离了人类主体的干涉,其一般情况下通过刑法的前置法规范如民法规范中的产品责任就能够解决。除非这一内部风险的演变是人为的故意操纵,比如说故意设计错误程序、故意在生产制造过程中掺杂掺假、设计危险程序,此时这种情形就会涉及到刑事规范的适用(具体后文详述)。人工智能的外部风险主要是指人工智能作为工具由人类主体利用产生的风险,此时人工智能更多地是作为工具出现在大众视野,由此构成了人工智能外部风险的来源。在Peoplev.Davis一案中,加利福尼亚最高法院也认为人工智能机器人只能作工具使用。
综上所述,人工智能的产品本质决定了其风险的分类,这一分类基本上奠定了人工智能法律规制的前提,人工智能的刑法定位也是建立在风险分类基础之上。
(三)人工智能在刑法体系中二元定位的体现
前述部分明确了人工智能的风险原理,并对人工智能的风险进行了规范上的分类,接下来便是人工智能在刑法中具体定位的探讨。前述风险划分的工作结束后,人工智能在刑法体系中的定位就很明朗了。刑法此时的任务应当是在最后手段原则的指导下对这种内外的二元风险作出最后的规制,即刑法对于“产品属性”和“工具属性”两种风险的二元定位。
1.内部风险的刑法定位
首先,民事规范在内部风险的规制上应当是首选方法。毕竟,人工智能机器人作为一种产品,原则上由缺陷产品自身产生的侵害当然适用产品责任来规制。当下,《民法典》中产品责任编对这种缺陷产品的损害已经作出了规定,主体涉及到生产者、销售者以及运输者和仓储者等第三人,可以说其规定的已经相当全面了。产品的生产者因产品缺陷造成他人损害的,对其一般适用无过错责任,比如《民法典》第1202条之规定。而对于中间的销售者来讲,其对缺陷产品承担先行赔偿的义务,但是事后可以向生产者追回,不过销售者应当证明产品缺陷系生产者造成,比如《民法典》第1203条之规定。对于因第三人过错使得缺陷产品对他人造成损害的,第三人也应当承担赔偿责任。而且,《民法典》产品责任编中,不仅是对侵权主体作出了详细规定,对于责任承担方式也作出了具体规定,比如,侵权主体除了要承担一般的侵权责任外,在特定的情形下,被侵权人还有权主张适用惩罚性赔偿,比如《民法典》第1207条之规定。当然,民法规范为了不过多的对技术进步造成束缚,在产品责任的免责事由中指出,生产者因“将产品投入流通时的科学技术水平尚不能发现缺陷的存在的”不承担赔偿责任。
其次,行政规范在内部风险的规制上也可以发挥作用。行政规范对于人工智能产品的生产、研发,可以要求相关主体如企业制定、出台一系列的规章制度,包括相应的注意义务、产品的正确研发制度、引导使用规范等相关安全管理规定。企业如果未能严格遵守行政法规、政策而造成后果,行政规范可以采取警告或者罚款甚至是吊销营业执照等手段。对于销售者来说,行政法规及政策应当重点规制的是人工智能产品市场流入制度。此外,人工智能产品的特殊性(高度智能)还决定了销售者应当尽更多的说明、教会义务,销售者应重点强调人工智能产品的注意事项、风险告知以及使用禁忌,以保证消费者能够做到详细的了解和学习。此外,《治安管理处罚法》在内部风险的行政法规制上也应当被考虑有无适用的余地。
最后,刑法手段在规制内部风险中的应用。刑法手段规制风险的第一种情形为,当侵害结果的发生是因为生产者等在研发、生产环节故意造成时刑法才有适用的空间。生产者、研发者在研发、生产人工智能等产品时,对产品的零部件或者编程故意掺杂造假或者故意设计非法程序、下达非法指令,造成“缺陷产品”的生产并流入市场由此引发产品事故的,该种情形应当追究生产者生产、销售伪劣产品罪或者以危险方法危害公共安全罪的刑事责任,原因是:第一,人工智能机器人等属于产品的范畴,生产者、研发者在生产过程中出现了以次充好、以假充真的情形,行为造成了严重的社会危害性,当然应当根据生产销售伪劣产品罪予以规制。第二,研发者或生产者故意造成系统缺陷进而投放到市场使用,该行为无异于向社会投放危险物质。人工智能毕竟属于高科技产品,程序出错的人工智能产品在危害性上无异于危险物品,比如,前述“机器人杀人事件”,无人驾驶汽车以及人工智能作战武器等的危险程度甚至高于一般的危险物质。
刑法手段规制风险的第二种情形为,若研发者或者生产者在设计、生产人工智能机器人时,未尽到相应的管理注意义务,疏忽大意使不合格的人工智能产品流入市场,造成严重后果的,刑法规范才具备发挥作用的空间。这种情形可以过失以危险方法危害公共安全罪、重大责任事故罪或者重大安全事故罪追究相关主体的刑事责任。比如,行为人在生产作业中违规操作引发重大责任事故,则应追究主要责任人或者行为人的重大责任事故罪。该种情形下行为人不遵守操作说明以及安全管理规定或者对违规操作持过失心态,导致人工智能产品产生危害后果,满足了重大责任事故罪的构成要件。在第二种情形所涉及罪名的适用中,一方面要注重考察危害结果的发生与否,这是因为要考虑到技术的不稳定性等复杂情形,防止因为刑罚措施过于严格阻碍科技进步。另一方面要注重考察研发者和生产者是否遵守相关注意义务,防止研发者和生产者在生产、作业中疏于管理或者违反有关安全管理规定而导致危害结果的发生。当然,若该技术缺陷就算尽到注意义务也难以避免,则属于意外事件。
2.外部风险的刑法定位
人工智能的外部风险主要是指人为使用所造成的危害结果,具体又可分为正常使用和非法利用两种情形,对于这两种情形的规制路径也有所不同。
第一种情形,若是在正常使用中因产品自身原因导致侵害结果产生,则应当按照产品责任的规定处理,实际上该种情况风险来源于人工智能内部,这种情形不受刑法的关注。
第二种情形,对于非法利用人工智能的情形应当纳入刑法规制的范畴。该种情形下行为人主要是将人工智能作为工具使用,比如,行为人利用人工智能机器人实施的杀人行为、抢劫行为等,人工智能此时充当的是辅助工具的角色,应当根据具体情形分别按照故意杀人罪、抢劫罪等追究行为人(人工智能使用者)的刑事责任。此外,前述提到的人工智能黑客现象,明显就是人工智能工具属性的体现,即黑客程序设计者作为背后的责任主体,利用人工智能黑客侵入计算机的行为当然也就构成计算机类相关犯罪,如《刑法》第285条以及第286条规定的相关罪名。
除上述情形之外,本部分拟以当下热度较高的无人驾驶技术为例,对其在刑法规制上做简要分析。无人驾驶技术是将强人工智能应用于汽车驾驶领域,此时,无人驾驶技术的刑法规制结合其风险来源,可以具体分为以下情形,生产者、设计者通过设计非法程序利用无人驾驶技术在人员密集的道路交通上横冲直撞的,该种情形下应当视具体情形追究生产者、设计者故意杀人罪或者以危险方法危害公共安全罪。若驾驶者在使用无人驾驶技术时造成交通事故,此时,如果交通事故是由驾驶者过失操作不当所致,驾驶者可根据情形被追究交通肇事罪的刑事责任;如果驾驶者故意操作导致驾驶故障,或者对产生故障后的情形持放任态度能去阻止而不阻止,任由无人驾驶汽车行驶而不去接管,此时驾驶者应当视情形被追究故意杀人罪等刑事责任。总之,刑法在明确了人工智能产品属性和工具属性的前提下,结合具体情形加以分析后得出的结论往往不会超出人们对法规范中常识常理常情的认知。
结语
人工智能时代终将到来,人类也会因此进入风险社会,刑法如果盲目追求标新势必会引起刑法规制与科技进步的矛盾。刑法应当克制住其在当下焦躁冒进的态度,遵循缓和的积极主义刑事立法观。人工智能引发的法律问题并未触及到刑法深层次的理论探讨,抑或者刑法教义学体系完全能够消化风险社会理论涉及的有关现象。按照本文的主张,文章开篇所提的“机器人杀人事件”也只不过是普通的自动化器械故障而已,即便是机器人对话中出现的反人类情形亦是如此。人工智能威胁的产生并不来源于它本身,而是我们人类对它的态度。总之,人工智能只是人类发展史上具有进步意义的辅助工具,传统的法律体系完全可以将其所衍生的风险内化,而所谓的强人工智能和弱人工智能的划分,不过是电锯和斧头的区别罢了。
《法治研究》2023年第1期目录
【本刊特稿】
1.建筑物和物件损害责任的理解与适用
梁慧星(3)
【行政法专题】
主持人:章志远
2.作为实质性解决行政争议配套机制的行政应诉
章志远(22)
3.论实质性解决行政争议的规范主义进路
闫尔宝(30)
4.行政纠纷的分流与实质性解决
李大勇(42)
5.行政诉讼“程序空转”现象的多维审视
黄先雄(50)
6.人民法院实质性化解行政争议的困与纾
袁岸乔(64)
【理论前沿】
7.犯罪构成论的司法逻辑化探究
刘远(74)
8.基因编辑技术的风险应对:伦理治理与法律规制
石佳友、刘忠炫(86)
9.超级平台算法价格歧视的反垄断规制
程雪军(99)
【法治论坛】
10.认罪认罚从宽制度中的量刑建议:确定刑抑或幅度刑
韩旭(112)
11.从法律激励视角看企业合规
崔永东(123)
12.人工智能嵌入刑法体系的障碍与定位
——兼论刑法教义学体系下风险社会理论的反思
李立丰、王俊松(133)
【青年论坛】
13.中国《民法典》的米字结构
王战涛(147)
《法治研究》——中共浙江省委政法委员会主管、浙江省法学会主办的法学理论刊物,中文社会科学引文索引(CSSCI)来源期刊(扩展版),中国人文社会科学期刊AMI综合评价(A刊)扩展期刊,人大复印报刊资料重点转载来源期刊。
-END-
责任编辑 | 金梦洋
审核人员 | 范阿辉 张文硕
本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。
魏斌:法律论证人工智能研究的非形式逻辑转向 | 法商研究202205
雷磊:人工智能时代法律推理的基本模式 | 比较法研究202201
郑曦:司法人工智能运用背景下的被告人质证权保障 | 政法论坛202206
刘泽刚:论算法认知偏差对人工智能法律规制的负面影响及其矫正 | 政治与法律202211
叶涛:公共场所人脸识别技术应用的利益衡量与类型构造 | 浙江社会科学202207
周光权:涉人脸识别犯罪的关键问题 | 比较法研究202106
刘承韪 刘磊:论私密信息隐私权保护优先规则的困局与破解 | 广东社会科学202203
王利明 | 和而不同:隐私权与个人信息的规则界分和适用 | 法学评论202102
丁晓东:个人信息公私法融合保护的多维解读 | 法治研究202205
关注下方公众号,获取更多法律信息