重磅| 刘艳红:人工智能法学研究中的反智化批判
人工智能法学研究中的反智化批判
作者:刘艳红,教育部“长江学者奖励计划”特聘教授,东南大学法学院教授、博士生导师。
来源:《东方法学》2019年第5期。本文与发表版本的内容略有不同,并已略去注释,引用请以原文为准。
内容摘要:人工智能技术热潮的再度兴起,使得人工智能法学研究空前繁盛,但当前研究出现了违反人类智力常识的反智化现象。概念附会现象严重,不少成果只是基于“AI+法律”的任意性组合,“泛人工智能化”研究正在产生大量学术泡沫;制造人工智能研究中的“假问题”或误将司法适用问题当作人工智能法学研究中的元问题,理论创新方向值得怀疑;将对策与科技问题当作理论与学术问题,离开法教义学的基本立场与方法,使得人工智能的研究日益滑向不可知论。人工智能并未对法律基础理论、法学基本教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景。法学研究应该避免盲目跟风,走出对AI的货物崇拜,回归学术研究的理性轨道。
二十世纪七八十年代,人们曾一度对人工智能的研究充满热情,随着真正有用的AI程序未能面世,这种热情被漫长的挫败感所冲淡,而如今人工智能技术再次“引起了越来越多的兴奋和焦虑……涉及人工智能的未来图像(futuristic imagery)在大众媒体中日益流行”。
在这种氛围的笼罩下,我国法学理论和实务界也对人工智能(机器人)保持着巨大的好奇,对法律引导人工智能发展的技艺充满着强烈的自信。不可否认,为包括人工智能在内的一切技术问题设计法律规则,是法律人不可推卸的时代使命,因而这种研究风潮是“法学作为致用之学”的当然表现,一切“热衷”似无可厚非。但也正因为法学研究本应具有观照现实的特性,这要求我们时刻注意合理选择参与前沿技术讨论的现实契入点,在正确理解人工智能技术应用场景的前提下确定法学研究的问题意识,避免盲目追求“时髦”的学术虚假繁荣。以刑法学为例,或许得益于国家《新一代人工智能发展规划》的政策信号,本领域内的研究成果从2017年开始呈现爆炸式增长,“人工智能刑事责任论”等俨然成为最为耀眼的知识增长点。面对席卷而来的人工智能法律问题的法学研究,面对“定分止争”的法律本性,不得不让人产生怀疑:法律学者们是否已经找到了规制AI技术发展的理性方向?当前的热烈研究究竟能走多远,它究竟只是“先一哄而上再一哄而散”还是能够持续到强人工智能到来之日?空前兴盛的人工智能法学是否积累了有助于学科发展的智识,抑或仅仅是法学理论工作者们为了追踪热点并出于各自目的比如引用率高低等而亦步亦趋的“学术秀”?对此,本文将审视当下人工智能法学研究的格局及其问题,并在此基础上就其发展进路谈几点看法。
一、人工智能法学研究中的概念附会
当前法学界存在无处不在的“人工智能+”,在人工智能的大招牌之下开启了各个论域的话题研讨新模式。究竟什么才是人工智能?学者们所言的人工智能只是借用了一个似是而非的流行语以吸引阅读兴趣,还是它确实挑战了千百年形成的法律知识体系?通过观察可以发现,人工智能其实并没有取得如此巨大的飞跃,一些所谓的“人工智能法学”研究题目仅仅是在顺势包装、借壳上市,这种“盛名之下其实难副”的概念附会已经吹起了不少学术泡沫。
人类最初在制造计算机之时就已幻想能够研发出会思考的机器,那时人们无法给予它一个特定的可理解的准确称谓,因而便将之命名为“Artificial Intelligence”,简称AI,以表明其不同于人类自然智慧的人工智慧。迄今为之,科学家们也给它撰写过不同的定义,甚至用各种思想实验如著名的图灵测试、中文房间理论等验证这种人工智能存在与否。本文不想详细例举这些定义,事实上关于计算机科学、哲学、法学等学科内的很多基础概念都没有取得过一致的意见。或许如美国最高法院大法官斯图尔特(Potter Stewart)曾说的那样,我们难以成功描述这些概念如无法定义什么是淫秽物品,但“当看到它时我就知道了”(I know it when I see it)然而,当人们因自身的不求甚解而误解曲解研究对象时,准确提炼出相关概念的核心要素就显得十分必要,毕竟不同定义之间还存在着相当的共识。整体而言,人工智能概念核心要素自1950年代产生以来就是恒定的,人们尚没有超脱对AI的原始认知——像人类一样理性地思考和行动。这并不是说人工智能系统的智力水平与人类持平,事实上人类在很多方面也早已大大超越了这个目标,而是涉及一些像人类一样能够“自主的选择和决定:自我管理(self-governing)”。“自主或自治(Autonomy,源自希腊语auto:自我,nomos:法律)与自动化(automation)不同,自动化是指由一台机器不断重复一个过程。自主则要求……AI可以做出自我的选择,即便它在做决定时与人类有过互动”。可以说,“机器是否具有自动化”是一种外部信号反射式的事实判断,而“机器是否具有自主性”则还涉及到自然科学之外的关于机器是否具有自我意志和自我行动能力的“(类)人性”判断。有鉴于此,有学者认为一个可被称为“智能”的实体应至少具有五个基本构成属性:①沟通交流能力(communication),即能够与人类或其他物种相互动,这并不单单代表着智商水平而是一种社会交际潜能;②内部知识(internal knowledge),即对自身的认知,它等于“自我意识”,一个有智慧的实体应该知道自己的存在、自己以某种方式运作、将自己融入现实等;③外部知识(external knowledge),即关于外部世界和真正现实的数据收集分析能力,这是人类累积生活经验的方式,也是人类学习的方式,如果把任何事件一次又一次地当作全新的,那么就很难表现得像一个有智慧的实体;④目标驱动行为(Goal-driven conduct),这指的是一种意图,它制定和执行计划来实现相关目的;⑤创造能力,即指找到新的理解或行为方式的能力,反复尝试完全相同的行为并不是创造力的表现。所以,真正的人工智能是极为复杂的,认定条件也颇为苛刻,这些定义标准限制了概念上的泛人工智能化。
反观我国法学界,很多学者常常将人工智能要求的“自主性”与寻常的“机械自动化”相互混淆。例如,致力于人工智能法学研究的学者大多以“机器人伤人事件”等为起点,比如2015年德国大众汽车制造车间内发生的所谓“首起机器人杀人案”。但是,本案中产生故障的机器人只是普通机械设施,它根本没有独立思考的能力,它之所以会杀死这名工人,是因为触发了该设备的自动处理程序;它只是自动化的普通机器,远没有达到所谓人工智能的水平。与无处不在的生产责任事故相比,该事件也没有本质不同,无非该设备的自动化系统更为精密而已。如果说这也能够成为人工智能法学研究的问题来源,那么可能早在工业革命推广开来之时就该去研究“人工智能”了,或许农业社会耕田的拖拉机伤人也该划入人工智能法律问题的话题范围了。生活经验常识告诉我们,任何机器都会存在风险,即便一把毫无自动性的菜刀在人类不当使用时也会划伤手指。以所谓的“机器人杀人案”导出人工智能的发展风险,进而得出应追究人工智能之物法律责任的观点,是对人工智能根本性的误解和非常低级性的错误。那些讨论对机器人追究刑事责任的学者可能忘记了刑罚的功能,“在判处刑罚的情况下,法官对再犯罪可能性的预测不可能是绝对准确的,犯罪人的行为态度、规范意识等也是不断变化的,因此,刑法特别规定了减刑制度与假释制度。”针对机器人,这些刑罚制度显然没有任何意义,刑罚的报应或者预防目的也都无从实现。
再如,银行的自动取款机(ATM)是为了节省人工成本而发明的旨在引导人们从银行自助取款的机器,虽然它也被叫做“自动柜员机”,但它只是银行人类柜员的一种替代设施,它只有自动化而没有自主性。但是,有学者在人工智能中讨论利用拾得或盗窃他人银行卡在ATM上取款等案件的处理,将之归入“人工智能作为侵财对象的侵财犯罪”,并以此提出了“人工智能时代侵财犯罪刑法适用的困境”问题。事实是,中国第一台ATM机早在1987年就已经启用,它与人工智能之间没有丝毫关系。“通过ATM实施侵财犯罪”“机器能否被骗”等话题根本不用借助于所谓的人工智能就已被讨论过了,当法学重要期刊上的论文将自动取款机、手机银行、支付宝第三方支付平台等统统纳入人工智能范畴时,恰恰表明概念附会的严重性已经到了让人失去底线的地步。果真如此,我们这个人口大国的人工智能普及率早已世界遥遥领先。自动取款机、手机银行、支付宝等可能会出现系统故障,但它们并没有社会沟通能力、创造能力,它们也没有自主性;我们对它们的应用再熟悉不过,常识告诉我们,这种研究正是泛人工智能化的突出表现。
综上可见,我国人工智能法学研究中存在着明显的概念附会,将不属于人工智能的研究对象强行贴上人工智能的标签,相关研究演变为“AI+法律”的任意性组合,不少研究者只是打着人工智能的旗号攫取话语权、提升自我身价,法学家们一夜之间变成了人工智能专家,仿佛让自然科学家都望尘不及。这种“泛人工智能化”不是真正的学术研究,而是制造学术泡沫。
二、人工智能法学研究中的伪问题替代真问题
“问题意识”是一个常谈常新的话题,提出正确的问题是任何研究过程的开端,如果没有针对真实的问题进行讨论,即使论述再精妙、方法再多样、观点再前卫、著述再等身,都只是徒有一身浮华的外表,根本不具有任何实际意义。当前法学研究中,应特别注意甄别“伪问题”。尤其在“乱花渐欲迷人眼”的人工智能领域,问题意识更具有欺瞒性,一些法学家似乎总能够发现连科学家都难以察觉的“宇宙级难题”,可静心观察就会发现不少问题的讨论意义仅仅在于占领了更多期刊版面而已,所谓的理论创新可能只是一场空欢喜。
其一,不断制造、跟风、放大“假问题”,导致法学研究误以人工智能发展中的夸张、炒作、娱乐为前提。我国人工智能法学研究主要始于学者们对人工智能技术的各种忧患意识:人工智能的发展前景不可限量,必然会出现具有自我意志的(超)强人工智能,人工智能甚至可能会取代人类、机器算法会取代人类法律;人工智能引发的风险足以产生毁灭性打击,因而主张法律甚至刑法积极应对和规制人工智能的发展,等等。这种“居安思危”“未雨绸缪”的精神确实让人感佩,可这些忧虑只是依靠无数假想拼凑起来的幻影,只是在用别人的“噱头”吓唬自己。
例如,世界上第一个获得公民资格的表情机器人索菲亚(Sophia),在2017年10月被沙特阿拉伯授予公民身份之后,尤其它曾在与设计者汉森(David Hanson)的对话中冒出一句“我想毁灭人类”,法学家们开始变得躁动不安。不少学者将索菲亚的公民身份作为一种AI技术发展的国家制度回应,视之为AI挑战现行法律体系的范例以及检验某个法律人格理论是否合格的试金石,认为法律若不承认机器人的法律主体地位就不能满足这种社会现实。然而,索菲亚早已遭到包括人工智能科学家在内的各方观察者的极大怀疑:“索菲亚之于AI,就像变戏法的之于真正的魔法,我们把它称作‘AI崇拜’‘假冒AI’或者‘远程操控AI’可能比较好。”所谓具有公民身份的索菲亚不过是一个公关噱头而已,而不是人性、尊严或人格的展现。“‘女性’属性的索菲亚究竟能享有哪些权利,还真不好说。因为在事发地点沙特,女性连单独驾驶权都未得到法律认可。”对于这样一个女性只配拥有有限权利的国家来说,索菲亚更像是一个营销玩物。这种以国家权力为支撑的机器人营销策略淡化了沙特在妇女权利方面的不光彩记录,其实索菲亚主要的新颖性在于身体和面部表情,而不是它的会话方式、主体认知或智能程度,“当以真实的人类互动标准来衡量时,它便仓皇失措、‘智商不在线’”。其实,类似于索菲亚的人形机器人在世界范围内还有很多,它们之所以不被人们津津乐道,是因为它们的包装实力不及索菲亚。AI技术的拥护者李开复曾公开评论,索菲亚“丝毫没有人性、人的理解、爱心、创造力。授予这样一台只会模式识别的机器‘公民’,是对人类最大的羞辱和误导。一个国家用这种哗众取宠的方式来推进人工智能科研,只会适得其反”。既然人们对于索菲亚之于人工智能发展的意义远没有形成共识,我们更没有必要放大索菲亚等类似机器人对现有法律体系的影响,索菲亚的所谓“公民身份”是国家、企业、新闻媒体等各方利益的联合演出,它既与沙特本国的法制传统相龃龉,也受到了AI专业科学家的批评。因此,法学家完全没有必要从索菲亚那里获得什么问题意识,也不必为它的公民身份感到欣喜或恐慌,由索菲亚引出的人工智能法律人格问题是个彻底的伪问题,没有任何法制建构和法学研究上的借鉴性;那些经由公民机器人的诞生而产生的将索菲亚“修坏了会被追究法律责任吗?把‘她’拆解其不等同于谋杀?等问题,正是伪人工智能法学问题的典型代表。
其二,将司法适用/使用问题作为人工智能法学的“元问题”,“AI乐观主义+法律工具主义”盛行,从而不甄别真风险真挑战、陷于表象式研究氛围。当前的研究主要集中于两个方面:一是推进司法人工智能以提升“智慧司法”乃至“智慧法治”,克服人类裁判思维的片面与恣意;二是探究人工智能对传统法律权利义务的挑战,最终落脚于人工智能的司法处遇如“人工智能创生成内容”的著作权保护、自动驾驶致人损伤的刑事责任等。如果将研究对象限定在弱人工智能,则不仅AI的作用有限,而且它对法律体系的挑战也十分微弱,以人类为中心的现有法制系统仍具有顽强的适应力;如果将研究对象拓展至强人工智能,则不仅完全跨越了时代,而且忽视了一系列尚未深入讨论的前提性问题。
如前所述,当前的“司法人工智能”只是提高司法工作效率的便利工具,如语音输入取代书记员电脑打字记录、裁判文书上网以及自动识别搜索等,这种变化与书记员告别古老的手写记录没有实质区别,其他应用如海量判例筛选、辅助量刑规范化、电子取证技术等至多属于增强同案同判等人类司法智慧的AI。“司法人工智能”这一现代科技的使用还面临很多难题,若不对此加以重视而盲目上马各种“智慧司法项目”,最终也只沦为一场“司法秀”。例如,当前中国的司法公开指数虽然有提升,但远未能构成真正大数据,大量司法文书没有公开或没有及时公开、案外因素或规范外因素对司法结果依旧产生隐形决定力,数据的不完整、不真实直接影响各种“司法人工智能系统”的效用。又如,司法体制改革的重中之重是凸显程序正义,而人工智能的“算法黑箱”将加剧人们对裁判过程不透明的怀疑,这使得那些致力于摒弃人类法官弱点的智慧软件系统变得苍白无益。更重要的是,当前的人工智能法学研究者几乎都不是计算机科学专家,各种软件系统的研发也依赖于法律人与专业技术人员、技术公司的合作。当我们质疑人类恣意时,也更有理由怀疑这些系统研发者会借着算法黑箱写入法学家的偏见、科学家的武断、企业的经济利益等,它们仍无法摆脱商业、政治、强势价值观等力量操控,这种“算法歧视”已经在多种领域出现,使得人们对这种由于尖端技术导致的不公正性的救济难度将直线上升。因此,当前司法人工智能实际仍停留在“为何要用”的原始阶段,当类似元问题没有得到充分讨论而径直将其乐观地投入司法使用,那么所谓的智慧司法将会引出更多棘手的法治难题,对于“法律AI”大可不必亦不能急于求成。
再如,著作权法保护的客体是“作品”即文学、艺术或科学领域内的独创性表达,即“只有具备相应独创性的智力创作成果才可成为著作权客体,受著作权法保护”。“人工智能生成内容”的生产过程并不属于创作、不符合独创性要求,不是著作权法中的作品,所谓“人工智能生产内容”的著作权保护就成为一个伪问题,不能以此否认现有法律的应对能力。“作品”源于独立的、个性化的思想创作,是某种情感、审美的表达,计算机软件可能具有越超人类大脑的某些组合能力,但最关键的是它缺少人类之间的共情心、同理心而完全根据算法、模板机械生成结果,没有发挥智力创作的空间。比如机器所写的诗只是利用了内部词库和一些文字搭配技巧,它根本无法理解爱情、童趣、寂寞、悲悯等诗歌创作内在思想,甚至它呈现出来那堆文字(在其内部是一堆数字代码)连诗歌的皮囊都没有,也注定不会得到文化上的流传。人工智能不能改变著作权法中“作品”的构成要件,对这种毫无创造情境、毫无智力活动的“生成内容”进行著作权保护毫无必要,更不能承认机器的著作权主体资格,否则人工智能将率先在艺术创作上严重冲击人类文明理念,这才是人们最需要担忧的。事实上,即便当下热议的法律大数据与人工智能在司法场景的应用,也还只是停留宏观层面概述,根本还未深化到具体的细分领域。所以,那种所谓“新技术、新风险对司法适用提出新挑战”毋宁是不假思索的命题套路。法学研究应该走出对AI的货物崇拜,[ “货物崇拜”,是指与世隔绝的原住民将外来先进科技物奉若神明的行为。]回归学术研究的理性轨道,研究法律领域的真问题。
三、人工智能法学研究中的对策论代替教义论
人工智能只是无数新技术发展背景下的某一个领域,法教义却是法学研究不可抛弃的立场和方法,当下对人工智能法律问题的研究停留在对策论,离开法教义学的精耕细作和理论共识探讨必将使人工智能法律问题研究难以沉淀。
每个部门法都存在问题性研究和体系性研究,前者以解决个别问题为导向,后者则以各种原则、规则的体系推进为导向,二者在整体知识系统内相辅相成,共同保证法律制度对实践问题的适应性和稳定性。如前所述,人工智能法学研究兴起的原因是研究者认为法律对AI问题的应对能力不足,因而这首先是问题性研究;同时,研究者提供的解决方案如赋予人工智能法律主体地位等均是对现有体系的突破,因而也就天然牺牲了体系性。概言之,人工智能法学研究的现状是问题性研究林立、体系性研究阙如。虽然法学不能像自然科学那样建立起严密的公式体系,但法教义如同公式一样,提供了逻辑关系建立起来的知识体系,保证了各部分知识之间的兼容性,按照这些公式体系来完成判断可以节省大量审查精力。体系性研究的这种优势荡然不存,会导致我国法学研究转型中的所谓知识创新实际上走向了“回头路”:对策论优先。法学家的对策论与国家制度层面的政策论共用一套逻辑,它特别看重的是法律工具主义,当失去了体系性研究之后,这种对策论容易违背原理、抛弃原则、颠覆法秩序,产生的不是工具理性而是“工具不理性”。
人工智能法学研究中对策论的极端表现就是主张赋予人工智能法律人格,甚至人工智能可以作为独立的犯罪主体存在,这是一种“以新(立法)制新(问题)”的路径,往往仅仅是就事论事、毫无体系。例如,权利义务能力是定义法律主体的唯一标准,但人工智能在权利义务根本不可能实现统一性原则。即便人工智能享有了著作权等呼声较高的权利,但它当其研发者、使用者将AI创作物据为己有时,AI是否能够就发表权、署名权的救济独立提起民事诉讼?除此之外,它还能拥有哪些权利?智能机器人有无数个种类、程序也极为复杂,如何判断某些AI具备而某些不具备权利能力?研发者、使用者为自身之目的对人工智能运行程序进行删改时,是否也要经过AI的同意?他们对这些智能产品还能够享有“物”权?这都是牵一发动全身的问题。在义务能力上,当AI致人损害而产生责任时,它如何承担赔偿责任?法学家目前设想的方案是像机动车强制保险那样为人工智能进行投保或设置某种基金,但这种责任是仍然是人类的财产责任而不是AI的独立责任。因此,“主张人工智能具有主体资格……不具有现实性意义”人工智能达到权利义务相统一的法教义要求几乎不可能,体系性思考的缺失只会顾此失彼、不可能拼凑出一个法律上的新主体。
再如,断言人工智能可以承担刑事责任的观点根本违背了人类制定刑法的目的理性。刑法教义学对刑罚的认知是:“刑罚作为国家对犯罪行为的否定评价与对犯罪人的谴责的一种最严厉的形式,当然地对犯罪人具有身体的、精神的、财产的剥夺性、限制性痛苦”。不少刑法学者对人工智能承担刑罚责任念念不舍,可这种所谓的“刑罚”根本就不可能成为一种“痛苦”,不可能实现对AI犯罪的预防效果。首先,诸如删除数据、修改程序、彻底销毁等手段根本谈不上任何“谴责性”,这些手段早已在当今畅通无阻。电子产品售后服务中心对出售的产品进行数据程序的删减、替换、修正或者按照用户意愿进行置换、报废是无比寻常的维修方案,这何曾需要以它们构成犯罪主体为前提,这些维修手段的正当性根据只在于技术有效性——以“能修好”为标准。人类对自由刑、死刑的痛苦感是来自天然的肉体和心理上的,机器人的痛苦感则来自于人的设计而非其自身,它没有痛感;在这一点上AI连一只有触觉的蚂蚁都不如。因此,人类为AI设计的“刑罚”根本不具有任何刑罚的属性。其次,正因为刑罚属于最严厉的制裁措施,人类更加注重法治国刑法的最后手段性、谦抑性、法益保护辅助性。除刑法之外还有道德规范、伦理规范以及其他前置法,如诸多风化犯罪之所以受到质疑正是因为相关行为属于纯粹道德或伦理调整范围。法学家从来没有考虑过人类是否能够为机器人成功搭建起道德或伦理的规范体系,而只是简单粗暴地动用刑罚,面对人工智能等高端技术时总是如此急不可耐;法学家似乎也没有注意到,上述那些所谓的刑罚方式其实单纯依靠官方或非官方的AI技术管理规范就能够顺利实现,这些技术指南只需要针对AI研制者、使用者等人类主体即可。可以说,以上问题的“很多部分根本就不是‘对法律的挑战’”,人工智能并未对法律基础理论、基本法学教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景,如技术的发展如何影响人类自身的注意义务等。
迄今为止,人们没有放弃过对法律风险预防功能等问题的迷恋,很多措施如刑罚前置化、抽象危险犯、行政犯的增设等或许还能被理解,毕竟它们针对的都是人类行为,至少这种立法客观上会引起一些自然人或单位的心理威慑。但若将法律的预防功能指向不知何年何月才会出现的“假想主体”,则根本错解了预防主义,一如英明睿智的秦皇汉武也不可能以“展望未来”的姿态为醉酒驾驶机动车的立法浪费笔墨,这与他们的想象力无关而是由于这一时代根本不存在这种“定分止争”的需求。更值得指出的是,很多法律人自以为富有远见卓识、想象力丰富,可他们是否想过:强人工智能的整体智慧高于人类且又拥有自主意识、行动自如,那么这种比人类高一等级的物种届时还会接受今日法学家的方案吗?纵然今日设计了无比完美的框架,可那时人类将失去框定人工智能的资质,那时反倒是“人工智能在思考如何为人类立法”,所以,“冥想式的法学研究”里充满着神奇的悖论,人工智能法学的愿景可能是一场空。
四、结语
法学不是玄学、不是科幻主义,也容不得太多不切实际的浪漫情结。如果说“我们即将迎来人工智能时代”、自主思考的强人工智能就在“明天”,那么我们离这个“明天”究竟有多近?连科学家都不知道这个“奇点”何时来临,法学家又具有何种特异功能参透AI的未来禅机?对人工智能相关事务的法律规制尚需要我们积累更多的生活样本,创建一些只适用于遥远未来的理论、制定一些只沉睡在法典里的条文将比当前的“象征性立法”更加浪费资源,因为这种“立而不用”是名副其实的“空谈”。研究者总是相信AI技术的强大远非常人想象,那么是否有朝一日人类也会发现智力超群的外星人?或者基因技术也会让科幻电影里的钢铁侠变成能独立思考、会说话的真正人类?如果法学家总是秉着“宁可信其有”“未雨要绸缪”的态度——反正也没什么害处,那么我们现在是否也该为外星人、为钢铁侠去制定属于它们的规则?如果法学家连如何将违法行为归责为个人的问题都没有参透,却对人工智能是否拥有主题资格的问题喋喋不休,这不是在浪费学术资源又是什么?法律人若接连不断地随着人工智能等新潮科技一哄即上,那么他们也将随着自然科学的挫败或低落一哄而散,或许也将像三十年前那批AI研究先驱者一样只愿承认自己是“计算机(法学)专家”而对“人工智能(法学)专家”的头衔避之不及。当以异于常人的想象力从事法学研究时,研究者的判断力也会一并“异于常人”:概念附会、伪问题替代真问题、政策论替代教义论等一系列现象表明,一贯理性的法律人也会丢掉人类智力本该坚守的常识,人工智能法学研究中的如此反智化现象,令人深思并需要警醒。