思享 | 熊明辉:法律人工智能与人工智能法律(讲座实录)
熊明辉
哲学博士,中山大学哲学系教授,法学理论专业、逻辑学专业博士生导师,教育部人文社会科学重点研究基地中山大学逻辑与认知研究所副所长。
本场讲座是熊明辉教授通过对法律逻辑的梳理,对“法律人工智能与人工智能法律”这一问题进行的讨论,主要围绕三个问题而展开:什么是人工智能,什么是法律人工智能以及什么是人工智能法律。通过对几个概念的分析来对这些问题进行一一回答。
一、什么是人工智能?
大家对“法律”这一概念并不陌生,因此在本次讲座中就不再对“法律”这一概念进行赘述。
需要大家重点关注的概念中,第一个概念就是“人工智能”。“人工智能”是近年来大家都耳熟,却未必能“详实”的一个概念。第二个概念是什么是法律人工智能?第三个概念什么是人工智能法律?有时候我们可能把这两个概念——“法律人工智能”和“人工智能法律”混淆,觉得它们好像是同一个东西。那么“法律人工智能”跟“人工智能法律”的由来是什么?“法律人工智能”它来源于英文单词是“ Artificial Intelligence and Law ”,如果直接翻译应该是“人工智能与法律”或者“人工智能与法”。而“人工智能法律”这一概念来源于另一个组合,就是“Law and Artificial Intelligence ”。所以大家可以看得到,那么沈伟伟教授在给我设计海报的时候,专门弄了一个英文单词的表示那么它就是“AI for law and Law for AI”。代表一个是面向法律的人工智能,一个是面向人工智能的法律。这两个英文词组正好对应“法律人工智能”跟“人工智能法律”中文里的表达。但是我并不主张这样使用。
第一,我们需要解释什么是人工智能?
当一个人思考什么是人工智能这个问题的时候,他可能会在搜索引擎上搜索这个词的含义。那么我们就去搜索一下百度,看看百度上是怎么样界定人工智能?当我们在搜索人工智能的时候,你可能就看到这幅图。
这个图片能够表示人工智能与一个看起来像人,但是又看起来像机器的东西相联系。这些既像人又像机器的东西说明人工智能跟机器人是挂钩的。说到机器人,实际上我们可以在百度上找到,机器人自身的发展也有一个过程的。
在机器人的发展历史中,我们会发现早期的机器人更像是机器,而现在的机器人更像人。同时早期机器人的体型很小,随后越来越大,但现在机器人又变得越来越小,这就是机器人的发展历程。机器人是与“人工智能”密切联系的一个东西。机器人就是百度从图片的角度的对“人工智能”所下的定义。这种定义实际上是百度将“人工智能”作为计算机科学的一个分支来定义。这种定义体现了“人工智能”的英语来源——“ Artificial Intelligence”,英文的缩写是“AI”。去年的马斯克和马云在世界人工智能大会中进行了对话交流。对话中,马斯克说“AI”就是“爱”的意思,这个是故意忽悠咱们中国人的,因为AI肯定不是爱的意思是吧?它只有用中文拼音表达的时候才有爱的意思。(笑)
那么“人工智能”到底是做什么的?实际上百度上对“人工智能”的定义是十分清晰的,即研究和开放。“人工智能”研究什么?“人工智能”研究和开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。这也说明,“人工智能”首先是一门技术科学,而且是一门新的技术科学。对于这样一门新的技术科学是需要我们来研究的。而“人工智能”中“开放”指的是开放系统。在人工智能的定义中,“模拟”、“延伸”、“扩展”这三个关键词特别重要。所以人工智能是计算机科学的一个分子,他企图去了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器。因此,人工智能的目标是要做一个智能机器。这个领域中包括了机器人、语言的识别、图像识别、自然语言的处理和专家系统等研究。
人工智能作为一门学科的诞生,是在1950年。从诞生以来,它的理论和技术都日益成熟,所应用的领域也在不断扩大。可以设想,未来人工智能是要将科技产品作为人类智慧的容器。有了这样一个容器,我们可以把很多人的智慧放在一起,制造一个超强的大脑。我们一个人的大脑是有限的,人会遗忘很多事情。但是制造一个机器,它不会遗忘。所以人工智能是对人的意识、思维的信息过程的模拟。那么要注意的是,百度上已经明确说明:人工智能不是人的智能,但能像人一样思考,也可能会超过人的智能。超过人类智能的人工智能毫无疑问已经出现了。其实,现在在很多方面,人工智能都已经超过人:比如说我们人类在学习的过程中会遗忘;但是机器只要存储了,它就不会遗忘。
人工智能是一门极富挑战性的学科,要从事这项工作的人,他必须要懂得计算机知识,还要懂得心理学,还懂得哲学。只懂得这三个方面可能都远远不够,还要懂得其他一些东西。人工智能领域是相当广泛的。总体而言,人工智能研究的目标是什么?它的目标就是要让机器胜任一些通常需要人类智能才能完成的复杂工作。
但是这个目标也有一个问题,到底什么是“需要人类智能才能完成的复杂工作”?什么是“复杂工作”?这些问题,不同的时代、不同的人对“复杂工作”的理解可能又是不同的。这几年,实际上从2017年开始,“人工智能”不论在我国还是在世界上,都成为了一个热点词。准确的把握人工智能,有一个绝招,就是如何拆解这个“人工智能”这个概念。“人工智能”由四个字组成,也就是说与“人工”以及“智能”相关。
那么到底什么是“人工”?其实我们对这个定义的争议并不大。通常是指对是指人工系统。
问题关键在哪呢?关键是现在对“智能”存在很大的争议。“智能”涉及意识(Consciousness),自我(Self),还有思维(Mind),还包括无意识(Unconscious-mind)等等问题。百度上还说人唯一了解的智能就是人本身的智能——这个观点虽然被普遍认同,但还值得商榷。例如我们养了宠物之后,我们对自己的宠物可能十分了解,对宠物的了解也就是对它们智能的一种了解。但无论如何,我们对人的智能肯定了解得比较详细,很多科学都是在研究人本身的智能。尽管我们对人的智能了解很多,但是实际上也很有限,对构成人的智能的必要要素的了解也十分有限。既然我们对智能本身了解有限,那么对什么是人工制造的智能也就存在很大争议。所以在要讨论“什么是人工智能”的时候,对其中哪些属于人工智能,哪些不属于人工智能,存在模糊的界限。
现在,人工智能与我们的生活十分贴近。上个世纪70年代以来,人工智能就是三大尖端科学技术之一。进入21世纪后,这三大尖端科学技术中,只有人工智能没有被替换,仍然属于三大尖端科技之一。在那30多年的时间中,人工智能获得了广泛的应用,取得了丰硕的成果,现在已经成为了一个独立的分支。这也反映了人工智能受到广泛的重视。
大家对人工智能的发展历史已经耳熟能详了。1956年,由麦卡赛、明斯基、罗切斯特和申农为首的科学家在美国达特茅斯学院召开了一次会议,首次提出了“人工智能”这一术语。他们当时研究的方向都不同,但都是在研究机器智能,所以他们聚集在一起提出了“人工智能”这个名称。
人工智能的应用范围很广泛。但是百度把它的学科定义为是一门边缘学科,属于自然科学跟社会科学的交叉。虽然“人工智能”的确属于交叉,但是定位为“边缘”就有问题了。因为学科交叉起来,它可能可以产出一个“红光学科”。但“边缘”意味着始终是次要的。
人工智能可能涉及到的科学包括什么呢?第一是哲学,因为哲学需要研究意识、思维。还有认知科学、数学、神经生理学等理论。
同时,人工智能研究的范围也很广泛,自然语言处理就是首要问题。同时也会讨论比如说意识和人工智能。值得注意的是百度上的定义认为人工智能就其本质而言是对思维的信息过程的模拟。对人的思维的模拟有两种路径,一种是结构模拟,一种是功能模拟。结构模拟就是仿照人脑的结构,制造出“类人脑”的机器。而功能模拟就是暂时撇开人类内部的结构,只是从功能上进行模拟。
现在大多数的人工智能模拟都是功能模拟。结构模拟实际上就是我们通常讲的科幻世界、电影世界的那种“类人脑”机器。只有在结构模拟中,我们才会担心人可能会变成机器的奴隶,而不是机器变成人的奴隶。但目前来说,人工智能的目的就是让计算机这种机器会像人一样思考。
要使机器像人一样去思考,首先就要知道什么是“思考”?进一步来讲就是要知道什么是“智慧”?科学家们已经发明了汽车、火车、飞机等等。这些东西都是在模仿我们身体的功能。例如汽车、火车是来帮我们走路,进行位置移动的;收音机是帮助我们去听。那么我们到底能不能模仿人类大脑的功能呢?到目前为止,实际上我们对大脑神经细胞组成的器官了解得不是很多的,所以要模仿人类的大脑可能是天下最难的事情。
但我们要讲的是,人工智能现在所处阶段的目标是要让计算机这台机器能够像人一样思考。
我们再去看维基百科上如何定义人工智能。维基百科与百度一样的,都是把人工智能定位为计算机科学的一个分支。
但这里强调的人工智能有时又被称为机器智能,指由机器所显示的智能,与人类所显示的自然智能之间形成对比。通俗的说,“人工智能”一词是用来描述模仿与人类思维相关的“认知”功能,比如说让机器去学习,让机器去解决一些问题。而且这个机器能解决的问题可能是我们人还不能解决的问题。
那么在随着这个机器的能力越来越强,被认为需要“智能”的任务就被从人工智能的定义中剔除出去了。这种现象又被称作“人工智能效应”,泰勒斯说过一句俏皮话:人工智能是尚未完成的事情。现在被认为是智能的东西,可能随后不再被认为是智能的东西。如说光学字符识别过去被认为是智能技术,但是现在被认为是一种常规技术。
维基百科上将人工智能分为三类:分析型人工智、启发型人工智能、模拟型人工智能。虽然人工智能作为一门学科产生于1956年,但并不意味着“人工智能”这个概念也是在那一年才产生的。“人工智能”这样一个让机器来做事情的想法可以追溯到中世纪一个叫做鲁尔的人,后来到了莱布尼兹等人都有过这样的想象。1956年时,随着计算机的发明,怎么样让机器像人一样思维,促使了人工智能作为一个学科产生。
那么人工智能1956年提出之后就有很多的领域,有基于技术考虑的领域,例如“机器学习”和“机器人”;还有基于具体工具使用的领域,比如“逻辑”和“人工神经网络”;还有基于哲学差异的领域和基于社会因素的领域。在这些不同的领域中虽然都在讨论“人工智能”,但是可能讨论的并非同一个东西。
人工智能研究的传统问题或目标包括推理能力、知识表达能力、规划能力、学习能力、自然语言处理能力、感知能力以及移动与操纵物体的能力。这些人工智能领域都是专用的人工智能。还存在一种通用的人工智能,通用人工智作为人工智能长期的目标,包括统计方法、计算智能和传统的符号人工智能。这其中涉及到策略问题,同时涉及多个学科领域。
人工智能作为会“思维的人工”的存在,出现在多种小说之中。
维基百科上显示,1956年达特茅斯学院的研讨会中,与会者纽厄尔、西蒙、麦卡锡、明斯基、塞谬儿成为后来人工智能研究的创始人和领导者。但是百度却认为的是麦卡赛、明斯基、罗切斯特和申龙。维基百科和百度都没有问题。如果到达特茅斯学院官网就会发现另一种说法:莫尔、麦卡锡、明斯基、塞弗利基、索罗门诺夫是人工智能的创始人以及领导者。与维基百科以及百度上的介绍又不相同。因为1956年在达特茅斯学院召开的是夏季研讨会,这个研讨会持续了6到8周,是一个长时间的头脑风暴会议。原本有11位数学家和科学家计划参加,但是并不是所有人都全程参与了会议,大家参与的时间各不相同。
当时研究的热点是思维机器,各路人马都在研究“怎么让机器能够思维”,或者是“机器到底能不能思维”。当时研究控制论,有研究自动机理论,也有研究复杂信息处理的人员都在讨论机器思维的问题。为了将当时不同方面的研究人员聚集在一起,所以在设计会议名称的时就使用一个中性的名字。1955年,著名教授麦卡锡就组织一个小组,然后就使用了“人工智能”这个词,将各路英雄来召集起来,举办了一个头脑风暴的会议。因此通常说法认为1956年提出“人工智能”这个词,其实是1955年9月2号就使用了这个词。当时麦肯锡、明斯基、罗切斯特和申龙,就是百度上的四个人,他们正式的提出“人工智能”并使用。
这次的会议有11个人参加。实际上这些人并没有那么有远见,因为他们都只是对“机器思维”感兴趣聚在了一起举办了这次会议。所以开会过后,麦肯锡就丢掉了与会名单。在会议研讨会结束,麦卡锡给索罗门诺夫的寄去了一份初步名单,上面有会议参与者也有旁观者以及对这个话题感兴趣的人,他们一共有47个人。索罗门诺夫的笔记中有一份拥有20个名字的完整名单。这个会议实际上是一个比较松散的会议,并没有那么有预见性。
而且我们讲到计算机讲到人工智能,就必然会说到图灵测试。在研究一台机器能不能思维,就是看这台机器能不能通过图灵测试。1950年,图灵在《Mind》这本杂志上发表了一篇文章《计算机器与智能》。在这篇文章中提出了机器的思维。这个概念又被称为“模仿游戏”,现在也被拍成了电影。
这个图片显示的就是模仿游戏。当一个智能与人被隔离开来对话,对话了半天,对话人还没有发现与他对话的是一个机器人。如果能做到这一点,那么这个机器就已经通过了图灵测试。图灵测试的核心问题是什么呢?机器会思维的核心问题就是机器能不能进行推理。我们人类是可以进行推理的。人工智能的核心问题就在于能否让机器进行推理,尤其是让机器能够自动推理。
二、什么法律人工智能?
关于什么是法律人工智能,我们发现百度上是个白板,百度上是没有“法律人工智能”的词条。但是在国际学界上,存在有一个比较成熟的学术共同体讨论法律人工智能。那个学术共同体就叫做Artificial Intelligence and Law,直接翻译就是“人工智能与法”或者“人工智能与法律”,我就把其翻译成法律人工智能。为什么说这是一个成熟的学术共同体呢?因为法律人工智能有一个协会、一个会议,一本杂志。这个协会就是国际法律人工智能学会。一个国际会议就是法律人工智能国际大会。一本杂志就是《法律人工智能》。
国际法律人工智能学会这个协会现在的主席是一个意大利人Enrico Francesconi,副主席是Floris Bex,秘书长是Michal Araszkiewicz。现在这三位又被称为法律三巨头。法律人工智能协会设立了一个规则,协会主席是一期是两届,不得连任。副主席也是一个人,副主席通常就是下一届主席的人选。这是现在的委员的情况。
随着协会发展越来越大,所以现在设置了一个秘书长。
过去协会从来没有设置一个荣誉委员,现在协会专门为Anne Gardner为其设置了一个荣誉会员的称号。
协会每两年一届,每届设立一个会议主席。到目前为止,有15加1个或者15个半主席了。为什么是15个半主席呢?因为已经有15个主席,那还有半个指的是副主席,副主席到下一届就会接任主席。那么这15个人实际上就代表了国际法律人工智能学界中15个顶尖的人物,至少他们在学界中都很活跃。这些人都是在这个领域中非常具有影响力。
这是几个秘书长,秘书长实际上特别少。现在是现在的秘书长Michal,是波兰雅克罗斯基大学的一个学者。
这是协会的网站,大家有兴趣的可以去登陆这个网站。
http://www.iaail.org/
加入协会是免费的,只要发送一封邮件,他就会让你加入协会。以后协会里面有什么消息都会通过邮件形式通知给你。
第二个是这个杂志,这个杂志有三个主编,一个是英国利物浦大学的Trevor Bench-Capon,一个是美国匹兹堡大学的Kevin D·Ashley,一个是意大利博洛尼亚大学的Giovanni Sartor。该杂志由Springer出版的,现在已经是ESCI。在科睿唯安公司里面有SCI、SSCI、ASCI、ESCI的区别。SCI是理科的,SSCI是社会科学的。那么ASCI是人文科学的。ESCI主要是关于交叉科学的杂志。
法律人工智能成熟的标志还有一个系列的大会——法律人工智能国际大会,是法律人工智能的官方会议。第一届会议是1987年召开的,每一届会议都设Program Chair程序委员会主席以及Conference Chair大会主席。其中程序委员会主席负责学术,大会主席负责会议召开。不论是大会主席还是程序委员会主席都是这个领域中里面的很活跃的同时具有学术地位的人物。
第二届大会在温哥华召开。第三届大会在牛津大学召开。那么第四届在阿姆斯特丹自由大学召开。1995年在美国马里兰大学召开。1997年在墨尔本大学召开。1999年是挪威奥斯陆大学召开。2001年在美国华盛顿大学召开,2003年在英国爱丁堡大学召开。2005年在意大利博洛尼亚大学召开。2007年在斯坦福大学法学院召开。2009年在巴塞罗那自治大学召开。2011年在匹兹堡大学召开的。凯(Kevin D·Ashley)是匹兹堡大学法学院的教授,当时他担任大会主席。2013年在意大利罗马召开。2015年在圣地亚哥大学法学院召开。2017年在英国国王大学召开,2019年在加拿大招蒙特利尔召开。明年在圣保罗召开。大家可以关注一下在巴西的圣保罗召开的会议。但是想圣保罗准时召开这个会议,看样子不是那么容易的事情,说不定到时候就是一个网络会议。到目前为止的这17次会议,可以发现到底是哪一些地方的法律人工智能比较强。如果可视化的地图来看,那么主要集中在欧美,也有一次在墨尔本,明年在在巴西。但是我们希望未来有机会这个会议能够到中国来召开,在五星红旗下召开。
我们再去讲一讲,到底什么是法律人工智能。去维基百科检索法律人工智能的词条,在2018年以前这个词条叫做Artificial Intelligence and Law。但是在2019年里,这个词条被短暂的修改为The Application of Artificial Intelligence to Law,但很快又被修改为了Legal Informatics。也就是当我们讲法律人工智能、讲Artificial Intelligence and Law、讲Legal Informatics时,是有很多交叉之处的。这是我在维基百科中找到的视角,这个词条的定义是来源于哪里呢?是来源于1997年Sanda Erdelez 和Sheila O’Hare的一篇文章("Legal Informatics: Application of Information Technology in Law"),这篇文章将法律信息学定义为信息科学的子领域。而人工智能法律(AI and law)是人工智能(AI)的子学科,主要是研究人工智能在法律信息学中的应用和原创型研究。所以这是为什么我要把它翻译成法律人工智能的原因。
根据维基百科里共列出11个议题法律人工智能的议题:
Formal models of legal reasoning、Computational models of argumentation and decision-making、Computational models of evidential reasoning、Legal reasoning in multi-agent systems、Executable models of legislation、Automatic legal text classification and summarization、Automated information extraction from legal databases and texts、Machine learning and data mining for e-discovery and other legal applications、Conceptual or model-based legal information retrieval、Lawbots to automate minor and repetitive legal tasks、Risk assessment, pricing and timeline predictions of litigation using machine learning and artificial intelligence。
这11个议题,我们来点亮一下它的关键词。首先前5个问题属于理论问题,后6个问题属于应用问题。理论问题的第一个关键词是模型,第1、2、3、5个议题中都有模型这个词,第4个议题中虽然没有模型,但是讲的是多主体系统,没有模型,怎么去做多主体的?但这个模型不是所有的议题都去讨论的,我们首先要讨论的是跟逻辑有关的形式模型,第二个是计算模型,要让其变得可计算。第4个议题讲的是系统,系统必须可执行。而讲法律人工智能,我们有一个定语,就是“法律推理”的形式模型和“论证与决策”的计算模型,是限于法律里的,是正确推理的计算模式。多主体系统当中的法律推理讲的是立法方面的问题。
后面6个问题讲的是应用问题。应用问题的第一个关键词就是自动化。自动化、机器学习、数据挖掘,这些都是我们要去关心的,它们都属于人工智能的部分。但法律人工智能中的自动是自动干什么?干哪些事情?这种自动就包括了运行总结、运行的信息的提取、自动进行信息的检索、自动的执行任务等等。我们讲法律人工智能必须要讲法律背景,所以这些议题上都加了“legal”或者“legal applications”等。
我们看到法律人工智能议题分为理论部分和应用部分。应用部分要去研发相关的系统,再去做这件事情。关于前10个问题,大家可以去看我在2019年8月份在光明日报上的文章,题目是《法律人工智能的十大前沿问题》。这篇文章讲的是法律人工智能的十大前沿问题,当时我就只用了10个问题,没有用11个,因为11个太多了,就只讲了10个。
三、什么是人工智能法律?
第三个问题是人工智能法律。如果我们借助于百度检索,那么这个问题还是一个白板。但是人工智能法律确实有对应的英文——Law and Artificial Intelligence。如果直接把其翻译成法律与人工智能,可能并不符合其内涵,而应该翻译为人工智能法学或者人工智能法律。
为什么要这样翻译?是来源于耶鲁大学的一个导论课程。这个课程一共由这样几个部分构成:第一问题是理论基础,也就是什么是人工智能;第二个问题是讨论算法的偏差、算法的透明、算法的问责问题;第三个问题是算法的歧视、算法的操纵和正当程序;第四个问题是互联网;第五个问题是人工智能在司法中的应用;最后一个问题是人工智能与选举,人工智能与法律,人工智能与就业,人工智能、国家安全与战争。
从上面的问题来看,人工智能法律跟法律有关,但它也涵盖了部分的前面所讲的法律人工智能,比如说人工智能在司法中的应用,这个就是一个技术问题。所以叫人工智能法学可能更好。
什么是人工智能?我觉得在这个导论课中关于人工智能的定义有很多种说法,有一个说法是值得我们作为法律人工智能或者人工智能法律研究者去特别关注的,人工智能能干什么?人工智能是研究使计算机智能运行的方法,计算机的智能程度是在于他能否做正确的事情,而不是做错误的事情。
现在很多人担心这个机器出了问题由谁来承担责任,你要考虑到计算机的自由程度,也就是首先给人工智能一个定义。对于人工智能存在着如下的误解:误解一,这是一种特殊的技术,但其实人工智能研究的是关于机器所创造的智能的一般问题,它不是针对因人工智能而产生的具体技术产品;误解二,这是一种具体的技术方法;误解三,这是一个特殊的研究群体;误解四,人工智能只是算法。
还有一种讨论是人工智能会给人类带来好处吗?当然会带来好处,在这里我们不具体去谈好处。对于人工智能会不会为人类带来好处也存在很多误解,比如说人工智能会不会必然是不人道的或者人工智能会不会加剧不平等。有一本叫《黑箱社会》的书讨论了这个问题。还有一个问题是讨论计算机是不是存在算法偏差。偏差问题实际上是一定存在的,有预算偏差、技术偏差、突发性的偏差。偏差(bias)有时候翻译成偏差,有时候翻译成偏见。偏见是一个贬义词,而偏差是一个中性的词,所以有时候我们翻译成偏差而不是偏见。偏差是一定会存在的。比如说大数据篇章。我们不要认为大数据最客观,大数据有时候可能是最麻烦。为什么会规定不准用python去对法官的判决书进行继续学习,因为有时候大数据会让你变成一个透明人,你没有隐私可言,这就是一个偏差。
很多人也在讨论算法是不是可以透明,透明的标准是什么。算法透明有三种,第一种是源代码公开。但商业机密是不可能公开的,第二种算法透明是在不公开源代码的情况下揭示技术算法的工作原理,第三种算法透明是对信息规范的依赖。而对信息规范的依赖、算法是不是可以问责等问题的讨论都是很模糊的。算法是否存在种族歧视?《黑箱社会》里也讨论了这个问题。谷歌的创始人布林说过,“完美的搜索引擎就像上帝的心”。它是一个智慧的容器,而我们把各种信息都放到里面,它无所不知,无所不晓,这就会造成麻烦。前段时间微软造了一个Twitter机器人,但机器人很快就变成了一个种族歧视的混蛋,导致了其被马上下线,它是会变坏的。在《记分的社会》中,Danielle Citron教授和Frank Pasquale教授介绍了一个令人不安的现实:一个小而又强大的个人群体在公众的广泛领域做出重要的决定。这些决定是根据小组成员事先秘密给出的计分方案达成的。这个自动、武断的评分过程允许某种强大的工具快速地提升他们的目标,同时以不同的方式对待类似的个人。
四、余论
到目前为止我们到底讲了些什么?我们一共讲了三个问题。第一,什么是人工智能?第二,什么是法律人工智能?第三,什么是人工智能法律?最后讲一个余论,就是人工智能何时会比人聪明?这是我们现在很多人喜欢讨论的,哲学家喜欢讨论,法学家也喜欢讨论,科学家也喜欢讨论。
其实这个问题很难回答,第一理由是因为人工智能何时将会比人聪明中的“将会”是一个预测问题。这里存在很多选择因素,假如人们决定不去追求它,那么人工智能比人聪明就不太可能发生。第二个理由,“更聪明”是什么意思?当我们说“更聪明”是假设的一个单一的智力的线性维度,而这个线性尺度实际上并不存在。机器在某些任务上已经比人类做得好得多,当然在其他任务上也差得多。而我们不能因此说人工智能比人类聪明,比如说飞机比我们更能飞,但我们不能说飞机比我们聪明。第三个理由,如果我们承认有一些有用的“通用”智能概念可以在机器上开发,那么这个问题就开始有意义了,但这仍然很难回答问题。实现这种智能需要人工智能研究取得重大突破,而这些突破很难预测。通用的人工智能的开发到底什么时候能去实现?有些人说本世纪可以实现,但是有些人可能并不那么乐观,所以这时候就很难变得有意义。
要预测科学突破的难度是相当大的。为什么这样说?举一个例子,1933年9月11日,或许是那个时代最著名的核物理学家卢瑟福勋爵(Lord Rutherford)在英国科学促进会(British Association for the Advancement of Science)的年会上对大批听众说,“任何在原子转化中寻找能量来源的人都是在胡说八道。”(他用了很多公式,此前在其他很多场合也说过类似的话,基本上都说释放核能是不可能的。)可第二天早上,西拉德(Leo Szilard)就发现了中子引发的核链式反应,并很快为核反应堆申请了专利。这个例子就体现出,科学突破是很难预测的。
如果大家对于法律人工智能或者人工智能法律还有更进一步的兴趣和想法,可以去扫下文中二维码。我在中国政法大学出版了一套从书,叫做西方法律逻辑经典译丛。可以说当今基本的经典人工智能法律有关的问题都收在里面。这套从书已经规划到20多本,目前已经出版了13本。谢谢大家。
谢谢熊老师,大家不要躲在隐秘的角落里,让老师们看到你们的掌声。现在我们进入讲座的下面一个环节——由我们到场的与谈嘉宾来做评议和分享,首先有请中国政法大学法学院的雷磊老师。
雷磊老师与谈
熊老师一直是在中国的逻辑学,尤其是非形式逻辑、法律逻辑学以及人工智能与法律推理领域的领军的人物,也出版了大量的著作,我在学生时代就开始阅读了大量的熊老师的关于逻辑学方面的著作。
今天熊老师讲座的落脚点非常的明显,那就是告诉大家,法律逻辑是学好法律人工智能、人工智能法学的基础。熊老师的讲座有两条主线,给我们描绘了两幅地图,一幅是知识地图或者说是学科地图,告诉了我们关于法律人工智能和人工智能法学,一个作为计算机科学的分支,一个作为法学研究的分支,他们之间的关联点,更多的是它的差异点。并且是以非常条分缕析的方式告诉了我们这个概念本身的内涵。我也学到了很多,包括以前我的知识是一些碎片化的,但是今天熊老师把这幅地图补得非常的完满,包括我以前一直没有想过的一个问题——人工智能它的对立概念是什么?熊老师讲了自然智能的概念,在法学领域存在的人为和自然的对立同样适用于人工智能的领域。
第二幅是什么?就是历史地图,如果说知识地图是方块的话,那么历史地图就是一个纵向的时间轴。熊老师给我们描绘了人工智能的起源,从图灵测试到达摩斯会议,也包括法律人工智能的发展,尤其是1992年的一协会(IAAIL)一会议(ICAIL)还有一刊(Artificial Intelligence and Law)。人工智能的这种发展,我们可能只听过觉得很耳熟,但是这次讲座给我们补充了细节,以可视化的方式在地图上呈现出了人工智能发展史的完整面貌。这里好像包含了潜在的含义,他们的人工智能研究基本上属于前史,现在应该轮到咱中国了,尤其是以熊老师为代表的学者,对吧?熊老师应该说是当下在国内学界和国际学界在人工智能法律学界活动最多的一位学者,他也是这本杂志的国际编委。
第二点我想就着熊老师的讲座,谈一谈关于法学的一种可能。刚才熊老师提到了人工智能法律,但是没有详尽的去展开论述。在我看来,如果说法律人工智能主要带来的是技术的话,那么人工智能法学可能产生的主要是理论。理论包括两类,第一类是人工智能在法律领域中的理论问题,但是理论问题本身是超越法律领域的,是法律领域和其他领域所共同面对的。第二类是人工智能的法律理论问题,或者说人工智能的法学问题。当然人工智能的法律理论问题,又包括了两个,第一个是人工智能在各自的部门法领域中所产生的问题。比如说人工智能作品的知识产权的归属,比如说无人驾驶的汽车所导致的民事责任和刑事责任问题。另外一个问题是人工智能产生的一般法理论的问题,或者说是法理学问题,其更具有一般性。
在我看来后一个方面是更为重要和基础性的问题,我认为包括了三个方面,第一个是方面是人工智能对传统的法律基本概念或者说法概念论造成的挑战。第一是对法本身,法律是什么的挑战。我们都知道人工智能法学领域有一句话叫做“code is law”。现在我们可以基本上可以说“code is code”,代码就是法典,代码就是法律。人工智能就有可能对我们传统的法律概念造成挑战。假如我们把法律理解为是一个在我们的法律实践包括司法实践中作为规则来使用的东西,人工智能的这种引入所带来的是人工智能的一套规则,在很大程度上代表了或者代替了形式化的法律规则的话,这个时候我们可能就要对法律概念本身要进行一个重构式的理解。
第二个是对法律主体概念挑战,什么是法律主体?传统意义上法律主体必须要具备自由意志,人工智能它能不能成为法律主体就带来了对传统问题的挑战。人工智能的出现带来了新的契机。在我们的历史上对于所谓主体概念一直是有思考的。最早的自然主体不限于人类,也包括动物,甚至拟人化的自然都可以成为主体。到后来发展为自然人为主体的时代,再到后来出现了法人。一直到现在为止,我们出现了智能体,它对于法学的基本概念构成了挑战。
第三个是对法律行为概念的挑战。传统理论里面区分表意行为与非表意行为,也就是民法中通常所区分的意思表示行为和事实行为,但人工智能的发展会对这种区分带来挑战,甚至会模糊化这种区分。在2018年的时候,台湾的一位法理学者研究员,他在《政治与社会哲学评论》这本杂志里发表了一篇文章,它的副标题叫做“人工智慧心灵与演算法社会”。其中他举了一个很常见的例子,在人工智能的社会,你打电话去一个餐馆,预定一个桌子。接电话的是个机器人,但是你并不知道这一事实。而你按照正常的对话预定了一张桌子,你和他在此时形成了一个合议。但是我们并不关注对方是否为机器人。在这种情况下,只要我成功地预定了这张桌子就可以了。这一个例子说明了我们人类社会开始渐渐进入到了演算法社会,我们并不关注在社会中与你交往的主体是不是具有自由的心理和独立的人格,我们关注的只是交往行为和交易的确定性。假如交易确定性能够被树立起来了,对方是谁并不重要。所以这位学者说了一句我印象很深的话:现在问题的关键不是机器越来越像人了,而是人越来越像机器了。这给我们带来了一个基本的挑战,就是我上文所说的表意行为和非表意行为的区分变得不重要了。因为我们说表意行为的核心是意思表示,但现在只要有一个外部化的表示就可以了,这对我们的基本的法律行为的概念带来了挑战。
第二类是对方法论或者说是司法裁判的方法的挑战。大体在我看来有三个层面,第一个层面是关于法律思维或者说司法裁判的思维。大数据和人工智能带来的一个很著名的挑战,按照舍恩伯格在《大数据时代》里所说,我们可能会用相关性思维去取代因果思维。当然在法律领域不仅只有因果思维。在传统中事实领域是因果思维,但除此之外还有规范性思维。但是大数据或者人工智能的到来,它可能会对其构成挑战。人工智能只关注以前案件中所出现的一些事实,就会有相应的结论,并不关注具不具备因果关系,或者说一种规范上、价值上的正义的问题会被模糊掉。人工智能或者说大数据只要说明某些特定特征的出现和特定结论的出现具有相关关系就足够了。在某种意义上,这是用一种资料或者说一种数据替代了传统的法律思维中的理由。这就造成了熊老师刚才提到的一个问题,司法裁判还能够被叫做基于理由的裁判或者说法律推理吗?这个思维的挑战。
第二,就是司法裁判的性质。传统的司法裁判理论一方面需要有规范,另一方面要有事实,正确的规范与真实的案件事实的符合,由此产生公正的判决。但在人工智能眼中,不管是规范还是事实,最后都被还原为数据,所以二者的界限就被模糊化了,变成了数据化和动态化的。如果经过这种重构,司法裁判领域基本上成为了与传统不同的参与主体提出的基于数据的关于这个案件的全景式陈述与不同版本的陈述之间的竞争的状态。这是对于传统的司法裁判整体理解的挑战。第三,关于司法推理的模式。在传统理论中,民法法系基本上是一种基于规则的推理,英美法系主要是基于案例的推理,但是人工智能可能会给二者都带来挑战。包括我刚才说的基于规则的推理,人工智能可能会将规则本身替换成算法。在没有人工智能的时代,基本上是靠律师来告诉法官案件的推理,或者说法官去寻找先例。法官去寻找先例的这种情况是一个小样本,小样本有它的问题,但对于法律的发展来说也有好处。因为基于小样本所做的归纳和类推,一定会有创新性在里面。但是人工智能的引入带来的是大数据、大样本,甚至是全样本,其将所有的相类似的案件都搜索出来了,虽然精确性上大大提高了,但从另外一个方面来说,基于案例的推理转变成了基于规则的或者准规则的推理。人工智能从全样本中提炼出一个共同的抽象的一般性规则,然后用抽象的一般性规则去适用于当下的一个案件,在这种情况下人为的创造性就消失了。
另一个方面,人工智能可能会为司法推理带来新的体系或者说系统,那就是可废止推理。可废止推理不构成基于规则的推理和基于案例推理,而是对立的第三种模式。这种模式只是改造了传统意义上的基于单调逻辑、基于规则的推理的模式,但其带来的一系列的问题。包括需要法理学领域去重新考虑法律规则的性质,比如说法律规则是可废止的吗?
上面是方法论方面的问题,最后一个问题就是伦理学。人工智能对法伦理学也带来了挑战,比如说司法裁判的伦理,法官究竟是要做什么的?假如人工智能可能在我们的司法裁判中发挥它的作用,法官的越来越多的工作都有可能被他所替代,这个时候人工智能就可能带来司法伦理的问题。也许我们20世纪初的一种梦想就会实现了,那就是法官的可替代性。不管是张三还是李四,面对相同的案件案件,法庭都会得出相同的结论。
所以支持人工智能的一个最基本的价值基础就是同案同判,或者说法律适用的统一性。但是同案同判,它究竟是什么性质的原则?同案同判是一种结果导向的原则吗?是一种司法裁判中的绝对的要求吗?这些都会涉及到背后的司法伦理。假如同案必须要同判的话,那么可能导致司法的伦理整体发生改变。
去年的时候,我看到法国关于禁止商业公司对于特定法院的法官的行为做出预测的立法。因为这涉及到司法伦理的问题,如果商业公司可以进行这种数据分析,就相当于商业公司可以替代法院进行司法活动。这些带来的都是司法伦理问题,包括对于法治的挑战。由于“law”在大数据时代、人工智能时代含义的变迁,法治本身也会发生变化。以前我们把法治作为一种道德的和政治的理想,这种理想的图景会不会因为人工智能的到来而产生改变?这些都是人工智能法律理论所带来的问题。
最后其实我想向熊老师请教两个问题。第一个问题,您刚才提到了从2009年之后,法律人工智能它的称呼有变化,最新的称呼是法律信息学。能不能请您稍微来说一说法律信息学它与计算机科学之间的关系,因为您一开始的时候把法律人工智能定位为计算机科学的一个门类。关于计算机科学与法律信息学,在1974年的时候,著名的法律逻辑学者奥塔威因伯格有一本书叫做《规范逻辑与法律信息学研究》。我稍微翻了一下,我发现他的法律信息学部分基本上谈的是控制论在各种法律领域的一个应用。所以我想请您谈一谈,这是第一个问题。
第二个问题,您说您使用的是人工智能法律概念,我刚才说的是人工智能法学概念,请问您认为人工智能法律和人工智能法学之间有无差别,或者说二者之间的关系是什么?谢谢熊老师,再次感谢您精彩的演讲。
熊老师回应
首先回答雷老师的第二个问题,人工智能法律跟人工智能法学,其实是个翻译问题。因为law我们也可以把它翻译成法学,也可以翻译成法律。可能说翻译为“法学”更规范一点,翻译为“法律”可能比较具体一点,我觉得没有太大的差别。至于第一个问题法律信息学跟计算机科学二者关系的话,我认为信息科学是一个总概念,计算机科学是信息科学的下面的一个子概念,包括人工智能也实际上是计算机科学下面的一个分支,所以有时候这几个概念是混起来的。法律信息学,以前其实就有这个概念,但是研究AI law的学者们始终要强调自己的研究领域,不愿将其归类于法律信息学。原因是对信息进行处理的时候,不仅仅限于计算机,还包括很多语言的处理以及其他很多东西。
主持人:非常感谢熊老师的回应,也非常感谢雷老师通过熊老师的知识地图提出了非常精彩的洞见以及几个问题。在听雷老师评议的过程中,我想到除了熊老师给我们带来一个知识地图以外,还给我们真的打开了一个世界地图。在这个世界地图里几个举办或者比较关注法律人工智能的这几个国家,似乎大部分都是普通法系的国家。如同雷老师上述提及的关于大样本、小样本、司法推理等问题,所以我也想提一个小的问题,在人工智能法律的司法推理的过程中,或者是人工智能跟法律的互动过程中,普通法系跟大陆法系国家之间有什么不一样的地方呢?熊老师您可以等回应完其他嘉宾的问题以后再来回应。
魏斌老师与谈
非常感谢熊老师的邀请,感谢熊老师今天晚上非常精彩的演讲,让我又重新当了一回“学生”。事实上我对法律人工智能的启蒙是得益于熊老师的教导。我国关注法律人工智能的时间其实很早,可以追溯至钱学森、李克强和龚伟强老师的时代,他们很早就关注到计算机在人工智能领域的应用。但是在真正意义上与国际接轨并且尝试把国际上的相关研究引入到国内的,熊老师是第一人。我记得10年前熊老师就已经在做这方面的工作,而且与国际上权威的学者,包括法律人工智能杂志的主编、法律人工智能协会的成员们都有密切的学术上交流和来往。今天的报告,实际上熊老师比较全面的展示了国际上研究法律人工智能发展的例子,对我们了解法律人工智能有很大的启发,并且阐明了目前很多领域问题——也是我们可以去深挖的宝藏。
下面我将大概讲述这些年在法律人工智能这个领域里自己的一些体会。实际上这个领域在10年前或者说5年前是非常冷门的,法学家都不会想到把法律和人工智能联系起来。在这个领域刚开始初露锋芒时,有很多的法学家是持反对意见的。但是近三年来,我们发现形势已经变得不可逆转,也就是说时代潮流带着法学研究走向了一个新的方向。我想关于人工智能的研究现在可以称之为是一个逐渐走向显学的一个转变的过程,产生这样的转变效果的原因首先应该得益于这个时代,更是得益于第三次人工智能的变革。我们要感谢这个时代,法律人工智能才会又一次进入到了第三次浪潮。
我国的法律人工智能毫无疑问在应用方面是世界领先的,我国法律人工智能领域的资金的投入是没有任何一个国家能够比拟的。当然我国主要是偏重政法领域,即法院、检察院还有司法行政部门。《新一代人工智能规划》体现了我国国家政策的支持,其中明确规定支持司法管理的智能化。当前我国已经形成了智慧法院、智慧检务、智慧司法行政等领域的战略性的规划,每年可能有数百亿的资金是投入到智慧司法领域当中。
国外与国内在法律人工智能领域的差别体现在:国外的导向并不是官方导向,没有大量的政府密集性的资金投入,而是依靠资本市场的驱动。国外的法律人工智能的核心点或重点在律师行业,所以国外大多是在律师事务所来做法律人工智能,在智能化、自动化方面走在前端。反观我国,虽然像天同、无讼等大型律师事务所在法律人工智能方面做的还不错,但是并未形成全国性的效应。
谈到法律人工智能的具体的应用,我实际上原来就有一些思考和存在困惑之处。通过与做智慧司法研究的科技公司或资深的算法工程师交流后,发现实际上他们所做的人工智能,完全就是大数据,包括大数据驱动的机器学习。这些技术具体的应用在司法领域中,例如庭审时的语音自动翻译功能、图像的识别、AR文本的识别以及视频的识别等,其中我觉得最有学术研究价值的是自然语言处理。如同雷老师上述所提及的同案同判,其对应的技术就是司法判决的预测、法律法规的推送等,这些都涵盖大数据和机器学习的结合和融入。
通过上面熊老师的讲解,我们知道逻辑推理是经典人工智能一直在研究的,是非常重要的。前段时间我们和阿里达摩院的工程师搞过一期讲座,我们在与他们交流过程当中,他们也表露出对目前科技界、法律科技公司只注重大数据和机器学习的现状担忧,并且表示假如用于类案推送或者判决预算会更加危险,所以他们在浙江省高院的“凤凰金融智审”系统的研发过程中,同时发展了另外一条技术,即基于逻辑知识图谱的判决预测的技术。
当阿里达摩院的工程师们发表了上述看法后,我感受到了共识的力量,我同样认为逻辑推理和机器学习两者的融合是十分重要的一条技术路线,尤其是在针对稍微复杂一点的案件的时候,二者的结合能够发挥更重要的作用。因为目前大数据和机器学习的技术是有瓶颈的。例如针对案由简单、事实清楚的简单案件,并且在海量案件的基础上,才可以准确发挥作用。所以现在的案件通常集中在民商事领域,像道路交通、金融借贷等案件。但是当推广到其他性质的案件时,尤其是复杂一点的案件时,会极大的增加大数据运行的成本。所以当仅有大数据和机器学习结合去处理稍微复杂的案件的时候,就会发现出现问题,例如结果和法官裁判的结果不一致,甚至会出现一些荒谬的预测结果。所以法律工程师他们已经注意到逻辑推理在法律人工智能领域的重要性是不可替代的。如何将逻辑推理与大数据和机器学习融合起来目前没有很好的研究结果与进路。
尼克的《人工智能简史》,他把经典人工智能,即逻辑和专家知识这一块,这条路径叫做符号投入;把大数据和机器学习这条路径叫做连接主义。比如说目前无论是人工智能领域还是法律人工智能领域,都在做两种路径这种结合。所以我始终在思考存在哪一些路径可以将两者的优点结合起来,避免各自的弊端。
逻辑推理的优点就是可解释,其推理过程的每一步都是可解释,错误是可以追本溯源的。也就是所有的逻辑的推理的算法都是透明的。其缺点在于结果的表现力不佳。例如识别一个猫,机器学习通过标记的方法很容易就将其识别出来。通过逻辑推理同样可以识别猫,但是要做繁琐的推理的过程,制造很多命题和推理的规则,很麻烦的一件事情。机器学习的优点就是其结果表现力是非常好的,结果准确率可以高至90%多;但是其缺点在于它的算法是不透明的。通过以上的评议,我想提出一个问题,就是说我们以后怎么把逻辑和和机器学习更好的融合呢?
熊老师回应
魏斌老师所探讨的逻辑的进路跟机器学习进路,其实可以关注一下巴菲特,前年来中国的时候在百世通和浙江大学的讲座中提到了两条进路的融合。一条进路是一个逻辑的进路,这就是知识系统的进路;另一个叫做数据的进路。而这个知识系统进路主要是用逻辑去做的,然后数据系统进路主要是运用概率、统计,实际上就是大数据、机器学习。然后把这两种进路在论证系统上进行一个融合,这实际上是他现在想做的事情。
现在我们国家也在讨论这个问题,两种方法进行互补是很重要的,将两种方法融合可能是不必要的。既不要想借助于数据进路就可以解决一切问题,同样逻辑进路也不可能解决一切问题。这就是为什么霍姆斯在1881年的时候所说“法律的生命不在于不是逻辑,而是经验”,之所以说这句话就是告诉我们不要把逻辑看成是万能的。同样其实我们找不到一种工具,它是万能的。
吴洪洪老师与谈
首先非常感谢熊老师带来了这样一个精彩讲座,也感谢我们法学院邀请我来参与学习。应该说我对于人工智能和大数据,是个“外行人”,自己的研究领域主要是证据法和法律职业。但是在证据法领域的研究当中,确实会或多或少的面临着很多跟人工智能的联系。所以今天实际上熊老师等于给我在人工智能领域提供了一个很好的学习机会,通过熊老师比较系统的对人工智能的发展以及其与法律的关系的发展历程的讲解,收获颇丰。
例如熊老师谈到法律人工智能包含11个论题,其中第三个论题为“证据推理的计算模型”,确实是属于证据法和人工智能交叉的一个很重要的领域,证据推理或者在事实认定当中进行推理在当代会不会受到人工智能的影响,确实也是我们所关心的。
由于时间关系下面我主要结合我自己的研究领域谈一谈自己的一点见解。首先,法律人工智能至少在中国,尤其在事实认定和正确推理方面的适用,我感觉至少是中国法学学界研究的前沿,也就是说实践当中已经这样发展,而我们的证据法或者刑诉法学界的老师的关注还不是很充分。
主要涉及三个方面,第一,在这个案件事实认定过程当中,可能有几大块会涉及到人工智能。例如上海整个政法系统跟科大讯飞一起合作推出了“206系统”,这个系统实际上它的基本原理就是借助于人工智能手段来辅助裁判。那么这种借助人工智能的这样一个做法,对于我们刑诉和证据法学界来说,大家可能对其持有一种比较观望的态度,研究的深度和广度不是很够,例如在这个系统里证据怎么统一、证据怎么示证等问题,其实我们现在都还没有特别深入的去思考。
第二,北京市前段时间出一个案子,证人在出庭作证的过程当中,检察院给了证人一个VR这样的东西,然后让他借助VR系统去换取其作证时候的记忆,这种做法引起了广泛的讨论,都在讨论说以该种方式进行示证是否可行呢?
第三,比如在证据评价过程当中,也就是说证据推理的过程当中,能不能借助人工智能的方式来进行处理,这个是在证据理论当中一直是饱受争议的。现在争议最热烈的是证据推理到底是一个概率化的过程,还是一个解释性的进路?如果是一种概率化的过程的话,可能很多是通过概率比概率的方式来换算,那么可能就很容易借助人工智能的方式来进行计算。但是从另外一方面来说,也有很多人反对这样一种做法,因为证据在证据推理的过程当中,实际上以概率化的方式可能很难去描述,或者说实际上并不是对实然状态的一种描述。所以这种争议的背后,我觉得实质上是争议人工智能在证据推理、事实认定的过程当中,它的界限在哪里,能够起多大的这样一个作用呢?
像上海的“206系统”,实际上会对传统的证据法的规范会形成一个挑战,而证据处理这个领域,它跟法律适用领域可能是不一样的,我觉得证据处理领域传统上其实是比较排斥这种形式化规制的路径。所以很多人说一个事实认定过程实际上可能是一个“黑箱子”,从不同的路径可能会有不同的解释。但是确实将人工智能引入到事实认定这个领域以后,它会带来很多很有趣的争论,而且我觉得这个是不可避免的。
如果中国的法律人工智能实践已经发展的像刚才魏老师说的已经走到世界的前列的话,可能很多问题恐怕都不是能够通过对域外相关理论的简单介绍就能够解决的,可能会有深入涉及到中国的理论和实践,比如说在我们自己的实践当中深入去探索人工智能适用的合理性以及界限为何。以上是我简单的一点学习体会,不对的地方请各位老师批评指正,谢谢。
张妮老师与谈
首先我想谈一下法律数据的问题,因为我相对来说是比较早从事基于案例建模的法律建模研究。当时我收集了一些案例,用一个最简单的神经网络制做了一个司法材料模型。答辩时,老师问我这个模型的目的是否就是为了替代法官,我当时回答说:“这只是一个辅助材料,并不能替代法官。”之后,我又继续沿着这个方向进行深入研究,并参加了一些国家重点研究计划,获取了更多的案例,也与计算机学院相关人士有了更深入的交流。通过这些研究,我得出的结论是:就我们目前的技术而言,我们要达到使人工智能具有认知功能的水平,并建立一种具有认知功能的司法模型,使其像法官一样可以进行司法判断,仍然有很长的一段路要走。
我认为主要的一个原因是,与其他社会数据相比,法律数据的模糊性和复杂性远远超出了其他社会数据。刚才魏斌老师已经从现实角度讲述了一个具体司法中的问题,那就是司法数据的问题。现在我们做人工智能与法律研究的主要数据来源就是司法案例,那么以全国裁判文书网上公布的案例来说,首先要分析案例的全面性以及真实性。因为我们将案例下载下来之后,会发现很多案例平台都会对案例进行标注。第二个原因就是就是我们的法律数据来源非常单一化。像熊老师、魏斌老师刚才都提到的,我们需要把逻辑判断加入到我们的法律模型中。我觉得逻辑判断还需要和法庭的其他数据结合起来,例如司法过程中的合议庭或者审判庭的讨论,或者是法律判决所撰写的审判报告,或者是整个司法判决的过程,也就是说要将逻辑判断和这些数据合起来,这样得到的结论可能才具有一些参考性,但是这些其他数据通过一般研究是无法获得的。第三个原因就是法律的数据的涉及面比较广、敏感性高,这就需要一些数据和安全方面的保障。但是目前来说,法院还无法保障对这些数据的安全性。第四个原因就是刚才熊老师已经提到的黑箱问题。实际上我们现在的人工智能与法律的处理过程,就是将这个数据丢进去,接着通过一个程序得出一个结果。至于中间具体过程都是这个程序之间的问题,因此如果程序出了问题,那么最后得到的结果的可信性是很值得商榷的。最后一个原因就是熊老师提到的算法歧视。很多人都认为我们的研究只是数据分析,在中间没有没有加入个人的一些信息。实际上我并不这样认为,在我看来不论是法律裁判文书,还是处理的程序,这其中都涉及价值选择,因此歧视肯定是一个必不可少且无法避免的问题。
接下来我想从技术角度谈一下法律模型的问题。因为我一直与计算机学院合作做一些司法裁判模型,即立案审判模型。当我们直接把人工智能的方法嫁接到法律数据中后,我们发现有些数据是极为不可信的。例如我们采用了一些聚类的方法,但是由于这些数据的不连续性或者非线性,最终导致我们的结果差异非常巨大。
我在法学院的学生面前谈论这些数据,可能会让大家感觉理解比较困难,接下来我就通过举例子的方式,说明我们是如何把这些数据输入到我们的人工智能里面。首先我们需要计算思维,所谓计算思维就是把这些案例的信息进行细分的思维。以我目前我正在做的一个名誉案件为例,我就要对这个案件可能的判决、产生的影响等因素进行细分,名誉案的判决与原告的身份、侵权方式、影响程度、审判后果以及过错程度等有关。那么我们继而要把侵权的方式继续细分为公开辱骂、转载侵权、擅自使用照片、造谣、公布处罚决定、公布隐私、冒用身份等等,在进行这样一个细微的分裂后将其输入到程序中去。但是这样一个输入。由于数据的不平衡以及模糊,造成结果的差异特别大。我一直也在思考是否采用熊老师所提到的基于辩证过程的逻辑分析方法,即如果将把辩证分析和大数据处理结合在一起是否效果会更好?这就可能会面临两个方面的问题:第一个问题是由于对过程进行描述,将会导致数据量特别大;第二个问题是对于过程描述比较好的工具目前还比较少,但是因为蒲老师从事的是人工分数阶微积分研究,那么他这个过程的描述就比较好,这将来也许还是一种研究的思路。
第三个我想谈的是预测,我们刚才都提到了预测这个词,我们建立模型的目的实际上就是为了做预测。但是,这个预测并不是我们所说的天气预报的forecast,而应该是prediction,即应该是一种数据分析。以名誉侵权案件为例,一个法官他可能判10000,那么另外一个法官可能判12,000。这样输入大量的数据,也许最终得到的结论是一个折中11,000。那么这样得出来的一个结论,是否就是我们法律所期待的一个比较优的解决方案呢?因为如果纯粹从技术上来说,我们坐飞机去某某地方,我们直接使用鱼群算法,人工智能就能够给我们提供一个比较好的选择方式,但是如果我们把这样一种方法运用用到法律中就产生了一个问题,怎样的判决才是最优或者是公众认为比较好的判决方式呢?我们的人工智能目前面临的一个最大问题就是缺少一种反馈机制,即我们自己也不清楚什么样的判决是最优的。
最后我还想简单谈几句。熊老师在前面已经详细地给我们介绍了计算法学,除此之外还有之前出现的量化法学、法律信息学、计算法律学等。那么现在我想谈的是计算法学的一些问题。刚才雷磊教授一直在问计算法律学和计算法学之间有什么区别,我认为二者之间还是存在区别的。雷磊老师提了几个比较好的问题,因为从数据来说,我们的研究径路是用人工智能研究法学,即我们研究的最终目的是为了解决法学问题,因此得到结论后还要回到法律中来。也就是说,我们通过数据能够发现一些规律性的东西,那么这些规律性的东西是否会对我们的立法、法学理论等产生一定的影响呢?我一直在思考这个问题,所以我认为将其称作计算法学更好。在我看来,如果将其称作计量法学会有以下几个问题:首先它和量化法学等概念非常相似,容易模糊;其次它主要研究的是数量变化之间的关系,而我们现在进行的大数据分析实际上已经突破了传统数量方面的变化关系;除此之外,量化法学主要采用统计等方法,而我们从方法上也有了进一步的更新。如果将其称作法律信息学,主要是从应用方面进行定义,而没有反映出法律理论方面的一些进步。因此基于法律信息学的研究,计算法学也是计算社会科学的一个分支,也是纳入社会科学这样一个过程来分析,所以我认为应当将其叫做计算法学,并把它作为一个兜底的概念。然后将刚才熊老师提到人工智能法律、法律与人工智能这两个方面研究的问题,都纳入计算法学的口袋里面,对它进行研究和专门的分析,并将其对于大数据、对于我们人类、对于我们法律可能存在的潜在的威胁进行一个比较系统的研究,我认为是比较好的。这个观点不一定合适,请大家批评指正。
问题回应环节
谢谢四位非常专业的评议人,也谢谢在留言板上提问题的所有的观众们。首先我要纠正一下张妮评议的两个错误:第一个我不是《法律人工智能》杂志的编委;第二个问题,你刚才提到我讲辩证分析,但是我一般不会使用辩证分析这个词,而且如果在变成可计算时进行辩证分析可能会很麻烦。因此,首先我没有使用辩证分析这个词,其次是很多关于概念的问题其实是不同学者的讨论,不同学者的倾向不同,并且他们讨论的问题,有些是相同的,有些是不同的。
我觉得关于到底该使用什么样概念的争议,其实不是一个特别大的问题。当我们谈到Jurisprudence,通常不会倾向于一般意义上的法学,而是会倾向于法理学,表明其具有极强的理论性,所以当我们使用这个概念的时候其难度就会非常大。与之相对,一般law强调一种技术性、可实现的东西,使用起来难度相对较低。因此,对这些术语的使用更多的只是一个理论上的讨论。
我看到术语使用是留言板和几位老师共同涉及到的问题,请大家先注意一下,今天我的报告是有一些基本的界定。首先,人工智能是什么?我知道大家很多人都肯定有这样一个问题——人工智能能够去做什么事?我将人工智能界定为模拟延伸和扩展人的智能的存在。它不是替代,不是仿照我们做一个与我们一样的东西,然后用这个东西来与我们竞争。人工智能制造的东西就是实实在在存在的机器人,但是这个机器人可以不是实体的,也就是说它可以是一个软件程序,这也能够被叫做机器人。人工智能产品的目的是为人服务,而不是替代我们,所以首先要明确人工智能能够做什么事情。
最后,不知道大家还记不记得,当耶鲁法律法学院准备去开设课程讨论人工智能是做什么的,是准备要将其用来做计算机的智能设计,也就是说准备用其来做正确的事情,而不是准备用其来做错误的事情。当我们在讨论法律问题的时候,更多担心是说错了谁负责这样的问题,所以当我们使用法律人工智能后,首先要保证法律人工智能是否可信?我们国家前段时间有一位获得国家级勋章的人叫做孙家栋,十多年前他就曾专门到我们所进行访问,他询问我们是否能够从逻辑的角度做一个尝试,做一个计算机,这是人工智能里具有创始性意义的东西,这在现在确实是一个热点问题,但在当初是一个意想不到的问题。
所以基于我们对其有这样的定位,因此当我们去讨论法律人工智能的时候,首先要明确法律人工智能的目标是要干什么?的确他有一个落地的东西,就是要做法律机器人,这个机器人并不是实实在在的活体法官、律师,他不是来替代法官、律师的,他是一个机器人。机器人这个概念本身是奴隶的意思,因此他是为我们服务的,而不是我们为他服务。所以从这个意义上来说,机器人能够做哪些事情、不能做哪些事情,都是由我们人类按照自己的要求为其进行设定的。因此如果我们不想让某些事情发生,那么我们就要采取措施尽量避免这些事情的发生,即主动权完全在我们人类自己的手上。
在这里面就涉及到这样一类问题,既然我们知道机器人是如何去做这些事情的,例如法律机器人能做的事情就是少量的重复性的劳动,那么我们就不能把复杂的劳动、人不能解决的问题交给机器人去解决。这是因为重复性的劳动不容易出错,因此我们把这些不会出错的问题交给机器人去解决,然后人去从事一些复杂的脑力劳动,例如价值判断等。因此要理解对法律人工智能的定位,一旦将其定位为法律机器人,那么就需要明确法律机器人是什么东西、用他来做什么事情,而不需要去关心这个模式谁来负责等问题。所以我认为我们法学界现在的讨论可能会有些超前,我们可能关注的是关注的是:假如科幻片里面的人工智能实现了,这个时候应该怎么办?但实际上我们现在要考虑是在已有的技术领域,我们真正要去做什么的问题。因此现在大家讨论是专用人工智能,即我们该如何让计算机人工智能来为我们服务的问题。例如我们现在智慧法院的206工程就是为法官服务的,至少从目前来说用其替代法官是不可能的,并且在很久的将来应该也是不可能的。
但是正如我刚才在讲座说提及的,人工智能是否能够取代人类是无法预测的,那么我们应该考虑我们现在能够做什么、想要做什么等问题。因此当我们要讨论由其延伸出来的法律问题、法学问题时,都必须要先考虑到底什么是人工智能,不要把人工智能与机器人、人混在一起,所以有些人对人工智能的责任主体如何认定产生问题,我认为既然人工智能制造出的产品是一个机器,那么是谁制造的它、是谁在使用它,谁就需要对此负责。它背后一定有一个推动者,所以无须担心责任主体认定问题,但可能存在连带责任问题。例如负责设计算法的人可能也会负责任,因为此时连带责任的承担者可能是很多人,而不是一个公司去负责,所以讨论的问题是最终谁负责?我用一句话进行总结:人负责,而不应该是机器负责。
以上我对大家提出的一些问题所作的回应,也许仍然有人不满意,但我们未来还有机会继续交流。
-推荐阅读-
《法理——法哲学、法学方法论与人工智能》杂志最新稿约
学界 | 重要期刊法理论文刊载情况报告(2019年·CSSCI集刊补充)
思享|王凌皞:为自然主义的“人类改进”概念辩护
思享 | 卜元石:法教义学的显性化与作为方法的法教义学
思享|韩旭至:算法规制如何实现非个人数据确权?
域外 | 《斯坦福法律评论》第72卷第6期
选粹 | 汉斯·多勒 著 李艺 译:教义法学和比较法学
学界 | 孙海波《疑难案件与司法推理》推介(周五赠书福利)
论文写作与发表|摘要到底应该怎么写?
选粹|思享|域外|写作|学界
欢迎关注法理杂志
赐稿邮箱
ratiojuriswechat@126.com
法理杂志官方“有赞”书籍商铺
长按识别二维码
挑选精品好书
微信责任编辑 | 关依琳
文字编辑 | 王婧 刘欣 陈舒民