观点丨人工智能:法律界的期待远远超过恐惧?
今日小编与小伙伴们分享两篇文章:
《当法律遇上人工智能》——美国康奈尔大学法学院教授 於兴中
《人工智能给法律带来四大挑战》——上海社会科学院法学研究所 张艳
当法律遇上人工智能
来源:法制日报
转自:检察百科
作者:於兴中(美国康奈尔大学法学院教授)
法官和律师的工作是以语言为载体的,重在处理复杂社会关系中人与人的关系,这些很难被转化为算法被机器掌握。再聪明的智能机器人或软件程序,也很难像人一样能够置身于错综复杂的关系之中运筹帷幄,决胜于朝堂之上。
2016年3月15日,“第一棋手”(AlphaGo)以4:1的战绩赢了世界排名第四的韩国围棋高手李世石。至此,这款谷歌公司的围棋人工智能程序创造了出师以来9:1的优秀记录,为这场划时代的比赛画上了句号。
由于种种原因,这场比赛牵动了无数看客的神经。有很多为这场比赛敲锣打鼓的观众其实并不是棋迷,有的甚至不知围棋为何物。为什么人们会对这场比赛如此关注?这场比赛到底是人赢了机器,还是赢了自己?无论如何,这场比赛把人们的注意力再次集中到人工智能身上,使很多人明确地感到人工智能已经离自己不远了。
人工智能早已被引入法律界
人工智能(AI)是使用计算机科学的概念、程序和方法从事认知过程的科学,实际上就是一种机器模仿人智力活动的技术。人工智能研究的创始人之一的明斯基(MarvinMinsky)在1968年说过一句话,集中概括了人工智能研究的实质:“让机器从事需要人的智能的工作的科学”。因此,所有需要人的智能的行为都属于人工智能研究的范围,包括下棋、解题、从事数学发现、理解短篇小说、学习新的概念、解释视觉场景、诊断疾病、推理案情等。
上世纪50年代,人工智能的研究开始进入人们的视线。短短几十年内,已经硕果累累。但是,无论是学界还是实务界,都没有表现出应有的热情和关注。计算机、互联网及大数据的问世改变了人的生活、工作方式,也改变了人们对人工智能的态度。这次的围棋比赛,“第一棋手”已经具有神经网络的运算能力,可以根据外界情况选择最优方案。它在这次比赛中的胜利预示着人类社会将快速进入智能制造时代。
对于律师、会计、金融等需要逻辑计算工具方能开展业务的领域来说,“第一棋手”战胜李世石的实际影响可能是喜忧参半的。一方面,他们可能希望人工智能的研究成果可以早日用于自己的领域,以促进研究,同时减少开支。另一方面,资料检索系统、计算程序或智能机器人的使用也有可能取代员工在公司或事务所的角色,那就意味着不少人将会失业。
就法律而言,人工智能已经被广泛地用在法律制度的各个层面。最为明显的是法律信息系统或法律咨询检索系统。各式各样的法学资料库,包括法律法规、判决、立法过程以及法学文献,已经成为法律人做研究的工作伙伴。当然,运用更广的应该是在司法行政管理自动化方面。
法律界的期待远远超过恐惧
美国亚利桑那大学的哲学家普拉克(JohnPollock)早在上世纪40年代就设计出了OSCAR推理程序。这个程序具有可辩驳的能力,可以用于观察、因果判断、概率计算、计划建构、作出评估和决定。
首次使用专家系统方法研究法律的是兰德公司民事司法中心的沃特曼(DonaldWaterman)和彼得森(MarkPeterson)。他们的系统中研究的一个领域是所谓LDS系统(LegalDecision-makingSystem)。该系统被用于解决一起产品责任案件。通过使用为严格责任设计的基于规则的推理模式,比较过失及计算赔偿金,该程序能结算一个案子的价值,进行有关诸如过失责任的一系列推理,并且能够模拟、了解谈判的某些内容。该项目证明了将基于规则的推理技巧用于法律实践的可能性。
目前颇为热门的一项人工智能与法律研究的成果是令人咋舌的ROSS系统。它是一款基于人工智能的法律应用,被称为数码律师。该系统将IBMWatson人工智能超级电脑提供的机器学习技术应用于法律领域,可以自动检索法律文档数据库,找出与人提出的问题相匹配的答案。ROSS研究数据库已经可以支持关键字搜索,还可以根据用户的反馈进行自我学习。数码律师无疑是法律人的好帮手,但它也有取代某些法律人的潜能。
在法律学术领域,人工智能与法律相结合的研究也日益丰富。1987年,国际人工智能与法律协会在美国波士顿的东北大学成立,此后每两年召开一次大会。该会的宗旨是从事人工智能和法律领域的研究,会员来自世界各地。主要涉及的研究题目包括形式法律推理的模型、论证和决策的计算模式、运用证据推理的计算模式、多重角色参与的法律推理系统、可执行的立法程序模式、自动化的法律文献分类和总结、机器学习和电子发现的数据运用以及其他相关领域。中国学者也有参与,但是不如日韩学者积极。与此同时,一个新兴的研究领域——法律信息学,越来越引起人们的注意。该领域主要是以人工智能和法律为核心从事法律、社会科学、信息学、智能技术、逻辑和哲学领域等跨学科的研究。
一项针对法律人的研究显示,人们对人工智能的恐惧远不如对它的期望。对法律人来说,目前还停留在对人工智能的初步认识和迷恋上,律师事务所的合伙人所关心的不是人工智能会给人类带来什么灾难,而是当人工智能的大潮到来时,他们的事务所是不是可以很有效地利用这个工具。如前所述,人工智能可以广泛运用在法律的各个领域中,包括帮助法官作出司法裁判。那么如果人工智能的程序出了错,导致了错误的判决,应该由谁来负责任?根据常识来判断,法官的角色是不可取代的。法官和律师的工作是以语言为载体的,重在处理复杂社会关系中人与人的关系,这些很难被转化为算法被机器掌握。再聪明的智能机器人或软件程序,也很难像人一样能够置身于错综复杂的关系之中运筹帷幄,决胜于朝堂之上。
人工智能安全发展受到重视
就整体而论,人工智能还未被认真理解就已经活在人们的恐惧之中。如果人工智能可以预测我们的未来,人类将何去何从?机器人会不会有一天彻底占领地球?机器人要是反叛,谁来拯救我们?我们应不应该建造能像人类一样生活和思维的类人机器人?是不是应该发起反对制造杀人机器人的运动等。很多出色的科技人才对人工智能的未来并不感到乐观。著名科学家霍金警告人们,人工智能一旦超过人的智能,将会成为对人类存在的威胁。数码货币的先驱者、私人宇宙航行、电动汽车的先驱者马斯克(ElonMusk)也表达了同样的关注。
人工智能会不会取代人?一项对550个软件开发者的调查显示,人们并不担心人工智能的反面作用,但有三分之一的人担心他们的工作将会被人工智能所取代。这项调查有学术界的支持。在牛津大学的调研报告《就业的未来》一书中,著者指出目前软件工程师所做的工作很快可能会被计算机代替。这是多么具有讽刺意味的事——创造者将会被其创造的产品所代替。
事实上,人工智能的研究一开始就伴随着来自各方面的怀疑和担心。上世纪40年代,著名作家阿西莫夫提出关于机器人的三条法则,作为研究人工智能的伦理原则:第一,机器人不得伤害人类,或因不作为使人类受到伤害;第二,除非违背第一法则,机器人必须服从人类的命令;第三,在不违背第一和第二法则的情况下,机器人必须保护自己。此后,“计算机之父”图灵(AlanTuring)在一篇文章中首次提到了人工智能的研究及应该注意的问题。如今,在一些大学和公司中都有有关人工智能安全发展的策略和指导原则的研究。其中比较重要的一条,是倡导明确界定每一个人工智能项目并予以加密,以便防止未经授权的使用。但是归根到底,我们能够采取的安全使用人工智能的唯一可靠途径,还是尽可能地提高人类的治理能力和社会制度的建设。事实上,人类文明早已是一种混合了人类和机器的文明,防止破坏性冲突的最佳途径仍然是继续提倡人类的社会理想,摆正人类和机器各自的位置。
但是,机器人会不会有一天真的成了“人”?机器人是人的智性结晶,能够思维,但它会不会有感情?人不光有智性,还有心性和灵性。人的心性是感情、情绪、感觉的发源地,属于完全不同于智性的领域。截至目前,尚无报道声称已经发现某个机器人为情所累。即便是克隆人,也可能只是一种结构性的存在,即可以作为躯体存在,但却无法复制一个人的历史、生活的内容及其兴趣爱好。机器人就更不可能做到这些了。人的灵性与人的精神世界、崇拜及信仰有关。现在尚看不到机器人在此方面的潜力。人类的心性、智性和灵性是相辅相成且互相制衡的。正如在现代政治制度的安排方面,宗教要受到理性的限制,人工智能的发展也应该受到人的心性和灵性的制约。如其不然,智能人占领世界的预言就可能会成为现实。
当法律遇上人工智能
标题:人工智能给法律带来四大挑战
来源:社科报1520期
作者:上海社会科学院法学研究所 张 艳
试想,如果一个家政公司出租给顾客的家务机器人在工作时突然出手“袭击”顾客家中前来拜访的客人,并给后者带来严重健康损害,那么谁应当承担损害赔偿责任呢?
国家发展改革委、科技部、工业和信息化部、中央网信办等四部门印发《“互联网+”人工智能三年行动实施方案》,明确了人工智能的总体思路、目标与主要任务。
到2018年,在重点领域培育若干全球领先的人工智能骨干企业,初步建成基础坚实、创新活跃、开放协作、绿色安全的人工智能产业生态,形成千亿级的人工智能市场应用规模。在供给侧改革的大背景下,对人工智能的深入研究能够对我国经济结构的调整、经济增长质量和数量的提升起到积极促进作用。
人工智能融入法律
人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
换句话说,人工智能是研究如何让机器从事需要人的智能工作的科学。围棋软件AlphaGo战胜围棋世界冠军李世石,让人们惊叹人工智能发展取得的成就。如今,人工智能已经渗透进了人们生活的各个方面:艺术、商业、健康、交通……人工智能的飞速发展使人们开始对智能爆炸表示谨慎的担忧,即人工智能是否能够不断迭代自我提升,最终取得超越人类智力水平的智能。
著名物理学家史蒂芬·霍金曾悲观地表示,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件。
就法律领域而言,人工智能已经被广泛地应用在法律制度的各个层面。最为明显的是法律信息系统或法律咨询检索系统。
各式各样的法学资料库,包括法律法规、判决、立法过程以及法学文献,已经成为法律人进行专业研究的工作伙伴。2016年5月,全球知名律师事务所之一的Baker&Hostetler宣布将启用人工智能机器人协助处理企业破产相关事宜。可见,人工智能与法律的结合是时代的大势所趋。然而,需要思考的是,人工智能在服务于法律工作者的同时,该项科技的发展将给法律带来哪些挑战。
法律面临的挑战
(一)首先是人工智能的法律主体资格问题。
美国国家公路安全交通管理局在2月初刚刚认定谷歌无人驾驶汽车采用的人工智能系统可以被视为“司机”,也就是说,人工智能产品在一定程度上被赋予了虚拟的“法律主体资格”。
当然,机器获得的主体资格是有限的,以“司机”的名义接受法律制裁实际是代厂家受过。
根据我国法律规定,人工智能仍然被视为“物”而并非“人”。在我国,上述案例可以适用《产品质量法》第四十三条的规定。
(二)其次是研发者、运营者和使用者的权利和义务,这涉及一系列的责任认定、损害赔偿等法律问题。
试想,如果一个家政公司出租给顾客的家务机器人在工作时突然出手“袭击”顾客家中前来拜访的客人,并给后者带来严重健康损害,那么谁应当承担损害赔偿责任呢?
在这里,要对机器人袭击行为的原因进行分析,找出责任方及赔偿主体。需注意的是,在上述案例中亦存在两个以上主体有共同过错、需要共同担责的可能性。
(三)再次是人工智能给隐私权带来的挑战。
人工智能需要数据进行学习和分析,谷歌旗下位于伦敦的公司DeepMind最近已获取了皇家慈济NHS信托基金运营的三家医院的160万病人在英国国家医疗服务体系中的医疗数据。在国家大力发展人工智能的当下,隐私权的保护不可能通过逃避人工智能来实现,而只可能依赖于规则和立法。
(四)最后是人工智能的法律监管问题。
在人工智能的立法方面,美国已经在思考人工智能的全面应用对于社会整体运行的冲击与改变。例如,人类是否有可能在某些领域滥用人工智能技术,比如刑事司法、劳动雇佣等领域。
反观我国,由于我国的重心仍然放在鼓励技术研发方面,因此我们对于人工智能技术应用所带来的产业与社会转型冲击,以及监管方面的及时调整和跟进,目前还缺乏整体认识和积极部署。在具体立法时,建议我国立法者从以下角度考虑对人工智能的法律规制问题:理论依据和监管原则;缺陷类型和安全控制;归责原则和责任确定;前瞻性纳入人工智能对就业、社会福利、经济发展长远影响的考量。
往期精选
检察技术与信息化
传播和分享检察技术与信息化工作热点新闻、各地工作经验,以及检察技术及信息化领域原创或深度文章。
微信公众号ID : jcjsyxxh2013