查看原文
其他

林维:面对AI,法律应如何变革?

法科生之家 2024年08月24日 23:48




编者按



2024年7月3日,2024中国数字经济发展和治理学术年会在清华大学成功举办。本届学术年会聚焦“数据要素、人工智能与数智时代的理论创新”,邀请国内外40余位专家、学者及机构代表进行主旨演讲和交流。来自清华大学、北京大学、中国人民大学、中国科学院大学、中国社会科学院大学、浙江大学、南开大学、上海交通大学、西安交通大学等高校和数字经济相关科研机构及企业代表共400余人出席线下会议。会议通过多个平台同步直播,当天信息浏览量超过十万人次。


西南政法大学党委副书记、校长林维以《法律如何应对人工智能的发展》为题进行了主旨演讲。本文根据林维教授现场发言内容整理。



林维教授作主旨演讲


尊敬的各位领导、各位嘉宾:
大家下午好!我跟大家分享的题目是人工智能的发展对法律的挑战。

近年来随着Google自动驾驶汽车、ChatGPT、人形机器人等人工智能应用的爆发,人工智能对于现行法律的挑战逐渐受到重视。在不同的法学学科中,都在广泛地讨论有关人工智能的法律应对问题,例如我上个礼拜在巴黎参加国际刑法学协会的年会,在三天的讨论中,有半天时间是在专门讨论人工智能背景下自动化武器的法律责任问题。这样的问题不仅仅是在国内,在国际上都受到了广泛的关注,在这意义上,今天我们所讨论的问题具有全球的共识性。
早在2017年,国务院就印发了《新一代人工智能的发展规划》,指出“人工智能的迅速发展将深入地改变人类的社会生活,改变世界。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。”近年来,如何通过立法来规制人工智能成为一项迫在眉睫的课题。




人工智能时代的法律变革





在过去几千年的法治文明当中,不难发现,法律制度都是以人为中心来展开的,围绕人的行为,调整的主体、客体都是人。这背后基本的假设是人类是唯一的理性主体,只有人才能够自主决策、自主行为,因此,法律只调整人或者人类的行为以及由此产生的社会关系。即便后来出现了法人制度,这也只是在法律上对背后的自然人集合一个法律的拟制。但是人工智能是一种模拟人类理性的技术,未来能够在没有人类干预的情况下独立地做出决策、执行任务,例如驾驶汽车、艺术创作、诊疗疾病、智能问答等,这一高度智能化属性的科技在过去的历史当中前所未有,由此引发了传统法律制度的变革和挑战。这种挑战主要体现在以下三个方面:
第一,人工智能与法律关系。人工智能在赋予人类新的文明的契机的同时,也对现有的法律关系提出了一些破窗式挑战。随着生成式人工智能、具身智能乃至最近的人形机器人的涌现,人机之间的界限未来将越来越模糊,人机关系走向物理上的交互融合和精神上的依赖共生。在这样的背景下,首当其冲的就是法律的主体制度。日益智能的人工智能能不能在法律关系当中担当或者成为一个主体的角色,成为一个重要的课题。法学家们已经在讨论人工智能背景下,机器人能否承担法律责任,甚至承担法律责任体系中最严重的刑事责任。特别是随着ChatGPT-4等生成式人工智能的崛起,更加让人们看到了强人工智能在未来的可能。因此,有很多学者认为,人工智能摆脱人类纯粹的工具地位而获得主体的身份,将是一个必然的趋势。这已经不再是科幻的场景而是我们所面临的现实问题。
在这样的一个背景下,随着人类主体地位不断受到冲击,法律行为、法律权利、法律关系、法律责任这些传统的体系和规则都会相继受到挑战,比如说以后人工智能独立驾驶汽车、诊断疾病,如何追究侵权责任、刑事责任成为难题。人工智能创作艺术是否应当受到知识产权的保护,是否能够享受由此获得的利益,也成为我们现在必须讨论的问题。

第二,人工智能与法律价值。人工智能对法律价值的影响是全方位的,从算法的角度看,由于机器学习具有高度的复杂性和不透明性,算法的决策可能受隐藏的偏见或者其它因素的干扰,算法垄断、算法歧视、算法黑箱等等这些问题,隐藏于技术中立的面纱底下,如何实现算法的正义成为一个重要的课题。从数据的角度看,数据具有可复制性,有限排他性和复制的增值性,数据价值的分配公平面临挑战;数据既存在着数据垄断和数据泄露的风险,也面临着数据流通利用不畅的问题,如何实现数据的正义也成为人们关注的问题。现在我们法学界也在讨论数字正义和数字权利甚至数字人权的问题。这些都是我们当今社会当中所要面临的一个现实且迫在眉睫的问题。
另外,人工智能技术的广泛应用可以全面提升社会公众的生活质量,但是不同的群体所享受到的数字红利存在巨大的差别,在一些数字环境落后地区,由于年龄等问题,民众往往面临地位边缘、能力缺失、资源匮乏等诸多困境,沦为数字弱势群体,群体之间存在数字鸿沟。从正义价值的角度来看,人工智能技术依赖数据驱动,但是大规模的数据收集与监控也逐渐凸显出“发展权利、效率优先”,与“隐私保护、自由保障”之间存在着的巨大的价值冲突。

第三,人工智能和法律的应用。人工智能对法律应用的生态的塑造是多维度,除了对现有的规则以及现有的法律的理念提出挑战以外,还在深刻地影响着法律的应用。
一是法律司法活动的空间不断地扩张。人工智能技术使法庭从线下走到线上。实践中,现在许多法院都已经在使用AI+矛盾纠纷化解系统来解决纠纷,进行诉源治理,出现了一些线上法院、网上法院、微法院等等。

二是开启司法权力行使的智能化。人工智能的法律应用尤其体现在案件的分析环节,例如通过自然语言处理技术阅读分析法律文档,辅助法官开展证据分析,自动生成法律裁判文书甚至包括提出量刑建议等等。

三是实现执法活动的自动化。人工智能通过对数据的分析比较,挖掘行政执法当中隐藏的规律性,再予以模型化,为执法活动提供技术支持。例如行政案件自动裁量、违规车辆智能检测,行政审批的全流程自动化。最近在检察系统里普遍推行的数字检察理念,就是通过大数据的智能化分析,发现隐藏在整个行政执法过程当中、权力运行过程当中大量的腐败行为乃至其他更为广泛的违法犯罪行为线索,而这些违法行为是过去我们通过传统的侦查技术完全无法加以发现的,现在通过大数据的分析、汇总、比对,能够梳理出很多犯罪的线索。




人工智能应用中的典型法律挑战





近年来人工智能运用研发产生了不少法律挑战,其中比较典型的包括以下几个主要的问题。
一是深度伪造与刑事治理。深度伪造依托于深度学习和大数据技术,能够修改和自动生成图像、文字、视频等信息内容,极易为不法人员实施网络违法犯罪活动提供可乘之机。深度伪造可能涉及的违法行为诸如侵害国家安全、社会秩序、他人合法权益等,都和我们刑法当中大量的罪名相呼应,也进一步带来了刑事治理风险的扩张。例如在以“点击、浏览、转发的次数”为入罪标准的犯罪认定中,现有司法解释并未将算法系统的自动化点击和转发次数排除在外。同时,在深度伪造的过程当中,很多技术难题又是过去传统的法律规范所不能加以覆盖的,例如由于算法黑箱的存在,依托大规模算法的深度伪造在定罪量刑要件的认定上存在解释上的困难。如何顺应这样一种技术的变化来修改过去传统的法律规则,是我们眼前必须要去解决的问题。尤其对现有的规范,在新技术背景下进行解释而赋予这些规范崭新的生命力,更是我们必须要面对的问题。
二是自动驾驶和侵权责任。当前自动驾驶汽车大规模商业化落地进程在紧锣密鼓地进行中,今年6月份,工信部、公安部以及交通运输部等联合宣布国家首批智能网联汽车准入和上路通行试点企业名单,标志着自动驾驶汽车的大规模上路、上市又更进了一步。对于传统汽车来讲,车辆由人类的驾驶员控制,发生事故自然也需要由人来承担。自动驾驶取代人工驾驶以后,车辆在没有人介入的情况下可以自主地驾驶,这个过程中如何追究事故的责任成为难题。最近有观点认为应当追究在整个流程包括程序开发的刑事责任。不过,如何平衡技术创新和社会秩序稳定,是管理者在每个新技术的发展之初都不得不面临的问题,所以这样的问题在过去也可以找到参照的现象。尽管我们现在讨论的是人工智能、无人驾驶,但是过去在飞机里也存在类似的无人驾驶,当飞机坠毁的时候我们是否需要探讨追究飞机驾驶程序开发者的刑事责任?为什么我们现在一提到人工智能下的无人驾驶,我们甚至要特别延展地长链条地追究因果链条,并进而追究刑事责任,这是我们必须要思考的问题。我们是否对人工智能这样的技术产生了一个深度的恐惧,而不得不做出一些过于戒备的预防?这也是我们需要讨论的问题。类似性质的问题在人工智能其他领域的应用场景中也一定会遇见。
三是生成式AI与知识产权的问题。近年来,生成式人工智能获得极大的关注和发展,给知识产权的保护带来一系列的复杂问题。从输入端来看,训练数据来源的合法合规问题十分突出,生成式人工智能需要进行海量的阅读和摄取,这些是否会触及到海量数据的摄取过程当中,包括爬虫技术本身是否涉及到著作权的问题。爬虫技术无法识别抓取内容的著作权问题,也无法在抓取时逐一获得著作权授权,这一问题现在已经成为生成式人工智能合规发展过程当中一个特别大的制约性难题,是否构成著作权合理的使用值得研究。我们过去传统的著作权研究没有遇到过这么海量而庞大的“合理使用的问题”。从输出端来看,终端用户、模型提供者的生成内容是否具有可版权性,人工智能服务的提供者生成的内容是否侵权,都是我们实践当中所面临的问题。今年广州互联网法院作出的全球的AIGC侵权第一案,北京互联网法院国内首例的AI人生图著作权的侵权案以及前不久全国首例AI生成声音人格侵权案,这些案件都在生成式人工智能领域跟知识产权,以及我们传统意义上的人身权等等问题产生了紧密的关联,值得我们进一步深思。
四是司法人工智能与裁判权力。人工智能在司法领域获得广泛的应用,也引发了诸多的担忧。最高人民法院《关于规范和加强人工智能司法应用的意见》专门就人工智能司法的应用作出了部署,对于传统的司法活动来讲,它是法律和道德的统一,我们经常讲要情理法,除了正确地适用司法规则以外,我们还要去要求法官具有同理心、正义感、同情心,需要对所面临的法律的现象具有正义的直觉的判断。而这些通常由人来彰显的司法的属性是无法为机器所替代的。同时,人工智能所具有的算法黑箱和算法的偏见也常常被人批评。例如2016年5月,在美国就有媒体公开指出,应用于美国司法实践中的犯罪风险评估系统COMPASS存在种族歧视,“系统在正确预测白人或者黑人的重新犯罪率方面是正确的,但是黑人比白人被评估为高风险结论的概率高两倍”。此外,司法大数据的不当开发也容易导致技术“俘获”司法的问题,技术人员有可能通过算法的构建和引入,在事实上“分享”司法权。过去司法权是由法官所专享,未来随着技术不断地渗透,我们的程序开发员事实上可能和法官一起参与司法的审判而实现司法权的分享,在无法被证明或者证伪的算法背景下,裁判权将面临异化的风险,这是为我们司法或者是为法官所感到深深的恐惧和担忧的。
五是生物的识别与数据安全。在我们日常生活中,人脸识别、指纹识别、虹膜扫描、语音识别等等已经无处不在,这些是我们身份验证和访问控制的强大的工具,但是与此带来的数据安全的挑战也不容忽视。对个人而言,收集和储存生物识别数据可能引发大规模的隐私风险,这种具有高度敏感性的个人信息一旦遭到泄露或者滥用,尤其是大规模地泄露或者滥用,必然会侵害主体隐私的权益,甚至可能会导致更大的数据安全乃至国家安全的问题。尤其是对国家而言,数据是重要的战略资源,数据安全是国家安全重要的内容。因此,生物识别技术的大规模应用,我们对此要特别谨慎、特别警惕。




中国人工智能立法的现状和展望





(一)中国人工智能立法现状
当前我国人工智能立法呈现两个特点:一是地方式。目前为止在国家层面,至今还没有一部关于人工智能专门的立法。有关人工智能的立法具有明显的地方式特征,强调地方政府可以根据自身的特点,结合自身发展的需求,先行先试,探索具有地方特色的人工智能治理规则,以此来积累更多的人工智能全国性立法经验。比方说在自动驾驶领域,在推进人工智能产业发展方面,上海、深圳、广州、重庆等等都就自动驾驶道路测试、示范应用、交通法规等各种相继颁布了很多的地方条例,但是缺乏国家层面的法规。二是场景式。当前我们还没有一部关于人工智能的综合性的立法,相关立法仍然以地方规章制度以及国务院的行政规章为主,同时也主要是以具体的应用场景为抓手,关注不同应用场景下的人工智能引发的法律的挑战,比如说针对生成式人工智能出台了《生成式人工智能服务管理暂行办法》,针对自动驾驶汽车则出台了《智能网联汽车道路测试与示范应用管理规范(试行)》等;针对深度合成出台了《互联网信息服务深度合成管理规定》,针对人脸识别发布了《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》等,但是总体上缺乏一些综合性、一般性的规定。
(二)中国人工智能立法的建议
随着人工智能应用爆发式地增长,我们的立法现在已经明显滞后,地方式立法、场景式立法已经远远无法满足人工智能产业发展的需求。
第一,我们必须要抓住人工智能立法的宝贵契机。一方面推动人工智能的统一立法的实现,避免头痛医头、脚痛医脚。当前各国都特别重视人工智能的立法,2024年5月,欧盟理事会正式批准全球第一部《人工智能法》,引领人工智能立法新浪潮。当然,我们需要注意的是在人工智能的规制、管制、立法和人工智能技术的创新当中,要维持好一种平衡。在国内,人工智能的统一立法趋势也逐渐明显,国务院在2023年度、2024年度都明确将《人工智能法》列入了立法的规划,与此同时法学界迅速响应,中国社科院包括中国政法大学以及西南政法大学等几个单位联合起草的《人工智能示范法(学者建议稿)》,为制定一部统一的人工智能法提供了很好的政策条件和宝贵经验。
当然,《人工智能法》这样一种统一的立法,还需要留足动态的接口。一部人工智能法很难解决人工智能所提出的所有的法律的问题,一方面,我们需要对智能要素立法预留接口,2020年8月,美国国家和新兴技术研究中心发布报告《人工智能三要素及对国家安全战略的意义》指出:“可以用一句话来概括现代人工智能的复杂性,即机器学习系统使用计算能力来执行从数据中学习的算法。”这一定义表明,实现人工智能的关键在于算法、算力和数据三要素,人工智能立法需要与智能要素立法相互配合。另一方面,我们也需要为智能应用的立法预留接口,因为人工智能本身就是一个包罗万象的概念,它所应用的场景包括医疗、教育、金融、物流、交通等等各种场景,各种人工智能所应用的场景当中引发的法律的问题并不一致,例如自动驾驶汽车关注事故责任问题,人脸识别关注数据合规和个人信息保护问题,生成式人工智能则面临著作权保护问题等等。人工智能立法必须要考虑这些场景的特殊性。
第二,高举科技向善旗帜。人工智能带来了前所未有的伦理问题,人类和科技之间的冲突达到了极致。早在1965年,杰克·古德就疾呼,第一台超智能机器将是人类的最后一项发明。1988年,汉斯·莫拉维克认为,机器人最终将战胜我们,人类显然将面临灭绝。近年来,马斯克、比尔·盖茨、斯蒂芬·霍金等知名人士都曾经多次表达人工智能对人类文明的威胁。当然每一次科技进步的过程当中都会产生对人类命运的忧虑以及对科技所带来的危险的内心所存在的不安感和恐惧感。但是毫无疑问,现在人工智能带来的不安感和恐惧感是前所未有的,很多学者都在预判机器人最终将战胜人类,人类将面临灭绝。也有很多学者多次表明,人工智能是对人类文明的一种威胁,因此,人工智能法必须确保人类文明的持续进步,因此也就必须坚持科技向善的理念,高举科技人文的大旗。《全球人工智能治理倡议》指出,发展人工智能应坚持以人为本的理念,以增进人类的共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展。实践中,无论是欧盟《人工智能法案》还是我国两部人工智能法律建议稿,都高度重视科技向善,明确将伦理道德原则整合到人工智能的全生命周期中,促进公平、公正、和谐、安全,避免偏见、歧视、数据泄露等问题。
第三,要回应产业发展的需求。我们目前的人工智能产业尚处于追赶的状态,例如生成式人工智能的发展其实跟国外还存在着很大的差距,芯片等关键技术还存在卡脖子的问题。因此,人工智能的立法必须坚持安全与发展并重,不能够为了安全而偏废创新和发展,没有创新发展的安全不是真正的安全。因此,人工智能的立法应当在立法当中明确规定要促进人工智能健康发展,强调在发展的同时保障国家安全、公共安全、个人隐私安全和数据安全。同时,人工智能立法也应当设置人工智能发展的专章,对人工智能的研究、开发、应用、推广等提供技术指导和支持,明确产业发展的方向和重点。目前已有的两部专家建议稿都设置了人工智能发展促进的专章,也体现出我们希望通过立法促进、推进人工智能创新性的发展,明确提出要加强算力基础设施建设,支持算法和关键技术创新,着力促进人工智能产业的健康发展。此外,人工智能立法还应当确立人工智能治理框架,如人工智能的分级分类治理、风险监测规则等,明确人工智能研发者、使用者、提供者等主体的义务与责任,明确监管机构的监管职责与监管规则,加强用户权利保护,切实回应人工智能产业发展中的实际难题。

未来人工智能法的立法还需要根据人工智能的快速迭代的发展来进行不断的调整,无论如何,人工智能的立法正当其时。今日,全国科技大会、国家科学技术奖励大会和中国科学院第二十一次大会在人民大会堂隆重召开,习近平总书记强调:“科技兴则民族兴,科技强则国家强,中国式现代化要靠科技现代化作支撑,实现高质量发展要靠科技创新培育新动能。”人工智能作为当前最受瞩目的新兴科技,我们必须要重视由此引发的法律挑战,通过立法为人工智能的发展保驾护航,让人工智能更好地造福人类社会,服务国家发展。

来源:法学黄埔、西政科技法学研究院、桂客留言


重磅福利

关注“法律检索”公众号,后台回复“暑期学校”即可获取首届“大数据与法律检索”暑期学校课程PPT。回复“PPT”即可获得中国大学MOOC《大数据与法律检索》主讲人在深圳律协授课的PPT(六百多页干货)。

深圳律协培训课程《律师法律检索核心技能》B站地址(点击文后阅读原文即可观看)

https://www.bilibili.com/video/BV18y4y137xu/

扫下方海报二维码即可免费学习中国大学MOOC《大数据与法律检索》第八期课程(有重要更新)


继续滑动看下一个
法科生之家
向上滑动看下一个
选择留言身份

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存