查看原文
其他

陈兵:促进生成式人工智能规范发展的法治考量及实践架构|中国应用法学·专题策划

陈兵 中国应用法学 2023-10-15



✪ 陈兵‍

南开大学法学院教授、博士生导师,南开大学竞争法研究中心主任,数字经济交叉科学中心研究员

【编者按】如果提起2022-2023年度科技领域最火的关键词,ChatGPT一定榜上有名。以ChatGPT为代表的生成式人工智能在法律和司法领域亦具有广泛的应用前景。随着技术的不断进步,生成式人工智能将帮助法官和律师更好地服务于公众,为法治和司法事业的发展做出贡献。有鉴于此,《中国应用法学》特就“生成式人工智能的司法适用”组稿专题策划。本期特此编发由南开大学法学院陈兵教授撰写的《促进生成式人工智能规范发展的法治考量及实践架构》,该文就加强相关政策与制度的供给,大力促进生成式人工智能规范发展展开了研讨。


*因篇幅限制,注释等有删减,如需引用请参见期刊原文。欢迎个人分享,媒体转载请联系本公众号。


促进生成式人工智能规范发展的法治考量及实践架构

——兼评《生成式人工智能服务管理暂行办法》相关条款


文|陈 兵

(本文刊载于《中国应用法学》2023年第4期)

内容提要: 当前,全球范围内生成式人工智能技术和服务进入爆炸式增长阶段,其在为社会经济带来技术进步和生产力增进的同时,也引发各种法律风险、科技伦理风险及社会治理风险。对于人工智能的发展,欧盟采取严格的法治监管态度,通过统一规则和监管机构统筹构建人工智能规范事宜;美国则采取原则性和倡导性的监管策略,在尊重企业自主权的同时,明确企业合规的要求;英国仅明确原则而不做强制要求,采取原则性的折衷监管方式。比较域外经验,立足我国参与人工智能国际竞争的现实需求,对生成式人工智能的法治考量应根据技术与法律的交互、发展与安全的平衡,在法治架构中为人工智能规范发展设置安全性、可靠性、可控性要求。为此,需加强相关政策与制度的供给,尽快建立多元长效监管机制,设立规范统一的责任规则,以此建立全周期、系统性、立体化的法治实践架构,在恪守安全底线之上,大力促进生成式人工智能规范发展。

关键词:生成式人工智能  风险  域外法治  法治考量  实践架构


文 章 目 录


一、问题的提出

二、生成式人工智能发展面临诸多风险

(一)主要法律风险

(二)不同阶段的科技伦理风险

(三)社会治理领域主要风险

(四)风险主要原因探析

三、规范生成式人工智能发展的域外法治考察

(一)欧盟

(二)美国

(三)英国

四、促进生成式人工智能发展的法治考量

(一)促进生成式人工智能发展的法治测度

(二)促进生成式人工智能发展的法治要求

五、促进生成式人工智能发展的实践架构

(一)加强监管制度供给

(二)建立多元长效监管机制

(三)责任承担制度的明晰与细化

结语


▐  一、问题的提出


当前,Alpaca、GPT-4、PaLM-E、文心一言、Security Copilot等各种生成式人工智能技术和产品走入社会经济生活。ChatGPT的爆火使得生成式人工智能逐渐进入大众的视野,随着实践的发展,生成式人工智能的应用逐渐由“工具”向“决策者”的角色转变,在医疗、娱乐、生活、金融等各行业中,生成式人工智能都承担着重要使命。然而由于生成式人工智能对社会生产生活的渗入越来越广,其伦理、法律风险也被相应放大,并且生成式人工智能存在着算法黑箱等特点,对其监管存在困难,社会对生成式人工智能的质疑甚嚣尘上,甚至出现暂停生成式人工智能运行服务的情况。这种因信任缺乏的质疑是合理的,但长此以往将会严重阻碍生成式人工智能的发展,使得数字经济甚或实体经济发展滞后。因此,如何选择治理工具、把控治理限度,在人工智能发展国际竞争和国际经济贸易竞争当中具有关键意义。


降低人工智能风险,既是技术层面应当解决的现实任务,也是制度层面应当面对的现实目标。2023年7月10日,为促进生成式人工智能(AIGC)技术健康发展和规范应用,国家互联网信息办公室等七部门联合公布了《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),其中明确提出坚持发展和安全并重、促进创新和依法治理相结合的原则,对生成式人工智能服务实行包容审慎和分类分级监管,规定了提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德和伦理道德,并明确了生成式人工智能服务的提供者(以下简称提供者)需要承担的各项义务和责任。


《暂行办法》发布后,如何更好地适用规则以统筹发展与安全,在夯实安全发展的基础之上,给予创新发展以可容、可信、可控的制度环境,以高质量的制度型开放为实现我国人工智能技术和产业的弯道超车,提供科学有力、坚实坚定的制度支撑,成为重要课题。


为此,本文拟从生成式人工智能可能造成的风险出发,结合我国对生成式人工智能的治理现状,比较域外经验,探讨法治对生成式人工智能的介入方式和限度,分析生成式人工智能规范健康发展的内在目标与基本要求,进而为生成式人工智能发展的法治促进提出相关建议。


▐  二、生成式人工智能发展面临诸多风险


法学的使命并不是赞赏科技发展所带来的辉煌成就,而是审视科技可能带来的非理性后果,通过法治降低科技发展的风险。目前,生成式人工智能作为数据大模型训练的算法,其可控性逐渐下降,自主性逐渐增强,带给人类社会的便捷与风险同在。其风险因素在于,生成式人工智能可能违反法律法规,从而造成负面的社会效果,是否应当修订法律法规存在讨论空间。通过探析风险类型和生成路径能够为法治实践提供理论支撑,为其实施进路勾勒架构。具体而言可能存在如下法律风险。


(一)主要法律风险


1.知识产权法律风险


生成式人工智能的训练需要海量数据,其中不仅包括已丧失著作权、商标权等在先权利保护的内容,也包括目前仍受到著作权等知识产权保护的内容。在人工智能技术应用和产业创新发展的背景下,特别是在生成式人工智能的训练中如果自动爬取和解析学习他人作品和内容的行为涉及对原作品的复制,那么该行为很可能侵犯他人著作权。在美国,已有绘画者对人工智能生成作品的软件公司提起了诉讼,对生成式人工智能训练中抓取、使用数据的行为,提出了实体和程序两方面挑战。而如果严格按照侵权模式规制人工智能爬取训练数据,将严重阻碍人工智能的发展,但若将人工智能爬取列入合理使用的范围则不但侵犯在先权利人的正当权利,而且将挤占其生存空间,如何设计平衡二者利益的路径值得考量。


此外,生成式人工智能的生成内容可能与他人内容相似或具有抄袭行为等侵犯知识产权的情况。而对于人工智能生成内容,是否应视为作品并赋予著作权保护,侵权责任应当由服务提供者还是服务使用者承担,目前都未有明确法律规定,在学界引起很大争议。


在法律上,著作权(版权)保护的作品必须是由人类创作,具有独创性,是蕴含一定思想内容的表达形式,且不属于法律法规、通用数表、公式等著作权法排除对象。目前生成式人工智能有三种形式,分别是完全由人工智能独立创作、由自然人辅助创作、按照自然人输入的提示词生成。上述三种形式中,只有一种是人类直接参与的,这种情况下生成式人工智能生成的内容才可能具有版权。“在剩下两种形式下,将生成式人工智能界定为‘作品’是有问题的。”这是因为人工智能没有独立的思想,不能独立“创作”,更遑论具有版权。事实上,生成的内容往往是通过对大量现有数据进行学习和分析而生成的,缺乏独创性。故对生成式人工智能生成的内容是否应视为作品并赋予著作权保护,目前没有明确的法律界定。在学界和法律界存在一定争议,需要进一步研究和讨论。


在涉及侵权问题时,责任归属是一个重要的理论与实践难题。根据侵权责任法的一般原则,通常情况下,侵权行为由实际侵权行为的主体承担责任。故在人工智能生成内容的侵权情况下,如果侵权行为是由服务使用者自行操作或指示生成的,那么侵权责任通常由服务使用者承担。然而,在某些情况下,如果服务提供者在技术或平台设计上存在缺陷,导致生成的内容侵权,那么服务提供者也可能承担一定的责任。


《暂行办法》第9条明确要求“提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务”,由此加大了提供者的产品责任。这一要求在《暂行办法》征求意见时,便引发了社会各界的讨论,认为不适当加重提供者的责任,不利于人工智能技术和产品的开发和利用。


综上,生成式人工智能生成的内容在著作权保护和侵权责任方面存在争议。由于该领域的复杂性和相关法律尚未健全,需要进一步研究和讨论。


2.数据安全和个人信息法律风险


生成式人工智能需要大量的数据形成训练数据库,在正式运营之后更是不断收集使用者的个人信息。人工智能通常需要用户的概括授权,如果用户没有具体、仔细地关注人工智能所要求的授权,则会在人工智能运行过程中被无形爬取相关隐私资料,造成信息泄露风险。不仅如此,即便在用户同意相关授权后,其爬取的数据信息若超过授权范围,也会产生信息泄露风险。


在这一过程中,人工智能不仅收集使用者的个人信息,也可以根据使用者所利用人工智能的频次、目的、方式等刻画人物画像,使用者原本与人工智能进行私密交谈的隐私信息也将会转化成训练数据库中的信息,进入数据库的过程是否属于侵犯隐私的性质,具有争议,并且由于人工智能算法黑箱存在,人工智能运行内在过程难以被清晰洞察,具有较大的个人信息泄露风险。


ChatGPT的开发公司OpenAI官网的《隐私政策》表明,用户在使用ChatGPT时,会被采集有关用户访问、使用或互动的信息,相关负责人表示,ChatGPT会使用每个客户的一小部分数据样本来提高模型性能,用户若不希望数据用于提高性能,需要通过邮件向OpenAI发送申请。这意味着,包含用户隐私以及用户对话的数据可能会被OpenAI采集并存储在其数据中心中,随着ChatGPT用户数量暴增,其采集和存储的用户数据量也将非常庞大。


虽然,近年来数据安全保护技术愈加成熟,而且提供生成式人工智能服务的运营商承诺保障数据安全,但是,2023年3月20日,OpenAI官方表示有1.2%的ChatGPT Plus的用户数据可能被泄露。一些用户可能看到其他人聊天记录的片段,以及其他用户信用卡的最后四位数字、到期日期、姓名、电子邮件地址和付款地址等信息。可见,数据安全问题难以避免,若数据安全得不到有效保障,人工智能技术难以获得人们的信任,会阻碍人工智能的发展应用。


《暂行办法》在“技术发展与治理”一章中规定了生成式人工智能服务提供者应当使用具有合法来源的数据和基础模型,在“服务规范”一章中则规定了提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。这些都体现了对数据安全问题的重视。


3.市场公平竞争法律风险


生成式人工智能的兴起引发了另一个重要问题,即有可能加强科技巨头在市场上的垄断地位,形成巨大的数字鸿沟(digital divide)。数字鸿沟是指“在有效使用网络所需要的技能方面,比起仅仅去访问网络,或许有着更深刻的阶层分化”,在生成式人工智能的发展过程中尤为突出。并且数字鸿沟继续发展就可能带来等差鸿沟,财富与信息迅速聚集于科技巨头企业,市场格局进一步固化。虽然现在的市场上已经出现很多生成式人工智能应用,其中大部分产品都是由微软、谷歌、脸书、DeepMind、OpenAI等公司制作。考虑到微软仍是 OpenAI 的大股东,而谷歌则是DeepMind的控制者,因此整个人工智能市场只是科技巨头的舞台。从目前几大巨头的表态看,它们大力支持生成式人工智能的原因主要是将它们和自己既有的业务相结合,从而强化业务优势,强化市场力量。


在形成寡头垄断市场之后,人工智能的市场进入形成了极高的商业壁垒。这种商业壁垒来源于运行成本,即使像Transformer 架构等核心技术已经完全公开,但其运营成本仍是天文数字。现实中,有能力进入这个高收益市场的企业很少,很少有企业能负担起训练模型的高成本。而在市场壁垒产生后,科技巨头利用平台的传导效应,所产生的潜在垄断风险也会不断涌现。   


(二)不同阶段的科技伦理风险


科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,包括科学家研究行为本身所要遵守的学术规范以及科技成果与现实社会之间基本道理和准则的边界,是促进科技事业健康发展的重要保障。


1.开发阶段的科技伦理风险


生成式人工智能是使用大量文本数据训练的深度学习模型,其训练材料的要素之一是人类的作品,基此,它很可能将人类作品中包含的歧视因素继承下来。因此,其输出的内容可能存在与当前主流价值观不符的情况,甚至会产生歧视、侮辱等内容。基于算法模型的自主学习性,这种输出内容能够快速且深入渗透进人工智能所生成的内容,从而造成大范围的错误价值观的传递。如果放任不管,可能会被视为以默许的方式承认该种违法方式的存在,损害法治的公信力。而是否应对提供者课以摒除非道德、非歧视等内容的义务,需要考量技术发展现状和成本,平衡发展与安全。


2.应用阶段的科技伦理风险


应用人工智能生成内容已经屡见不鲜,但是人工智能作为非人类主体拥有了接近人类的思维逻辑,其生成内容的再利用是否符合科技伦理具有极大争议。譬如,ChatGPT可以帮助用户完成写新闻报道、写论文等多种任务,也由此成为有些人用来制造谣言和伪造论文的工具。近期,在索尼摄影大赛上获得一等奖的作者公开承认其摄影作品为人工智能生成,并表明其确认目前人类并不具有识别和辨认内容是否由人工智能生成的能力。


3.救济阶段的科技伦理风险


由于人工智能逐渐走向智慧化、自主化,在其运行过程中所产生的各类侵权行为如何归责具有争议。实践中,机器在预设的目标下通过人工智能算法辅助人类进行推理、决策、行动,责任相关主体可能涉及人工智能算法设计者、生产者、经销商、使用者等,使得侵权责任主体界定困难。是否应当将人工智能作为责任承担主体,将非法律意义上的道德责任归咎于不具有情绪价值的人工智能存在一定争议。责任归咎比例失衡不仅会引发社会信任危机,而且会阻碍生成式人工智能的发展。


此外,在涉人工智能诉讼调查取证时,面对算法黑箱,无论是运营者主动提供的相关数据资料还是司法机关依法调取的相关信息,都可能被怀疑证据的真实性和可靠性。即使专业的技术人员也难以完全解析人工智能算法,况且不排除人工智能的设计者和生产者具有强烈的意愿和动机配合人工智能完成这一系列操作,算法黑箱诱发了人机合谋的风险,侵权责任的因果关系更加难以判断,加剧了人工智能侵权救济的困境。


(三)社会治理领域主要风险


1.生成式人工智能的非真实性


生成式人工智能难以保证其输出的信息真实准确。根据实践情况,以ChatGPT为例,当被问及尚未经过训练的问题或者其数据库中未有相关资料的问题时,生成式人工智能往往会选择编造虚假信息或者移植其他内容,导致虚假信息被用户误用和进一步传播。


实际上,即使在人工智能尚未出现的时代,虚假信息仍然会极具迷惑性从而造成社会的混乱,而生成式人工智能基于大规模的数据集生成的虚假内容更加难以辨别,这不仅会对人工智能的可信度造成打击,也会极大提高信息可信检测成本,造成社会资源的严重浪费。


2.生成式人工智能的非可靠性


生成式人工智能难以保证所有的生成内容的质量。譬如,对于相对复杂的事物以及价值判断,如法院判决等,目前对人工智能生成内容的信任仍不如自然人的裁决。但随着技术的不断发展,利用人工智能辅助进行决策制定已经为大势所趋,但如果人工智能一直出现相应的缺陷和错误,社会对人工智能的认可度和信任度就会大打折扣,形成恶性循环,阻碍人工智能的发展。此外,由于人工智能的广泛传播性,“更容易看到一些微小的疏漏以让人无法预料的序列连续发生,就有可能变成更大的、更具破坏性的大事故”,尚未成熟的人工智能技术所造成的最大范围的风险实际上来源于其对社会的高渗透性和高结合性,从而产生的连锁效应。


同时,生成式人工智能的非可靠性也将为使用者带来风险,在大部分内容可以依靠人工智能生成的情况下,使用者很难辨别哪些内容可以直接应用,哪些不能直接应用,而该部分检测成本颇高,一旦造成利益损害,使用者难以负担。


3.生成式人工智能的弱可控性


生成式人工智能相较于之前的人工智能具有较大突破,其经过深度学习后自主性得到提高。人工介入在生成式人工智能的程序运行过程中的定位不再是规则定义者而是错误纠正者,人工智能研发者也无法预料在语料训练下的模型将会产生何种结果。


同时,随着人工智能逐渐由专业领域走向通用式人工智能,领域的广泛性对知识储备提出了更高要求,人力在其中发挥的作用弱化,人工智能的可控性与能力难以两全其美,而一旦其脱离控制,就很难指望人们盲目的信任,甚至会引起社会的恐惧。因此,如何平衡人工智能的可控性与功能发展的限度,具有深刻的讨论意义。


(四)风险主要原因探析


当前生成式人工智能的风险问题,一部分属于自然人生成内容中固有的风险,人工智能在人工生成的基础上增加了应用范围,由一对一的风险扩展到一对多的风险;另一部分属于人工智能自身的特殊风险。在自然人为主因的风险下,是否要对人工智能进行追责,或者说应该怎样把握对人工智能的要求限度,才能平衡人工智能发展和人工智能安全,值得商榷;而在非自然人式的风险下,如何进行防范、采用何种方法,需要持续创新监管方式、提升创新能力。


实际上,对风险进行分类和归因(见表1),可以发现风险的根本矛盾在于如何把控安全监管和支持科技发展之间的限度,秉持何种理念和方式平衡二者之间的矛盾,成为生成式人工智能接下来的重要研究方向。



▐  三、规范生成式人工智能发展的域外法治考察


目前域外对于人工智能的规制和监管虽处于发展阶段,但已形成了一定治理经验,在治理原则、实施规则、责任承担规则方面都具有一定规模的研究,因此可结合域外的监管现状进行本土化借鉴。由于域外大多未将生成式人工智能剥离出人工智能的语境单独讨论,因此下文论述也基于人工智能整体监管的语境。


(一)欧盟


2021年4月,欧盟委员会(European Commission)提出了《人工智能法案》提案。欧盟对于人工智能主要的监管方式为横向监管,《人工智能法案》被称为“世界上第一次对人工智能系统进行横向监管的尝试”。该法案侧重于风险管理和合规建设,关注对人身安全和基本权利的威胁。


《人工智能法案》主要将人工智能风险分为四个级别:不可接受、高风险、有限风险和最低风险。具有不可接受风险的人工智能系统会触发全面或部分禁令,而高风险系统则根据欧盟产品安全方法进行监管。该法案以“高风险”为监管重点,对其课以建立和维持风险管理系统、解决训练数据中的偏见和问题、确保系统的可追溯性、向用户提供完整的说明、要求人工监管以及提高网络安全稳健性等特别要求。


2022年9月28日,欧盟委员会发布了《人工智能责任指令》提案。欧盟委员会认为,欧盟成员国层面现有的责任法规,不适合规制因人工智能产品和服务造成损害相关责任索赔。《人工智能责任指令》提案引入了专门针对人工智能的两项额外措施作为上述规则的补充,分别是通过“因果关系推定”减轻受害者的举证责任以及授权法院命令高风险人工智能系统供应商披露相关信息。


欧盟采取的是严格监管模式,试图利用新成立的单独机构凭借新设立的法案对人工智能类系统的相关问题进行统筹。然而,其一方面对人工智能的发展施加了过多的限制,有观点认为欧盟颁布的人工智能法案将使人工智能企业在欧洲承担过高的成本,且大部分合规要求在技术上无法实现;另一方面,与严格监管相比,该法案对人工智能提供者附加的合规评估义务仅涉及内部程序,缺乏外部约束,主要由提供者的自我评估来证明存在高风险的人工智能遵守了法案,这也可能会降低这一治理工具的有效性和可执行性。


(二)美国


2022年10月,美国发布《人工智能权利法案蓝图:让自动化系统为美国人民服务》(The Blueprint for an AI Bill of Rights: Making Automated Systems Work for The American People)(以下简称《权利法案蓝图》),确定五项原则:系统的安全有效性、免受算法歧视、确保数据隐私权、人工智能系统的使用通知及其对用户潜在影响、退出人工智能系统的能力。但是《权利法案蓝图》并不是一个具有强制约束力的美国制度或政策,不具有法律、规章的效力,只提供了原则上的方向指南。


2020年1月,白宫发布了《人工智能应用监管指南备忘录(草案)》(以下简称《监管指南(草案)》),意在为联邦政府对人工智能发展应用采取监管和非监管措施提供指引。《监管指南(草案)》旨在促进发展而非保护安全,以不监管和非监管措施为出发点,如果现有发展状态能够维持成本效益,就采取放任自由的态度。


总体来说,美国奉行非必要不干预的理念和原则,对企业发展人工智能施以最大限度的宽容。可以看到,美国尚未有系统的生成式人工智能治理的法案,包括《监管指南(草案)》和《权利法案蓝图》在内的多部文件都是以指南的形式出台,并不具有强制效力。在监管规则上,虽然提出了对人工智能的监管原则,但是其实现路径并不是通过额外制定法律法规,而是通过不监管或者转化既有法律法规对原则进行实现,具有较大的不可控性,难以保证原则的落实。从监管策略上来说,美国在控制风险方面更多依靠地方政策规制和企业自律,政府层面则选择以支持和鼓励为主的政策制定方向。


(三)英国


2023年3月29日,英国政府发布了人工智能新监管框架的提案——《一种支持创新的人工智能监管方法(白皮书)》。区别于美国和欧盟的人工智能监管方法,英国政府提出了一种“常识性、以结果为导向的方法”,试图在2030年成为“人工智能超级大国的目标”与“按比例监管”人工智能带来的严重风险之间取得平衡,其基本框架是围绕软性的“原则”具体搭建监管框架。


具体而言,英国所采用的是一种原则性的折衷监管方法,并没有施加具体的额外义务和权利,而是通过明示监管原则来支持人工智能的监管和发展。该种方法虽然具有灵活的调整空间,能够快速适应通用人工智能所产生的多种问题,但必然也会带来监管范围不明确和监管规则模糊的问题,譬如其在具体场景下灵活评估风险等级的方法基本上不具有可操作性或者需要付出极高的观察代价。


总结来说,即使域外存在不同监管态度和方式,但是实际上都是基于各自实际所作出的合理选择,目前所形成的宽松监管模式和严格监管模式也并非绝对对立。随着人工智能的不断发展,风险范围和影响方面的不断扩大,两种模式也有逐渐融合之势,美国也在提出相关具体监管法案,欧盟也更关注人工智能的发展趋势,做好政策调整。简言之,对人工智能发展的法治规范,既要做好对人工智能存在的潜在风险进行合理防范,使其只能在合理合规合法的道路上发展,又要考虑各项制度实际的可执行性和可操作性,不宜对企业施加过于苛刻的规制,不然也会导致因噎废食,阻碍人工智能技术创新发展。


▐  四、促进生成式人工智能发展的法治考量


鉴于生成式人工智能的发展风险以及域外治理现状,法律应及时介入,推动生成式人工智能在中国特色社会主义法治框架下规范健康发展。同时,也必须清楚地看到,法治是治国之重器,不是无所不能的神器,在治理生成式人工智能技术及应用时,遵循法治思维,坚守法治规则与方法是必须的,但是法律法规对生成式人工智能的调控与管理应保持谦抑性,尊重科技发展的规律,平衡发展与安全,实现生成式人工智能安全、可靠、可控的发展。


(一)促进生成式人工智能发展的法治测度


由于生成式人工智能在一定程度上可以展现出自我学习的特性,并具备较高的智能性和适应性,为此,在针对当前存在的问题与风险时,应在遵循法治运行的基本原理与科技创新的基本规律的前提下多维度观测生成式人工智能发展中的各种价值及表达方式,以安全为底线,以创新为主线,寻求各种价值及表达方式的平衡。


1.技术与法律互促


生成式人工智能的发展属于科技问题,而生成式人工智能所产生的法律风险、社会风险和科技伦理风险则属于社会科学范畴。在运用法治治理生成式人工智能时是法律学者就社会风险对生成式人工智能的技术问题提出要求,这是否要求法律学者完全掌握人工智能的专业知识或者需要多大程度上了解生成式人工智能的技术原理不无疑问。


实际上,法律是涉及社会几乎所有范围的学科,如果要求法律学者必须完全掌握行业相关专业知识,那法律学者几乎不能提出任何解决相关风险的法律条文。正确的观点无疑是:如果关心的重点是“法律的行业问题”,则行业专家应当拥有更大的发言权;如果是“行业的法律问题”,那么法律人才是最终的权威,而不是行业专家。然而,法律学者即使可以对行业的专业问题运用法律概念的具体化、法律解释、类推以及某种价值判断的方法提出相关意见,某些科技的细节问题以及法律要求的可及性问题依然无法解决,在生成式人工智能这一问题上尤其重要,甚至人工智能专家自身也无法预测人工智能会作出怎样的结果。


因此,在人工智能的治理中,应当秉持技术和法律交互的理念,并设计技术与法律的交互制度,针对法律风险提出法律科学和自然科学两个层面的对策,才能妥善解决相关风险。


2.发展与安全平衡


对人工智能的监管是为降低各种风险,从而保护经营者、提供者、使用者等各方的利益安全以及社会的安全利益;而对人工智能的某些责任在监管层面予以降低或者豁免,最终目的是尽可能扫清人工智能发展的阻碍,推动人工智能的进一步发展。前述域外各国对于人工智能治理的分歧,实质上形成了以安全为中心的重监管模式以及以发展为中心强调企业自治的模式。法律介入人工智能的最终理念就是维系发展与安全的平衡。因此,在治理过程中应兼顾发展和安全,合理设定指标,把控监管力度。


就我国生成式人工智能发展现状,在把控安全原则的使用尺度之外,还应注重推动生成式人工智能的发展进度,在保证安全的底线之上,促进人工智能企业的共享和创新。监管的最终目的是维护包括生成式人工智能在内的新一轮科学技术的健康有序发展,为此国家需要秉持平衡发展与安全的理念,营造科技向善、创新竞争的市场氛围和制度创新,对人工智能发展中各类风险防范的同时,还应加强对其制度激励和政策支持。


(二)促进生成式人工智能发展的法治要求


所谓法治要求,是指对于人工智能的实体要求,即通过法律的监管和治理最终应当使得生成式人工智能达到的状态,同时这些要求反过来也引导着监管措施的制定和实施。借鉴域外人工智能治理的原则以及当前我国发展规划,笔者拟对生成式人工智能的法治目标提出安全性、可靠性、可控性三点要求。


1.安全性


安全目前没有一个明确、统一的含义,有学者认为“安全是指一定时空内理性人的身心免受外界危害的状态”,也有学者较为绝对,认为“安全是没有事故发生,事故是涉及意外和不可接受的损失的事件”。但总之在安全科学的语境下,安全与外界的意外和危害高度相关。美国《权利法案蓝图》解释“安全有效的系统”为“不应该有意或合理地预见到危及您或您的社区的安全的可能性。它们的设计应该主动保护您免受自动化系统的意外使用或影响所造成的损害”。旨在要求在人工智能算法设计之时植入安全的理念,提供安全保障,防止造成损害。即其认为,安全应当是人工智能本身的安全以及主体维度下保障安全相结合的目标。


结合相关安全含义的阐释,在我国的法治目标语境下,人工智能的安全性应当具有以下含义:一是人工智能本身安全。即生成式人工智能所进行的数据收集、脱敏处理、模型训练、人工标注等一系列过程都应当“不受威胁”以及“没有危险”,防止系统自身数据泄露、隐私泄露以及传播社会危险信息等情况的发生。二是人工智能的主体维度的安全。人工智能的提供者应当建立人工智能的安全理念训练制度,为数据库以及信息库设置加密保护措施,形成系统的安全保障架构,承担相应的安全责任。而政府应当为数据基础设施建设以及人工智能的主体合规制度架构提供法律保障,明确人工智能提供者、使用者的权利和责任,为人工智能的发展提供安全制度的体系保障。


当然,在上述安全的定义下,其所有的要求都不应当是绝对的,需要为人工智能的提供者预留必要的制度责任空间,设立在不可抗力以及恶意攻击的情况下的免责或减责条款。


2.可靠性


生成式人工智能目前还在发展阶段,对人工智能治理的目标仍要以发展为重要目的。所谓可靠性,是指人工智能不会偏离伦理和法律的要求,能够准确、公平、安全地生成决策。人们将部分决策权让渡给人工智能,是期待人工智能能够更加理性和精确地解决问题,人工智能应该能够克服人类的非理性、偏见和局限,以尽可能少的偏差和更符合现实要求的方式作出准确决策。这就要求企业持续投入研发资源,探索和改进各种人工智能算法和模型,参与开源社区,贡献和受益于开源人工智能项目,同时也需要政府制定数据隐私保护、算法透明度、伦理原则等方面的规定,设立专门机构或部门来监管人工智能技术的开发和应用,促进公共和私营部门之间的技术合作,支持人工智能相关的研发和创新。


当前的实际情况表明,人工智能技术的复杂性和不确定性导致了其潜在的缺陷和错误。尽管我们在不断努力追求完美的算法,但其完美性可能是难以实现的。因此,我们需要以现实为依据,认识到人工智能的局限性,并在法律目标的框架下,为其提供可解释性的空间。


现实情况是人工智能或许永远只能臻于完美却始终存在缺陷。是否能够输出准确可靠的结果依赖于生成式人工智能发展的程度,就法律目标而言,应当给予其可解释的空间,并及时更新相关标准。


3.可控性


对生成式人工智能的治理,应保障其可为人类所控制,而非人类为人工智能所左右,这就要求无论是提供者、使用者还是监管者,决定人工智能是否以及怎样生成的权利应归属于人类。可控性并非瞬时性的要求,而是过程性的要求。在针对ChatGPT这样的语言模型的可控性监管中,残余风险和分级管理是两个关键概念。


残余风险是指在人工智能系统开发和使用中,尽管采取了一系列的监管措施,仍存在潜在的风险或问题。对于ChatGPT,尽管它在许多任务上展现出出色的表现,但在某些情况下可能会出现错误或产生具有潜在危害的输出。这些风险可能包括不准确的信息、误导性的答案、歧视性的言论等。因此,残余风险的存在需要通过监管手段进行控制。


分级管理是一种管理方法,通过将AI系统的使用和访问权限分为不同的级别,以确保对系统行为的控制。以ChatGPT为例,可以根据使用者的身份和目的进行分级管理。例如,一般用户可能只能使用基本功能,而具有专业知识和责任的用户可以获得更高级别的访问权限。通过这种方式,可以降低系统被滥用或误导的风险,并确保对系统行为的监督和控制。


为了有效管理残余风险和实施分级管理,以ChatGPT为例,可以从以下几个方面着手。


一是残余风险评估。应该建立全面的残余风险评估框架,对ChatGPT系统进行细致的风险分析。这包括模型的弱点、潜在的偏见、隐私风险和滥用可能性等方面的考虑。基于评估结果,可以制定相应的措施来减轻残余风险。


二是残余风险管理措施。为了降低残余风险,可控性监管需要采取一系列管理措施。这可能包括持续监测系统的性能和行为,及时修复漏洞和缺陷,改进模型训练数据的多样性和平衡性,以及建立机制使用户能够报告问题和提供反馈。


三是分级访问控制。ChatGPT系统应该采用分级的访问控制机制,根据用户的背景、目的和使用需求,限制对系统的访问权限。这可以通过身份验证、用户审核和授权机制来实现。专业用户和受过训练的使用者可以获得更高级别的访问权限,而一般用户则受到更严格的控制和限制。


四是输出审核和过滤。为了确保输出内容的准确性和合规性,可控性监管可以建立审核和过滤机制。这可能包括对生成的回答进行实时检查、筛选和修正,以去除误导性、冒犯性或不当的内容。同时,应该鼓励建立用户提供反馈和进行投诉的机制,以进一步改进系统的输出质量和合规性。


▐  五、促进生成式人工智能发展的实践架构


目前,国家互联网信息办公室等七部门联合公布的《暂行办法》,是我国第一部对生成式人工智能进行治理的部门规章,凝结了对当前生成式人工智能所造成风险的多维评价,从事前预防、事中事后规制和救济等方面提出了治理要求。综合前述法律规范、社会治理、科技伦理等方面的风险,结合域外治理经验,在法治理念和目标的指引下,为完善生成式人工智能的法治保障,推动《暂行办法》进一步实施,作如下解读与展望。


(一)加强监管制度供给


1.以安全为底线的制度设计


(1)完善事前审查制度


《暂行办法》第17条规定了“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续”。即某些特定类生成式人工智能产品发布前需要进行安全评估和算法备案的事前审查环节。增加事前审查,不仅可以提升利用生成式人工智能产品向公众提供服务的合法性,增加其安全、可靠、可解释、可问责等可信性,还有助于更好实现人工智能产品和技术适用的包容性,更好地预防风险,保障安全,及时发现其运作程序、服务内容所存在的问题,从而提高生成式人工智能产品向公众提供服务的可接受性。


当然,也必须认识到事前审查会在一定程度上增加企业的合规成本,若事前审查范围设置不当,可能会抑制生成式人工智能产品的研发与训练效能,客观上会导致生成式人工智能发展的降速,因此在实施过程中,需要结合在总则中规定的分类分级监管原则,进一步明确事前审查的审查范围以及方式方法。具言之,事前审查范围过大,会导致企业审查成本增加;事前审查范围过小,会增大投入应用后产生风险的可能性,明确审查的范围与方式方法,一方面能够敦促和引导企业对照自查,推动企业规范应用生成式人工智能,另一方面能够实际上减小风险发生的可能性,避免造成不良影响。


(2)细化信息公开内容


《暂行办法》第19条第1款规定:“有关主管部门依据职责对生成式人工智能服务开展监督检查,提供者应当依法予以配合,按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术、数据等支持和协助。”该规定实际上是对生成式人工智能算法的透明度提出了新的要求,使隐私权、个人信息的保护不再仅局限于被动的事后救济,保护链条前移,更加积极有效地规范人工智能训练过程,有助于增强用户信任,使生成式人工智能产品更好发展。


需要注意的是,追求绝对的透明度对于生成式人工智能的发展并不可取,也并不符合国家支持鼓励创新的基本立场。因此,《暂行办法》在《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)的基础上增加了参与生成式人工智能服务安全评估和监督检查的相关机构和人员对国家秘密、商业秘密、个人隐私和个人信息的保密义务,平衡了对人工智能创新的保护与监管之间的张力。


在实践中应当进一步明确应当披露的程度和限度,避免提出不合理要求使生成式人工智能算法的关键信息被迫公开,导致企业的技术机密泄露,对企业创新发展产生不可挽回的损失。此外,披露受版权保护的数据还与数据爬取侵权密切相关。目前,对爬取具有版权保护的作品的行为具有较大争议,有学者认为应当将该种爬取行为视为合理使用规则的适用范畴,赋予其无条件爬取的地位;有学者则认为可以通过法定许可和集体管理制度的路径,平衡著作权人和人工智能服务者之间的利益;多数学者的观点还是希望给予人工智能发展爬取他人版权数据的豁免地位,但仍需要注意保护著作权人的正当利益。保护路径可以通过细化公开义务,并允许著作权人声明而免受爬取或要求删除,以实现利益的平衡。


(3)具化信息准确义务


虽然,之前《征求意见稿》第4条规定利用生成式人工智能生成的内容应该真实准确,但是,从目前主流技术来看,生成式人工智能并不能像人一样去辨别内容的真实性,故将生成式人工智能生成的内容应该真实准确作为提供者的义务,意味着国内的生成式人工智能提供者必须通过人工审核的方式达成义务。这会对生成式人工智能的运行和生成内容的效率造成影响,极大降低消费者用户的体验,而且也会极大增加企业的负担,花费大量的人力和技术资源用于审核信息。


考虑到这一点,在正式公布的《暂行办法》中,对于信息准确义务已经修改为“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性”,该条款调整为一种鼓励式、提倡式的条款更加具有合理性,但仍需进一步明确解释“有效措施”的范围与程度。


(4)加强数据安全保障


《暂行办法》在“技术发展与治理”这一章节中,提出要建立公共训练数据资源平台,同时规定了生成式人工智能服务提供者应保证数据来源的合法性。数据安全是包括生成式人工智能技术在内的数字技术的底层要求,尤其涉及维度丰富、使用场景广、覆盖用户主体多的公共数据,因此,防范数据风险是坚持生成式人工智能发展与安全并存的关键所在。需要结合生成式人工智能底层技术所需数据的特性和作用,建立健全数据分类分级保护制度,譬如对训练数据库中的数据进行分类管理。


首先,可以根据数据主体对数据进行分类,如个人数据、企业数据、政府数据等。其次,可以根据数据处理程度对数据进行分类,包括原始数据、加工数据、派生数据等。此外,还可以考虑数据的权利属性,如个人隐私数据、商业机密数据、公共数据等。综合考虑将数据进行有效的分类和管理。


在数据分类分级的基础上,应建立与数据类型和安全级别相配套的数据保护标准与共享机制。这意味着不同类型和安全级别的数据应该采取相应的保护措施。同时,为了促进数据的共享和合理利用,需要制定相应的数据共享机制,确保在满足隐私和安全需求的前提下,数据能够得到合法有效的共享。


另外,生成式人工智能还涉及数据跨境流通问题,应当在考虑国际通行标准和做法的基础上,制定合理的跨境数据安全执法规则,加强与其他国家和地区规则的衔接,促进数据安全跨境执法合作。通过建立跨境数据安全执法合作机制,可以加强国际间的信息共享和协作,共同应对跨境数据安全挑战。


综上,为了确保数据安全,在数据分类分级保护制度中应考虑数据主体、数据处理程度、数据权利属性等方面,同时建立与数据类型和安全级别相配套的数据保护标准与共享机制,并制定合理的跨境数据安全执法规则,加强国际合作,以推动数字技术的可持续发展和应用。


2.以发展为导向的政策支持


(1)总体政策支持


客观来说,目前国内生成式人工智能技术发展存在滞后现象。虽然我国提出了“引领人工智能”的口号,但相应的硬件条件和软性支持并没有及时到位。本轮生成式人工智能的爆发虽然是由于训练架构和模型的更新,但本质上是算力提升带动了相关技术的完善和发展。甚或可以说如果算力足够,则生成式人工智能的风险能够极大程度上减少,因为其可承载的运算量和训练量以及人工标准都能大规模发展。


实际上,只有自主发展人工智能,掌握核心技术,先于世界人工智能技术发展,人工智能治理才可能真正独立自主发展。自主发展生成式人工智能必然会涉及长周期、宽领域、深层次的科技创新,这是难以凭借任何个人或者组织的一己之力即可完成的艰巨任务,为此,应在安全底线之上促进发展,为生成式人工智能算力、数据等技术的完善提供政策激励。目前《暂行办法》在“技术发展与治理”方面主要遵循坚持发展和安全并重、促进创新和依法治理相结合的原则,从鼓励生成式人工智能研发与应用创新和对生成式人工智能技术本身的要求出发作出了规定。第5条与第6条从支持应用推广、产学研协作、自主创新、国际合作、基础设施和公共训练数据资源平台建设等方面,细化了国家对于生成式人工智能的支持鼓励措施,充分体现了国家对于人工智能产业的支持态度。应当进一步以数据、算法、模型的开放、共享以及完善为切入点,为生成式人工智能企业的发展搭建更为坚实的技术基础和资源基础,发挥服务型政府的作用,促进企业间的共享与合作。


(2)试点监管沙盒机制


监管沙盒是一种最先应用于金融监管领域的监管政策试点模式,具体是指金融监管部门为了促进地区金融创新和金融科技发展,让部分取得许可的金融机构或初创科技型企业,在一定时间和有限范围内测试新金融产品、新金融模式或新业务流程,并在这一过程中对测试项目降低准入门槛和放宽监管限制的新型监管方法。而生成式人工智能目前的监管界限模糊,许多风险尚没有明确的定论,与金融发展监管具有一定相似性,因此具有一定的可借鉴性意义。


一方面,通过监管沙盒执法机构能够提前试点相关的监管措施,对于可能出现的风险进行提前预警,充分解决信息不对称的问题,集中监管资源与沙盒内的企业进行充分沟通,提高监管质量,避免“一管就死”的情况发生。待时机成熟时再将验证有效的监管方案进行推广适用。另一方面,监管沙盒内的企业能够充分与监管机构交流沟通,将技术实践现状进行反馈,参与生成式人工智能的监管边界制定,使监管方案与企业发展目标相一致。


(二)建立多元长效监管机制


制度的生命在于实施,需要加强监管制度和规则的高效落实,而生成式人工智能监管制度的落实需要建立多元且长效的监管机制。


1.补充规定来验证整改优化的方式方法


《征求意见稿》规定对发现和被举报的不符合要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。该规定针对生成式人工智能的关键问题,对症下药,丰富和完善了对生成式人工智能违规的处理方式。在正式公布的《暂行办法》中,由于该规定缺乏可操作性,此条被删除。


实际上,若法律条文或实践部门可以补充验证整改优化的方式方法,将完善生成式人工智能违规处理流程。整改优化的结果验证应落实于技术实践,辅之以监管保障。要设定技术运用的基本门槛,加之定期和不定期的监测,保证其整改优化结果的安全性与可信度。在优化整改后,可通过人工测试模拟运行以及设置监管过渡期等方式,检验整改优化后是否仍存在不符合规定的生成内容。


2.合理分配生成式人工智能监管成本


由于生成式人工智能的种类和规模众多,而政府的监管资源有限,因此应当优化监管资源的分配,监管部门应根据不同生成式人工智能服务经营者的规模和业务活动量,设定不同的监管成本。


监管机构以成本效益为基础,制定产生费用的标准,确定监管机构在执行任务过程中需要支付的费用。同时应定期审查并更新费用标准,以提高监管效率和透明度,确保费用的合理性和公正性。要根据被监管对象的特点和监管工作任务的不同,将被监管对象分为不同的类别,并根据不同类别的监管对象制定不同的监管费用标准。此外,还需要引入市场竞争因素,对生成式人工智能服务提供商进行一定的市场化竞争,通过比价达到降低成本的目的。同时应优化监管流程,采用更高效和便捷的管理方式和技术工具,以提高监管效率和降低成本。


这种思路的贯彻需要有一个明确的前提,即需要对人工智能系统所具有的风险做到充分了解和认知,为此需要完善相关信息技术、数据资源的备案审查制度以及加强政府的技术监管,提高监管能力和效率。


3.重视法治监管的数字化


在下一步的监管能力建设中,应重视法治监管与数字技术的进一步融合。应当从对代码和生成式人工智能算法结果的规制转向对代码和算法过程本身的规制——也即通过把法律规则转换成代码,并以代码来规制代码的“法律技术化”,以及重视“代码就是法律”这一行业规则的“技术法律化”。在法律技术化中,法律规则被转化为机器可读的形式,以便计算机系统可以理解和执行这些规则。


通过技术化的手段,消除了人为解释和操作法律规则的主观性和不确定性,提高了法律的可预测性和一致性。法律规则可以更容易地被传达、理解和应用,从而减少了人为错误和争议的可能性。这样的做法可以加强对生成式人工智能的行业监管和自律,为其应用提供更高的透明度和可信度。因此,以自动化的技术对抗自动化生成的风险应当成为数字化时代下监管方式的主流,为此需要进一步加强数字化政府的建设,提高政府数字化的监管能力。


4.发挥企业和用户的监管作用


企业落实安全监管更具动力。譬如,对于歧视性的语言、仇恨言论、侮辱他人的言论,在技术界有一个专门的词汇,叫作毒性(toxicity)。其实科技界人士比法律人更关心这个问题,一旦大型语言模型产品暴露出了这种毒性,经常生成含有侮辱、歧视等倾向的内容,产品就会受到公众的抵制,直接影响商业利益。而作为生成式人工智能的制造者和提供者,企业也更具有能力去验证其产品是否具有制度层面的法律风险和社会风险,故在企业制度实施层面上,企业应完善自我审查制度的构建,提高自我审查的力度。


用户是生成式人工智能的最直观接触者和利益相关人,一方面应当加强用户的自我维权意识,为用户的监督增加举报和审查渠道,让用户了解和理解生成式人工智能的生成过程,为加强用户的信任度奠定相关的政策基础和制度基础。另一方面,用户也是生成式人工智能的重要训练养料,应当加强对用户道德伦理风险的要求,向用户明确产品使用的伦理规则与要求,从来源层面防治人工智能违法信息获取渠道。


(三)责任承担制度的明晰与细化


《暂行办法》第9条第1款针对责任主体进行了细化规定,“提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务”。该规定实际上是对生成内容生产者的认定。如果生成式人工智能产品提供者是生成内容的生产者,这里的生产者即应对生成内容的过程、具体数据信息的真实性,算法使用的适当性等整个生成过程负责,那么当然需要对其承担责任。而如果是产品使用者故意诱导产生相关虚假信息、违法信息或者侵权信息,则应将使用者视为内容生产者,对相关侵权和违法行为承担法律责任。


如何认定该生成内容的生产者,鉴于生成式人工智能与互联网信息服务提供者现状的相似性,应参照“避风港”原则合理设置提供者承担责任的范围,并结合生成式人工智能的特点明确提供者免责事由。具体而言,如果提供者尽到相应注意义务,在责任的承担上,鉴于其对创新发展的贡献,不宜施加其严格责任,否则不利于技术的开发和未来商用。


而如何判断提供者是否尽到了注意义务,应基于其生产内容的性质进行区分。首先,尽管存在技术上的难度,但提供者对于生产内容是否符合四项基本原则、是否涉嫌种族歧视以及是否传播邪教等基本底线的掌控力不仅现实存在,而且应当存在。因此在该类触犯底线的内容产生时,提供者应当对其负直接责任,并且不应有免责理由。其次,在生成一般侵权内容时,应当以“避风港”原则为标准处理方式。由于生成式人工智能的自主性甚至超过了传统互联网信息服务提供者,传统的信息服务提供者尚能够适用“避风港”原则,则生成式人工智能的提供者也应当适用,即仅在未及时删除并通知用户删除相关内容的情况下,承担侵权责任。


最后,由于生成式人工智能的生成方式是动态而非静态,责任承担的方式是移除生成的既有内容还是作出不再出现相同内容的承诺,目前存有争议,应区分情况进行讨论。对于高风险类的生成内容,应要求其承诺不再出现“相同”以及“相似”的内容,这不仅属于其能力范围之内,而且也应当属于其能力范围。对于非高风险的内容,在能适用“避风港”规则的情况下,在厘清“通知—删除”规则在人工智能场景下的具体含义后,应优先适用“避风港”规则。


可以认为,在“避风港”规则下的“通知—删除”应理解为自行移除既有内容,并通知用户删除生成的内容,如果用户认为或提供者自行查明不存在侵权情况,可以恢复相关内容。不应理解为此时就应作出承诺。而如果最后认定生成内容侵权,作出删除和通知删除行为且未自行恢复的提供者不应承担责任,拒绝删除的用户或自行恢复的提供者应承担责任。在这种情况下提供者承担责任的方式,鉴于提供者所作出的努力以及目前的技术发展现状和成本考量,应以不再出现“相同”内容的承诺为承担方式。


这一方面是因为生成式人工智能所生成的内容并不公开,也不会留存于某一公开平台,甚至该内容有时会被当作提供者与用户之间的私密信息,在该内容侵权时,传统的“删除”便不具备现实意义,转而只得要求内容提供者作出不再出现“相同”或“相似”内容的承诺。另一方面“相似”的承诺涵盖太过广泛和模糊,以当前的生成式人工智能发展阶段,针对一般侵权尚无需承受该种严苛的责任承担方式。当然,随着技术的发展,如果验证途径能够降低到合理成本,则应逐渐改变该部分责任承担方式,从“相同”走向“相似”承诺。另外,关于运营公司是否需要承担相应的补充责任,应综合考虑侵权范围、损害程度以及平台避免损失扩大的能力。


▐  结  语


生成式人工智能技术和产品的创新发展方兴未艾,立法规制既要循序渐进,以情况清楚和证据充分为监管前提,避免不当阻碍新兴科技的发展;又要及时规制,防止大规模的社会风险发生,造成不可逆的损害。平衡两者之间的关系是法律研究者的重要使命,为此需要充分总结当前存在的风险,考察现有的规制状况,秉持合理的法治理念和目标,从强化制度供给、建立长效监管机制以及完善责任承担等维度来应对和优化对生成式人工智能的法律监管,有效推动人工智能安全应用与创新发展之间的平衡。譬如,对仍存在较大发展空间且技术仍待发展成熟的生成式人工智能技术和产品开发领域,在法律与政策层面仍需给予一定的空间,各类义务的设定需科学谨慎考虑。






编辑:周维明

排版:覃宇轩

审核:杨   奕


往期回顾
REVIEW

目录|《中国应用法学》2023年第4期

秦策:操作性智能标准下的GPT参与司法

郑曦:生成式人工智能在司法中的运用——前景、风险与规制




《中国应用法学》是国内专注法律应用和审判理论研究的学术期刊,由最高人民法院主管,中国应用法学研究所主办,2021年入选CSSCI来源期刊扩展版目录,2022年入选中国人文社会科学核心期刊目录。办刊宗旨为:对司法实践问题及司法体制改革进行深入探讨,反映司法实务的最新动态和研究方向。围绕司法实践中的前沿问题,聚焦与司法应用有关的、社会性的、实证性的和冲突性的研究成果,立足高端、关注热点、把握前瞻、彰显权威、引领变革,努力打造理论法学成果向应用法学成果转化的高端研究平台。主要栏目包括:"习近平法治思想研究"“高端论坛”“本期特稿”“权威解读”“专题策划”“法学专论”“涉外法治研究”“法律评注”等。


《中国应用法学》投稿网站:

https://zyyf.cbpt.cnki.net/

《中国应用法学》订阅邮箱及二维码:

zgyyfx_issue@163.com

刊号:CN10-1459/D.

订刊电话:010-67555935/13204279637

订刊传真:010-67555935(刘老师)


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存