中国生成式人工智能内容责任主体规制的不足及完善路径——生成式人工智能内容风险的法律规制系列之一
原文《生成式人工智能内容风险的法律规制》正式发表于西安交通大学学报(社会科学版)期刊,作者为姚志伟、李卓霖。
01
引言
2023年4月11日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《生成式人工智能管理办法意见稿》。本文针对生成式人工智能的内容风险,以暂行办法为基础,围绕着内容披露、内容责任主体和投诉机制三个方面,论述了现行法规定的不足及完善建议。在论文编辑工作完成,即将发表之际(2023年7月10日),《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)正式公布。所幸,本文中讨论的三个主要问题,披露和内容生产者责任,正式稿的变化很小,不影响本文结论。投诉条款的问题,正式稿的变化与本论文中的完善建议方案是一致的。
鉴于篇幅原因,本文将会分为三篇系列公众号文章,节选论文中关于中国生成式人工智能规制的不足以及完善建议部分的内容予以展示,具体包括:其一,中国对生成式人工智能内容披露规制的不足及完善;其二,中国对生成式人工智能内容责任主体规制的不足及完善;其三,中国对生成式人工智能内容投诉机制规定的不足及完善。
本文作为本系列文章的开篇,主要分享系列文章的第二部分——内容责任主体规制的不足及完善。为了与上下文衔接,本文将会对论文内的原标题、内容及顺序作出适当调整。
02
中国生成式人工智能内容责任主体规制的不足
人工智能生成内容的责任主体问题,即由谁来承担防范人工智能生成违法和不良内容的责任,以及人工智能生成违法和不良内容后由谁来承担责任的问题。对现行法及《生成式人工智能管理办法意见稿》就此问题的规定,分析如下:
第一,责任主体主要是服务提供者。《深度合成管理规定》第7条规定服务提供者应当落实“信息安全主体责任”,[1]《生成式人工智能管理办法意见稿》第5条规定,服务提供者承担内容生产者的责任。[2]《生成式人工智能服务管理暂行办法》第9条规定,服务提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。从法律责任来看,《深度合成管理规定》为服务提供者和技术支持者规定了法律责任;[3]《生成式人工智能管理办法意见稿》仅为服务提供者规定了法律责任。[4]
第二,同样都规定了服务提供者的责任,但《生成式人工智能管理办法意见稿》将服务提供者定性为内容提供者,而《深度合成管理规定》则倾向于将服务提供者定性为技术服务提供者。具体而言,《生成式人工智能管理办法意见稿》规定的是服务提供者承担“内容生产者”责任。“内容生产者”并不是一个十分常见的法律术语。《网络信息内容生态治理规定》中有“网络信息内容生产者”的概念,其被定义为:“制作、复制、发布网络信息内容的组织或者个人。”[5]这个概念与“网络信息内容服务平台”相对存在。实际上,网络信息内容生产者相当于网络内容提供者(ICP),而网络信息内容服务平台相当于网络技术服务提供者(ISP)。后者就是“网络平台”的概念,其自身并不生产、提供内容,而仅为他人发布、传播内容提供服务。《生成式人工智能管理办法意见稿》“内容生产者”的概念很可能来自于《网络信息内容生态治理规定》,这意味着“内容生产者”是指内容提供者,也就是说按照《生成式人工智能管理办法意见稿》,服务提供者承担的是内容提供者而非技术服务提供者的角色。
《深度合成管理规定》的立场则不同,其并未要求服务提供者承担内容提供者的角色。相反,从《深度合成管理规定》为服务提供者规定的义务来看,其更接近于网络信息内容服务平台(以下简称“网络平台”),而网络平台属于技术服务提供者而非内容提供者。《深度合成管理规定》第7条至第12条为服务提供者规定了一系列的义务,包括落实信息安全主体责任,具有安全可控的技术措施;建立和公开管理规则和平台公约,履行管理责任;加强内容管理,对内容进行技术或人工审核,发现违法和不良信息,进行处置报告;建立辟谣机制。[6]这些义务与相关法律法规对于网络平台规定的义务更为接近。[7]
对于违法或不良的内容,内容提供者的法律责任和网络平台的责任有着巨大的差别,内容提供者是承担内容责任的直接责任人;而网络平台则不需要承担直接责任。以知识产权侵权为例,内容提供者意味着如果内容侵权,其应承担直接侵权责任。但网络平台则不同,其属于技术服务提供者,其不需要承担直接侵权责任。其仅在收到合格通知以及明知或应知侵权而未采取必要措施制止的情况下,才承担间接侵权责任。基于这种巨大的差别,《生成式人工智能管理办法意见稿》和《深度合成管理规定》虽然都是将服务提供者作为主要的内容责任主体,但责任内涵上存在显著的不同。
虽然《生成式人工智能管理办法意见稿》和《深度合成管理规定》在整体上对于服务提供者内容责任的定位不同,前者为内容提供者,而后者为网络平台。但是,《生成式人工智能管理办法意见稿》第15条要求服务提供者对于主动发现和用户举报的不良和违法内容,需采取内容过滤等措施和防止内容再次生成。这个义务模式与《深度合成管理规定》将服务提供者定位为网络平台的义务模式存在相似之处,《深度合成管理规定》第10条第3款和第12条也建立了与《生成式人工智能管理办法意见稿》第15条十分相似的义务。[8]如果进行更早的溯源,可以发现这个义务模式都来源于《网络信息内容生态治理规定》为网络信息内容平台规定的相应义务。[9]
在对现行法及《生成式人工智能管理办法意见稿》有关内容责任主体规定的分析基础上,可以进一步考察相关规定的不足:
其一,《生成式人工智能管理办法意见稿》关于服务提供者内容责任主体的规定出现了冲突。正如上文所言,一方面《生成式人工智能管理办法意见稿》在整体上将服务提供者定位为内容提供者;另一方面,其第15条实质上又要求服务提供者承担类似于网络平台的责任。这两个责任本质上是冲突的。服务提供者既然承担了内容提供者的责任,再为其规定发现违法或不良内容,需采取内容过滤和防止内容再次生成(以下也简称“发现—阻止”)的义务和责任已经没有意义了。因为这种“发现—阻止”机制产生作用的前提是,发现者不承担内容提供者这样的直接责任,其发现违法或不良内容时履行了法定阻止义务,就不再承担法律责任。这样的机制才能对发现主体产生激励作用,让其尽力在违法或不良内容生成后进行阻止。但将服务提供者定性为内容提供者,意味着不管其有没有对发现的违法或不良内容进行阻止,其都需要承担直接责任。这样的情况下,“发现—阻止”机制就失去了其激励性的意义。
其二,仅要求服务提供者,而未要求使用者承担内容责任是不合理的。不仅是服务提供者会影响内容生成,使用者也完全可能影响内容生成。使用者在生成内容时可能会使用到较为复杂的提示词,这些提示词的设置会显著而直接地影响到生成的内容。[10]使用者甚至还可以直接上传材料,让人工智能在材料的基础上进行生成。使用者可以向人工智能输入一幅未经作者授权使用的画,让人工智能生成类似风格的画,如果生成的画侵权了,使用者很难不承担责任。在直接影响中,一种需要重视的情形是使用者恶意突破服务提供者设置的人工智能内容生成安全防线,从而故意使得人工智能生成违法或不良的内容。使用者对人工智能生成内容恶意施加影响的其中一个典型例子是使用“提示注入”(Prompt Injection,简称PI)攻击生成式人工智能模型,覆盖设计者原有的指令和设定的内容安全审核过滤机制,达到使用人工智能生成违法或不良内容之目的。[7]所以,不能认为内容都是由人工智能单独生成,使用者在人工智能生成上也有重要的影响。仅规定服务提供者承担内容责任,而不让使用者承担内容责任是不合理的。
其三,由服务提供者承担全部的内容提供者责任,包括公法责任和私法责任,对于服务提供者而言责任过大,不利于为产业的健康发展营造良好的制度环境。事实上,美国同样有观点认为生成式人工智能的服务提供者应被视为内容的提供者(Information Content Provider)。有美国最高法院的大法官指出,类似ChatGPT的生成式人工智能的服务提供者不能援引美国法上重要的平台免责机制——《正当通讯法》第230条进行免责。[11]此外,美国还有参议员提出议案,要明确《正当通讯法》230条款的豁免范围不包含生成式人工智能服务提供者。[12]就此观点,美国有学者指出,由服务提供者承担内容提供者责任,会使得服务提供者面临巨大风险,随时可能卷入漫长而又昂贵的诉讼中。服务提供者为减少这种巨大的风险,可能会对其服务做出重大限制:包括对其功能进行重大限制;对接入生成模型的应用进行重大限制;以及对使用者进行选择,仅允许经过预先选择的使用者才能使用其服务。此外,这种责任机制还会影响生成式人工智能产业中的竞争生态。在巨大的风险之下,仅有微软、谷歌等行业巨头才有能力去承受风险,中小型的创业公司难以承受这样的风险,这将会导致行业集中度更为高。[13]上述情形,无疑都会为生成式人工智能产业的发展带来不小的障碍,不利于生成式人工智能产业带动其他产业提高效率的潜力释放。
03
中国生成式人工智能内容责任主体规制的完善路径
为服务提供者创设“安全港”机制,该机制兼容使用者的内容责任。内容责任主体方面最重要的问题是服务提供者的“内容生产者”定位的问题。在这个方面,必须承认立法者确实面临两难:一方面,生成式人工智能与传统网络平台存在显著区别。在很多情况下,内容看上去主要是由人工智能所生成,由此,让服务提供者来承担内容责任具有合理性。另一方面,如果将生成式人工智能定位为“内容生产者”,完全承担内容提供者责任,则又会出现上文所述的责任体系内部冲突和不利于产业健康发展的问题。
这个难题产生的本质在于,传统网络环境下的内容生产者与网络平台(内容提供者与技术服务提供者)的内容责任二元主体划分体系,在人工智能内容生成的情况下已很难适用。在传统的网络环境下,网络信息内容责任的两个关键角色是内容生产者和网络平台,内容生产者制作、复制、发布内容,而网络平台则为内容生产者进行这些行为提供帮助。两者的角色区分是非常明确的,内容生产者是直接行为人,而网络平台则是提供工具的角色。但是,在生成式人工智能时代,内容的生成涉及使用者和服务提供者。使用者和服务提供者在内容生成过程中各自起到多大的作用很难一概而论。这个本质性的难题使得无论国内还是国外,都出现了要求服务提供者承担内容提供者责任的呼声。[14]当然,也有相反的观点存在,认为服务提供者仍然应是网络平台而非内容提供者的身份。[15]
从历史发展的角度来看,内容生产者与网络平台或者说内容提供者与技术服务提供者这套二元责任体系是应互联网革命而产生。在互联网发展的初期,同样面临新兴的网络平台适用传统责任体系的难题,例如BBS论坛上出现了侵权内容,论坛举办人是否要就此承担责任。美国版权法的严格责任尤其给网络平台带来巨大的风险,论坛举办人可能因为用户在论坛上发表的侵犯他人版权的信息内容而承担严格责任。这种严格责任也为当时美国互联网产业的发展蒙上了“阴影”。美国为了解决传统责任体系在网络平台适用上的难题,同时为互联网行业营造健康发展的宽松法律环境,先后出台《正当通讯法》(Communications Decency Act)第230条和《数字千年版权法》(Digital Millennium Copyright Act)第512条。这两条规则的共通之处都在于将网络平台定性为技术服务提供者而非内容提供者,从而为网络平台提供了强大而有效的免责机制。按照相关学者的研究,这两条规则是美国互联网经济蓬勃发展的基础性制度,是硅谷得以繁荣的原因所在。[10]美国的互联网产业在全世界取得领先地位,也与这两条规则息息相关。避风港规则也被世界上主要的国家和地区所借鉴吸收。
生成式人工智能的革命性发展同样给现有的法律责任体系带来了巨大的挑战,立法者同样需要平衡产业健康发展和内容风险防范的双重目标。要实现这点,有必要探索适合于生成式人工智能特点的“安全港”机制来解决其内容责任的问题。“安全港”机制是指“权威机关在相对原则、一般的行为限制和追责体制下,以具体规则的形式,为受法律约束的社会行为主体指明有限、有条件的合规路径的一种法律技术;当行为主体选择在安全港范围内开展相关活动时,便可获得较为确定的免于被追究违法责任的预期。”[11]“安全港”机制由于可以提供相对清晰的合规免责路径,因此在为相关主体提供稳定预期,并鼓励其进行风险控制的投入方面具有显著的优势,对于人工智能、基因科技这样的既有重大经济和社会创新效应,又蕴含风险的创新型产业之监管,是一个十分有吸引力的方案。[11]
需要指出的是,“安全港”机制并非在讨论网络平台侵权责任时的“避风港”机制。“安全港”机制与“避风港”机制的是一般与具体的关系,即“安全港”机制是在一般意义上讨论的责任机制,可以针对各种不同的主体。“避风港”机制是“安全港”机制的具体化,是具体针对网络平台的责任机制。可以认为,“避风港”是“安全港”的一种,是网络平台侵权责任的责任机制。“避风港”机制很难适用于生成式人工智能。一方面,避风港规则要求权利人发出通知时,必须提供足以定位侵权内容的信息,这个信息主要是网络链接。在生成式人工智能场景下,内容生成的过程对于权利人而言是黑箱,权利人无法去定位侵权的内容。另一方面,避风港规则要求网络平台在收到合格的侵权通知后,采取删除等必要措施去制止侵权。在生成式人工智能的场景下,服务提供者在技术上很难去删除侵权内容。在传统网络时代,侵权内容通常存储在网络平台上,或者至少有具体的链接在网络平台上,[16]网络平台可以进行删除或者屏蔽。但在人工智能生成内容的场景下,生成的违法或不良内容并不是固定存储于生成式人工智能模型内部,也没有一个网络链接可以指向这些内容。一定程度上,类似于一个孩子说了一句侮辱他人的脏话,并不能说孩子脑袋里在物理意义上事先存储了这样一句话,更不可能像删除网络链接一样从孩子的脑袋里删除这句话。
在避风港规则这个传统的“安全港”机制无法适用于生成式人工智能,且对服务提供者是否属于技术服务提供者存在巨大争议的情况下,有必要探索适合生成式人工智能服务提供者的新“安全港”机制。OpenAI公司的CEO也认为应该为生成式人工智能等大模型创设一种全新的责任机制。[17]这个“安全港”机制一方面激励服务提供者进行安全投入,防范内容风险;另一方面,在其符合立法者为其设计的免责条件后,免除其内容责任。通过“安全港”机制的设计,实现兼顾产业健康发展和内容风险防范的双重政策目标。对这个新的“安全港”机制,我们作出如下探讨:
(一)需要探索合适的服务提供者免责条件
“安全港”的核心是有条件的免责,这个条件其实就是对相关主体合规路径的设计,[11]相关主体按照设计的合规路径进行了有效的合规,就可以满足免责条件,从而免除其法律责任。参考避风港规则,生成式人工智能服务提供者的免责条件应以其采取的必要措施为核心。这里的必要措施是指阻止违法和不良内容的措施。阻止措施包括事前和事后措施,事前措施是指防止违法和不良内容生成,或生成后阻止这些内容发送给使用者。事后阻止措施是指在违法或不良内容已经生成并发送给使用者的情况下,采取必要措施防止同样的违法或不良内容再次生成,以及采取必要措施阻止这些违法或不良内容的传播。
(二)服务提供者“安全港”机制的核心是必要措施
应当根据生成式人工智能的特性,探索适合其采取的防范违法和不良内容的必要措施。《生成式人工智能管理办法意见稿》在这个方面已经进行了探索,其第15条规定了两种措施,内容过滤和通过模型优化训练等方式防止再次生成(以下也简称为“重新训练”)。这两个措施是根据生成式人工智能特性所设计的必要措施。内容过滤主要是在内容生成过程之外,通过在内容生成前阶段,对训练数据的过滤;以及在内容生成后,但在内容发送到使用者之前的过滤,来防范违法和不良内容。仍以上文提到的孩子说脏话的例子来说明,为了防范孩子不说脏话,对给他看的书籍、电视等材料进行过滤,去掉有脏话的部分;然后再在孩子嘴上装一个过滤器,即使孩子说出了脏话,也要经过一层过滤,防止他人听到。通过模型优化训练等方式防止再次生成,实际上就是让人工智能“遗忘”特定的违法和不良内容。但正如上文所言,这个成本是较高的。这就好比让一个孩子在已经学会说脏话后,再重新训练让其不再说脏话,并且是特定的脏话,这是比较难的。因此,重新训练作为必要措施应该具有较高的启动门槛,在具有很高的内容风险时才启动,例如有重大的国家安全和公共安全风险时。这两种必要措施中,内容过滤既可以作为事前阻止措施也可以作为事后阻止措施,而重新训练则主要是事后阻止措施。
内容过滤和重新训练是直接阻止违法和不良内容的必要措施。除了这些直接措施,还有一些间接性措施也是服务提供者防范违法和不良内容的重要必要措施。这些间接性的必要措施包括对使用者的提示和管理、[18]展开安全评估、[19]对用户进行真实身份认证[20]以及上文已经讨论的披露措施等。
(三)制定适当的义务标准
义务标准问题也非常重要。当立法上为服务提供者规定采取必要措施防范内容风险的义务,马上会面临义务标准的问题,即服务提供者采取必要措施到什么程度可以视为已经履行了义务。以内容过滤措施为例,义务标准问题是服务提供者在事前和事后采取的内容过滤措施达到何种标准,就可以视为已经履行了义务,从而可以免责的问题。当然,义务标准的制定也需要逐步探索。前期可能是较为原则性的标准,例如“善良管理人”标准或者行业内平均水平标准,从而使得标准更具有弹性,可以适应产业和技术的新变化。在经验积累到一定程度后,标准还是应该更加具体化,以增加法律的确定性,给服务提供者以更清晰、更稳定的预期。义务标准的具体化可以考虑由权威机关组织制定国家标准的方式进行,这方面仍然可以参考避风港规则方面的实践。国家知识产权局牵头,多部门共同参与制定了《电子商务平台知识产权保护管理》的国家标准,其中对电子商务平台经营者在避风港规则下的一系列义务,包括对侵权通知的受理和审查、采取必要措施和转通知等义务的内容进行了进一步的明确。[21]在生成式人工智能服务提供者履行义务的标准方面,也可以做类似的探索。
(四)服务提供者的“安全港”机制要与使用者的内容责任相兼容
正如上文所言,人工智能内容的生成过程中,使用者可能也会产生重要的影响,因此仅规定服务提供者的内容责任,而不规定使用者的内容责任是不合理的。因此,必须对使用者的内容责任予以规定。并且,使用者的内容责任规则应与服务提供者的“安全港”机制相兼容。这可以从以下两个方面考虑:一是明确使用者需要承担法律责任的情况,至少应该包括:使用者故意利用人工智能生成违法或不良内容;使用者违反法律法规规定或服务提供者制定之合理的用户协议,使用人工智能生成违法或不良内容。[22]二是要明确使用者承担法律责任的情况下,服务提供者与使用者共同责任的承担问题。如果服务提供者已经按照法律规定采取了必要措施,仍然产生了违法或不良内容,则服务提供者可以进入“安全港”,仅由使用者承担法律责任。如果服务提供者未按照法律规定采取必要措施,不能进入“安全港”,则可能出现提供者与使用者承担共同责任的情况。这种共同责任如何承担,将是一个十分具有挑战性的问题。在避风港规则之下,类似的情况下,由网络平台与内容提供者承担连带责任。但在生成式人工智能的情景下,这种连带责任的设计是否仍然合理,需要再深入探讨。
注释
[2] 《生成式人工智能管理办法意见稿》第5条规定:“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。”[3] 参见《深度合成管理规定》第22条。[4] 参见《生成式人工智能管理办法意见稿》第20条。[5] 参见《网络信息内容生态治理规定》第41条。[6] 参见《深度合成管理规定》第7至12条。[7] 例如建立和公开管理规则和平台公约,与《中华人民共和国电子商务法》第32条、33条规定电子商务平台经营者应当制定平台服务协议和交易规则,并在首页显著位置持续公示平台服务协议和交易规则信息的要求相似。参见《中华人民共和国电子商务法》第32条和第33条。[8] 《深度合成管理规定》第10条第3款规定:“深度合成服务提供者发现违法和不良信息的,应当依法采取处置措施,保存有关记录,及时向网信部门和有关主管部门报告;对相关深度合成服务使用者依法依约采取警示、限制功能、暂停服务、关闭账号等处置措施。”第12条规定:“深度合成服务提供者应当设置便捷的用户申诉和公众投诉、举报入口,公布处理流程和反馈时限,及时受理、处理和反馈处理结果。”[9] 《网络信息内容生态治理规定》第10条第1款规定:“网络信息内容服务平台不得传播本规定第六条规定的信息,应当防范和抵制传播本规定第七条规定的信息。”第16条规定:“网络信息内容服务平台应当在显著位置设置便捷的投诉举报入口,公布投诉举报方式,及时受理处置公众投诉举报并反馈处理结果。”[10] 例如使用者要求人工智能去某个网站抓取特定内容用于生成。[11] See Peter Henderson .Law, Policy, & AI Update: Does Section 230 Cover Generative AI? https://hai.stanford.edu/news/law-policy-ai-update-does-section-230-cover-generative-ai, April 15, 2023 accessed.[12] See S.1993 - A bill to waive immunity under section 230 of the Communications Act of 1934 for claims and charges related to generative artificial intelligence. https://www.congress.gov/bill/118th-congress/senate-bill/1993/actions?s=1&r=1. 议案文本见:https://www.hawley.senate.gov/sites/default/files/2023-06/Hawley-No-Section-230-Immunity-for-AI-Act.pdf.[13] See Matt Perault:Section 230 Won’t Protect ChatGPT,https://www.lawfareblog.com/section-230-wont-protect-chatgpt?__cf_chl_tk=eewdD1rG6JEI1GFkq5qaFIkIlpNCQ0AlEf4aSv7DZmU-1683183125-0-gaNycGzNCxA,April 15, 2023 accessed.[14] 美国的相关观点如上文所说的美国最高法院大法官的观点。[15] See Matt Perault:Section 230 Won’t Protect ChatGPT,https://www.lawfareblog.com/section-230-wont-protect-chatgpt?__cf_chl_tk=eewdD1rG6JEI1GFkq5qaFIkIlpNCQ0AlEf4aSv7DZmU-1683183125-0-gaNycGzNCxA,April 15, 2023 accessed.国内的相关研究可参见徐伟.论生成式人工智能服务提供者的法律地位及其责任——以ChatGPT为例[J].法律科学,2023(04):69-80.[16] 例如搜索的场景下即是如此。[17] 美国国会1996年通过的《正当通讯法》第230条促进了社交媒体的兴起,该条款保护网站免于对用户的帖子承担责任。OpenAI的首席执行官(CEO)Sam Altman在2023年5月16日(美国东部时间)举行的美国参议院听证会上表示:生成式人工智能现在没有办法受到230条的法律保护,应该制定新的法律保护大模型不会因为输出内容而独自承担所有法律责任。See Durbin Questions Witnesses During Judiciary Subcommittee Hearing on Oversight of Artificial Intelligence, https://www.judiciary.senate.gov/press/dem/releases/durbin-questions-witnesses-during-judiciary-subcommittee-hearing-on-oversight-of-artificial-intelligence, May 16, 2023.[18] 提示是指服务提供者应该提示用户合法使用生成式人工智能服务,并为其合法使用提供必要的协助。管理是指制定相关的用户使用规则,对违规使用服务,生成违法或不良内容的用户采取警示、暂停服务、停止服务等措施。相关规定可参见《深度合成管理办法》第8条、第10条第3款;《生成式人工智能管理办法意见稿》第18条第1款。[19] 相关规定可参见《深度合成管理办法》第15条、《生成式人工智能管理办法意见稿》第6条。[20] 相关规定可参见《深度合成管理办法》第9条、《生成式人工智能管理办法意见稿》第9条。[21] 参见《电子商务平台知识产权保护管理》(GB/T 39550-2020),载国家标准全文公开系统,http://c.gb688.cn/bzgk/gb/showGb?type=online&hcno=E315E3B122771E0D38B843BC19E6E5F4。[22] 当然,上述两种情况存在交叉之处。
作者简介
李卓霖,广东财经大学智慧法治研究中心研究人员
声 明
本公众号原创文章的著作权均归属于AI与网络法团队,需转载者请在本公众号后台留言或者发送申请至cyberlaw2018@outlook.com,申请需注明拟转载公众号/网站名称、主理者基本信息、拟转载的文章标题等基本信息。
本文并非针对任何产品或服务的法律意见书。本文结论仅是根据作者搜集的资料产生的、暂时性的理论研究结论,可能存在不准确。本文不代表任何人或机构的正式意见。本文仅为交流之用,所有内容不构成对任何个案的意见、建议或观点。作者和本公众号明示不对任何根据本文任何内容的作为或不作为所导致的后果承担责任。
❖
关于AI与网络法团队:
我们的目标是原创与分享人工智能和网络法领域最前沿的文章与资讯,为中文世界带来更多的知识增量。
联系方式:
cyberlaw2018@outlook.com
更多往期文章请点击: