【重磅】王利明:生成式人工智能侵权的法律应对|中国应用法学·高端论坛
中国人民大学法学院教授,中国人民大学民商事法律科学研究中心研究员
【编者按】ChatGPT的产生引发全世界广泛关注,被认为是一项革命性的技术,其出现不亚于互联网和个人电脑的诞生。技术的变革总是在法律世界中引发新的机遇与挑战,我们应当对这一技术变革引发的法律问题作出积极应对。就生成式人工智能而言,其产生的最大挑战就是潜在的侵权纠纷,如何在法律上进行应对是值得探讨的重要话题。基于此,本期特此推送中国人民大学王利明教授撰写的《生成式人工智能侵权的法律应对》一文,本文通过对《民法典》《个人信息保护法》的规定,对生成式人工智引发的侵权纠纷,如何界定侵权客体、侵权主体及侵权责任等问题进行了探讨。
*因篇幅限制,注释等有删减,如需引用请参见期刊原文。欢迎个人分享,媒体转载请联系本公众号。
生成式人工智能侵权的法律应对
文|王利明
(本文刊载于《中国应用法学》2023年第5期)
—
内容提要:生成式人工智能的发展所产生的最大挑战就是引发侵权风险,为此,需要在法律上准确界定侵权客体,即确定侵害何种权利;准确界定侵权主体,即确定谁构成侵权;准确界定侵权责任,即确定如何承担责任。针对此类侵权适用的归责原则主要是过错责任原则,并应类推适用“通知规则”,禁止深度合成、侵害他人合法权益,明确服务提供者对个人信息的安全保障义务,确定侵权责任的承担方式。虽然现行法的规定仍然可以应对生成式人工智能侵权纠纷,但未来条件成熟时,可以通过特别立法有效预防和处理生成式人工智能引发的各种侵权风险。
关键词:生成式AI 侵权客体 侵权主体 侵权责任
文 章 目 录
引言
一、侵害何种权利:侵权客体的界定
(一)侵害人格权
(二)侵害知识产权
(三)其他风险
二、谁构成侵权:侵权主体的界定
(一)服务提供者的责任
(二)用户责任
三、如何承担责任:侵权责任的认定
(一)归责原则主要适用过错责任原则
(二)应类推适用“通知规则”
(三)禁止深度合成、侵害他人合法权益
(四)服务提供者对个人信息的安全保障义务
(五)确定侵权责任的承担方式
结语
▐ 引 言
我们已经进入了人工智能时代,人工智能是未来新一轮科技革命和产业变革的核心力量,具有“大模型+大数据”特征的生成式AI,以亿万的庞大的数据为参数,具有更出色的生成能力,其用途极为广泛,且具有惊人的应用价值。ChatGPT产生以后,就引发了全世界的广泛关注,被媒体称为“有史以来向公众发布的最佳人工智能聊天机器人”。比尔·盖茨认为,它是一项革命性的技术,其出现的重要性不亚于互联网和个人电脑的诞生。如同瓦特发明蒸汽机是工业革命时代的标志,ChatGPT的诞生也有可能成为人工智能时代的里程碑。技术的变革总是在法律世界中引发新的机遇与挑战,我们应当积极拥抱这一技术变革,同时应当对这一技术变革引发的法律问题作出积极应对。就生成式人工智能而言,其产生的最大挑战就是潜在的侵权纠纷,如何在法律上进行应对,是值得探讨的重要话题。
▐ 一、侵害何种权利:侵权客体的界定
现代社会是风险社会,而生成式人工智能的发展和广泛运用,必然伴随“人工智能风险”。在各种可能产生的风险中,一个受到普遍关注的风险是因为生成式人工智能产生虚假信息等可能出现的侵权风险。ChatGPT一经出现,就引发了截然不同的观点。有的观点反对生成式人工智能的发展和普遍应用,其主要理由是其将会带来大量的侵权问题,甚至因为大量虚假信息的制造和传播,可能引发严重的社会问题。但是,正如硬币有正面反面一样,生成式人工智能也可以给人类社会带来大量的便利和好处,我们应当充分利用这些便利和好处。至于潜在的侵权问题和其他社会问题,则应当未雨绸缪地予以化解和解决。
首先应当看到,人工智能侵权具有自身的特殊性:一方面,人工智能侵权不同于一般的产品侵权。生成式人工智能不会对用户的生命权、身体权或者健康权造成严重损害,也不会给用户造成重大财产损失,因此与传统侵权法中的产品责任不同。这就决定了人工智能引发的风险,可以被控制在一定限度内。同时,不宜直接套用产品责任的有关规定解决人工智能引发的侵权纠纷。另一方面,人工智能侵权也不完全等同于传统的网络侵权。生成式人工智能虽然可以制造虚假信息,生成虚假图片,甚至由于现有技术的缺陷、训练数据的不可靠性导致产品出现“幻觉(Hallucination)”,因而可能公然地“胡说八道”。但是,这些虚假信息还是需要借助于用户或者其他主体的传播才有可能影响社会公众。因此,生成式人工智能产生的内容并不直接地具备公开性,其内容主要是向特定的用户提供的,只要用户不进行广泛传播,那么生成式人工智能生成的内容不会发生扩散,因此不会产生大规模的侵权现象。在这个意义上,生成式人工智能不同于传统的网络侵权。
生成式人工智能的重要特征体现在它的侵权客体上。与传统的侵权行为不同的是,ChatGPT引发的侵权行为,主要是侵害人格权和著作权。
(一)侵害人格权
以ChatGPT为代表的人工智能,给人格权的保护带来了新的挑战。具体而言,ChatGPT的出现,不仅会引发针对各类人格权的侵权行为,还带来了新的侵权形式,导致侵权类型的多样化。
第一,侵害隐私和个人信息。生成式AI可能引发大规模隐私或者个人信息泄露问题。大型生成式AI需要大量数据作为参数,而AI产品的提供者在训练AI产品时违规收集大量的个人信息,或者运用大量没有合法来源的信息训练AI产品,这就可能带来一些侵害隐私和个人信息的新形式。有研究发现,不法行为人有可能通过攻击大规模语言模型,提取出训练数据中的隐私敏感信息。如果像生成式AI这样的大规模语言模型,训练的数据中包含了隐私敏感信息,那么不法行为人就有可能通过攻击模型,来获得这些信息,从而发生隐私的泄露。而且,该研究还发现,语言模型规模越大,越容易受到攻击。还有研究指出,即使训练数据中没有某个人的个人信息,像ChatGPT这样的语言模型也有可能被用来推测他人的特征,如个人的性别、种族、性取向、年龄等,从而发生对隐私和个人信息的侵害。生成式人工智能在输出信息时,也可能非法利用他人的个人信息回答用户的提问,从而导致个人信息、隐私的泄露。
第二,侵害名誉权。大型生成式AI模型主要依赖消化人类文本输入生成输出产品,如文本、图像、音频、视频等,一旦这些输出的信息是虚假的,就有可能导致对他人名誉权的侵害。ChatGPT也会带来一些侵害名誉权的新形式。生成式AI的出现,导致虚假信息的大量生成和传播。OpenAI公司首席执行官山姆·阿尔特曼在接受采访中说,“我特别担心这些人工智能被用于大规模制造虚假信息”。例如,生成式AI如ChatGPT的“臆造”现象,可能会导致ChatGPT在回答问题时,编造有关他人涉嫌性骚扰、编造某人与他人非法同居等消息,造成对他人名誉的损害。还可能自动生成虚假图片、音频、视频、不仅可以“以假乱真”,还能够“无中生有”,导致对他人名誉、隐私等人格权益的侵害,生成式人工智能自动生成的包含虚假信息的图片、视频、声音,已经达到了以假乱真的地步,甚至生成式AI都难以辨别其生成的图片等是真实拍摄的还是自动生成的。如果这些虚假信息在产生之后,不法行为人利用这些信息传播,受众就很容易受到虚假的影响,造成对他人名誉等人格权益的重大侵害。
第三,侵害肖像权。因为生成式人工智能可以自动生成图片、视频,随着生成式人工智能的发展,其比深度伪造更加难以辨别。所以,利用生成式人工智能自动生成的图像,比深度伪造造成的损害后果更加严重,其不仅会侵害个人的肖像权,甚至可能透过图片、视频扭曲个人的形象,特别是当生成的图片涉嫌性骚扰、猥亵、非法同居等虚假信息后,将会造成对他人的名誉权、隐私权等权益的严重侵害。
第四,侵害死者人格利益。生成式AI的技术超越深度伪造,可以将死者的图像和声音汇集在一起,生成虚假的信息。例如,在自然人去世后,他人可以利用ChatGPT生成具有死者风格的文字,用来生成一些歧视、偏见、仇恨言论或者其他有毒害(toxic)的言论,事实上构成对死者人格尊严的侵害。又如,侵权人还可以利用生成式AI来模仿死者的口吻与死者近亲属进行交流,实施侵权,这样的行为也可能导致对死者人格利益的侵害。
(二)侵害知识产权
在生成式AI的训练和运行过程中,主要有两个环节可能会产生侵害著作权的行为。第一,在训练生成式AI的环节,需要使用大量的数据,这些数据当中可能存在他人享有著作权的作品。如果生成式人工智能使用这些数据的时候未经著作权人授权,有可能会侵害著作权。第二,在生成式AI生成内容的环节,生成的结果也可能会侵害他人的著作权。其生成的结果,如果使用了受著作权保护的作品或作品片段,或者构成对作品的演绎,就会落入著作权的控制范围。例如,在ChatGPT问世后,有人就利用它生成了受著作权保护的书籍的缩略版,用以帮助他人快速阅读书籍,由于此种行为会构成对原书的市场替代,很难构成合理使用,因此有可能会被认定为侵害著作权的行为。另外,有人利用ChatGPT去生成特定作者风格的作品,这种行为是否会侵害著作权,或者是侵害其他的权益,值得研究。笔者认为,如果行为人没有利用他人享有著作权的作品生成类似风格的作品,原则上不应当构成对他人著作权的侵害。
同时,生成式AI也可能侵害商标权。如果未经授权许可,在生成式图片中使用他人的商标,并将其作为某种广告宣传或者产品装潢,引发消费者的混淆,这就可能构成对商标权的侵害。
(三)其他风险
除了生成式AI产品自身存在着固有缺陷外,服务提供者也有可能会利用生成式AI实施侵权行为。例如,服务提供者有可能会利用包含个人信息或者享有著作权的数据来训练ChatGPT的模型;或者会通过操纵数据、参数、模型来影响输出结果,进而影响用户的行为和选择,对用户的利益造成损害。这是因为,生成式人工智能输出的信息,是受到训练所用的大量数据和语料的影响的,当这些数据和语料中包含着一些不正当的价值判断时,用户将会受到这些不当价值的影响,从而潜移默化地改变其行为和选择。随着生成式人工智能运用的场景越来越宽泛,由此造成的风险和侵权类型将会呈现逐渐扩大的趋势。
▐ 二、谁构成侵权:侵权主体的界定
生成式人工智能侵权的类型较为复杂,具体包括:第一,服务提供者可能未经同意,大量收集了涉及他人隐私、个人信息以及商业秘密等数据用于训练,此种信息处理行为可能构成侵权。第二,用户使用生成式人工智能的产品时,采取故意引诱等方式使生成式人工智能产生虚假信息,并且对虚假信息进行传播,这也可能构成侵权。第三,服务提供者开发的生成式人工智能生成各种虚假信息,或者生成具有侵权性质的文字、图片、视频等。因此,在生成式人工智能侵权中,责任主体具有复杂性和多元性,因而有必要区分不同场景,明确不同主体的责任。
《中华人民共和国民法典》(以下简称《民法典》)第1194条规定了网络用户和网络服务提供者的责任。不同主体利用网络侵害他人权益,应当承担侵权责任。严格地说,生成式人工智能的运营商与网络服务提供者存在一定的差异,具体而言:网络服务提供者的责任仅限于在网络空间中为用户提供访问、复制或者传播信息的服务时产生的责任,但是生成式人工智能并不一定要在网络空间中运行。一方面,只要可以访问生成式人工智能的模型,就可以使用该生成式人工智能的产品,因此在商业实践中可能存在不依赖于网络运行的“离线版本”的ChatGPT。另一方面,生成式人工智能生成的信息,是向用户个人提供的,而非向不特定公众提供的,因此这些信息只有用户个人知悉,不为他人所知悉。基于以上两个原因,生成式人工智能产生的侵权信息,不同于用户在网络空间中传播的侵权信息。但是,在生成式人工智能提供之后,用户利用其所生成的信息在网络空间中进行散播,此时,用户也是利用网络服务进行侵权,因此与《民法典》第1194条的规定具有相似之处,从而引发了是否适用网络侵权的避风港规则的问题。
对生成式人工智能同样如此。不同主体都有可能利用生成式AI侵害他人权益,都需要承担相应的侵权责任,因此在设计规则时,不能只考虑服务提供者单方面的责任。利用生成式人工智能侵权的情形多样,较为复杂。例如,在生成式AI的训练过程中,服务提供者对AI生成式人工智能输出的虚假信息,主观上可能是故意,也可能是过失,例如,有可能会非法利用他人的个人信息,从而构成对他人个人信息的侵权;利用算法有意生成虚假信息,但也可能是生成式人工智能自身固有的缺陷而产生的虚假信息,对用户而言,其主观过错也可能各不相同,其可能是故意诱导生成式人工智能产品输出虚假信息,也可能是因过失实施相关行为。
在责任主体方面,生成式AI引发侵权的情形,有可能会涉及多个责任主体,应当根据责任主体的过错程度,确定其相应的责任,具体而言,主要是会涉及服务提供者和用户这两类责任主体。
(一)服务提供者的责任
对于服务提供者利用生成式AI实施侵权,可以区分两种类型。一种类型是服务提供者通过积极作为的方式实施侵权,例如,服务提供者在训练生成式人工智能时故意利用了他人的个人信息;另一种类型则是服务提供者通过不作为的方式实施侵权,例如,未采取合理措施,导致系统出现漏洞或者被黑客攻击,发生数据泄露;再如,在运行中发现、用户举报的不符合要求的生成内容时,未在合理期限内采取内容过滤、模型优化训练等措施。也有研究表明,从问答系统开发者的角度,可以利用信息检索系统提供外部知识、有意识地提高模型的召回能力、在处理复杂问题前识别其复杂性并对其进行分解,从而在一定程度上可以避免出现幻觉现象。但如果服务提供者对此完全放任不管,可能会导致损害的进一步扩大。尤其是随着生成式人工智能的数据规模越来越大,如果数据的真实性和客观性难以保证,生成虚假信息的可能性会越大。
对服务提供者还可以进行另一种分类,即非法处理、泄露个人信息的责任与其他侵权责任。非法处理、泄露个人信息包括如下类型:第一,没有满足知情同意的要求,因此不符合《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第13条第1款第一项所要求的取得个人同意的要求。例如,非法爬取个人信息作为参数用于训练。第二,对已公开的个人信息进行不正当的利用,超越了合理范围的使用,违反了《个人信息保护法》第27条的规定。例如,服务提供者将网上的公开信息进行大范围的收集,最终生成虚假信息、图片和声音等,超越了处理公开个人信息的合理范围。第三,服务提供者可能因为没有承担安全保障义务而导致个人信息发生大规模泄露,或者被黑客攻击也可能发生个人信息泄露的问题。在这些情况下,网络服务提供者其实是一个个人信息处理者,其违反了个人信息处理者应当承担的相关义务,因此构成对个人信息权益的侵害,其应当承担的是个人信息处理者的责任。
非法处理、泄露个人信息不同于其他的一般侵权,表现在:首先,从法律依据来看,此种侵权适用的是《民法典》关于个人信息侵权的规定。其次,非法处理、泄露个人信息所应当承担的侵害个人信息责任,应当是推定过错责任(《个人信息保护法》第69条)。过错推定也称过失推定,它是指行为人因过错侵害他人民事权益,依法应推定行为人具有过错,如果行为人不能证明自己没有过错的,则应当承担侵权责任。《个人信息保护法》第69条第1款规定:“处理个人信息侵害个人信息权益造成损害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任。”之所以采取此种归责原则,很大程度上是因为在实践中,受害人举证困难已经成为个人信息保护所面临的一大困境,采用过错推定原则有利于减轻受害人的举证负担,强化信息处理者的举证义务,从而对受害人提供有效的救济。最后,依据《民法典》和《个人信息保护法》的规定,个人信息侵权责任存在特殊的救济机制,包括查阅复制权、更正补充权和删除权等,在服务提供者作为个人信息处理者的场景中,用户还可以向这些服务提供者主张个人在个人信息处理活动中的权利。
(二)用户责任
用户可能会利用生成式AI来生成虚假信息,此类行为也是发生生成式AI侵权的重要原因。有研究指出,从用户的角度,如果其能够尽可能地提供背景信息、提供尽可能具体的外部知识、将复杂问题分解成子问题,可以有助于避免出现 “臆想”现象,但是如果用户在与生成式人工智能交流中,采取故意诱导的方式(如有意增加某一单词出现的频率、调整该单词在句子中的位置或者给出与该单词具有关联性的单词),或者故意指责某人存在性骚扰等行为,要求生成式人工智能生成图片或引导生成式AI生成其想要的答案,甚至误导其生成虚假信息,这些行为本身表明用户是具有过错的。例如,用户在提问时要求生成式AI生成某人涉嫌性骚扰的新闻,就要承担相应的侵权责任。实际上这种情形就属于用户利用生成式AI实施侵权,如果该情形满足一般侵权行为的构成要件,那么用户就应当承担一般侵权责任。
用户责任的另一种典型形态是,用户利用生成式AI制作虚假信息,随后用户又将该虚假信息进行广泛传播。特别是在AI生成有关他人性骚扰、非法同居等情形下,用户对这些信息进行非法传播,以假乱真,将会严重侵害当事人的名誉权等人格权益。在这种情况下,由于生成式AI的服务提供者没有实施侵权行为,该生成式AI只是作为被用户不当利用的工具,因此该服务提供者无需承担侵权责任,用户应当承担全部的侵权责任。
▐ 三、如何承担责任:侵权责任的认定
面对生成式AI引发的侵权问题,法律上应当如何去应对?首先,在价值取向方面,面对像生成式AI这样的新技术带来的问题,民法上首先应当秉持鼓励创新、预防风险的价值取向。具体到侵权责任制度的价值取向,应当更加强调侵权责任制度的预防功能,而非制裁功能。也就是说,侵权责任制度的设计应当更加重视引导服务提供者和用户正确的行为,预防损害的发生,而非一味地加重侵权责任,进而影响企业创新的积极性。有一种观点认为,生成式AI服务提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责,保证数据的真实性、准确性、客观性、多样性。此种观点值得商榷。诚然,如果确实能够保障数据的真实、准确、客观、多样,对于防范虚假信息能够起到很好的作用,但目前现有的技术很难达到这一目的。因此,将防范虚假信息作为一种倡导性的行为是有意义的,但是作为一种严格的法定义务,要求在AI服务提供者违反该义务时要对其科以侵权责任,未免过于严苛。如此可能不利于鼓励技术创新。
(一)归责原则主要适用过错责任原则
如前所述,在服务提供者大规模采集个人信息的情况下,应当根据《民法典》和《个人信息保护法》的规定承担过错推定的责任,对此没有争议。笔者认为,对其他的侵权行为,仍然应当采取过错责任,这主要是因为《民法典》第1165条第1款确立的一般侵权责任,适用于一般侵权,如果在法律没有特别规定的情形下,原则上应当适用过错责任。尤其是就生成式人工智能引发侵权形态(除了侵害个人信息权益)而言,与一般侵权没有本质差异,理应适用过错责任。通过过错责任,在用户和服务提供者均有过错的情况下,可以利用过错进行分担,也有利于准确地认定各方主体的责任。
但是,对于在生成式AI产品的固有缺陷致人损害的情形下,采取何种归责原则,存在争议。一种观点认为,因为生成式AI产品的固有缺陷致人损害,就应当由产品的制造者承担责任,不考虑其是否存在过错,应当适用严格责任原则。。另一种观点认为,仅仅因为生成式AI产品的固有缺陷致人损害,还难以确定服务提供者存在过错,必须考虑这种固有缺陷是如何产生的,是否是现有技术难以克服的障碍,服务提供者是否尽到了最大的努力。对此类情形,仍然应当采用过错责任。由于AI引发的损害往往由多方面原因导致,各方均应采取合理注意义务避免损害发生。因此,AI设计者、AI使用者都应当采取适当注意义务,否则就应承担责任。在欧盟关于人工智能产品的规则中,将人工智能产品按照风险分为不可接受的、高风险的、有限风险的和最小风险四类,对于不可接受的风险禁止使用,对产品涉及高风险的运营商承担严格责任。
《民法典》侵权责任编对于一般侵权行为采取过错责任原则,适用《民法典》第1165条第1款,生成式AI侵权应当适用过错责任原则的重要理由在于:
第一,我们不能把生成式AI等同于一般的产品,也不能适用产品责任的归责原则,即不能将无过错责任原则简单地适用于生成式人工智能的侵权。生成式AI产品虽然属于一种产品,但它与一般产品仍然存在着本质的区别。毕竟以ChatGPT为代表的生产式人工智能只是一个大型语言模型,其主要是提供信息内容服务,不会像一般产品因为自身的固有缺陷导致对他人生命、健康、财产安全的威胁。虽然诸如自动驾驶汽车、医疗机器人等人工智能应用产品可能直接涉及生命、健康等重大利益,但以ChatGPT为代表的生成式人工智能一般不涉及这一类利益,其主要是为人们提供一般性的信息服务。即使在解答有关的医疗、问诊等问题,其也只是提供一种参考方案,具体是否采用,应当由使用者自己判断,除非是在解答比较少直接涉及生命、健康等重大利益的医疗问题等特定场景下。因而法律没有必要针对生成式人工智能的固有缺陷导致的损害科以无过错责任。
第二,生成式人工智能的固有缺陷可能会导致各种风险,但仍然可以采取各种方式来降低这种风险。它不像其他有些产品一样,产生的风险会直接作用于人并产生损害。例如,即便由于生产式人工智能的固有缺陷生成了虚假信息,这些虚假信息并不会立即直接导致损害,而且在生成以后,可以通过标识等方法降低其导致损害的风险。国家网信办等部门颁布的《生成式人工智能服务管理暂行办法》第12条规定:“提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。” 加注标识是生成式人工智能服务提供者应当负有的义务,通过加注标识,可以有效防止生成式人工智能产生的虚假信息的传播,以及因虚假信息所造成的大量的侵权后果。
第三,依照鼓励创新的价值取向,适用过错责任原则更有利于人工智能技术的创新和发展。目前,生成式AI存在现有技术无法完全解决的固有缺陷,例如,人工智能自身的设计缺陷使其产生各种“臆想(Hallucination)”,即会导致生成式AI经常一本正经地胡说八道,甚至编造出各种虚假信息。目前还没有研究表明,现有技术可以完全解决大型语言模型的“臆想”问题。如果适用无过错责任原则,一旦像ChatGPT这样生成式AI产品因为固有缺陷致人损害,服务提供者就要承担侵权责任,会导致服务提供者不敢轻易再将生成式AI产品投放市场,这会影响到相关技术的创新和发展。尤其是生成式AI产品致人损害的情形非常多样化,可能需要针对不同的情形予以不同的规制。适用过错责任,可以针对生成式AI产品固有缺陷致人损害的不同情形,设定不同的过错标准,有利于更有针对性地规制服务提供者的行为。例如,在人们向ChatGPT咨询医疗问题的情形下,服务提供者应当有更高的注意义务,采取一定的干预措施避免幻觉答案的出现,或者以明显的方式提醒用户,其提供的答案并不能代替医生的专业意见。
第四,生成式AI侵权主体是多元的,需要根据情形具体分析各方主体的过错,来分别确定其应当承担的侵权责任。因为AI产品出现虚假信息,在有些情形下主要是用户的责任。例如,用户可能会诱导生成式人工智能生成虚假信息。在这种情形下,不能认为如果服务提供者发现不了这些虚假信息,就需要承担侵权责任。相反,由于这些虚假信息可能是用户有意或者无意利用生成式人工智能生成的,用户应当有义务防止其传播,并通知服务提供者。如果服务提供者在收到通知后没有采取必要措施,导致损害的扩大,那么才有可能构成过错,需要承担相应的责任。另外,也要考虑因虚假信息构成侵权的服务提供者是否尽到了现有技术条件下最大的注意义务。
(二)应类推适用“通知规则”
通知规则也称为 “通知—删除”规则,或避风港原则,它是指在网络用户利用网络服务者提供的网络实施侵权行为时,权利人有权通知网络服务提供者采取删除、屏蔽、断开链接等措施,网络服务提供者接到通知应当及时将该通知转送相关网络用户,或者采取必要措施。只有在受害人通知网络服务提供者,要求采取必要措施以后,网络服务提供者才有义务采取必要措施以避免损害的扩大。关于在AI人工智能产品因散布虚假信息对他人造成损害的情形下,是否应当适用“通知规则”,在比较法上存在激烈争议。有观点认为,ChatGPT等生成式人工智能所产生的内容,并不是第三方所形成的,而是自行生成的,无论其输出的是基于训练数据而产生的数据,还是基于用户输入而产生的数据,本质上都是其自行输出的数据,因此造成的损害应当由服务提供者负责。此种观点主张,在美国现行法上,ChatGPT等生成式人工智能很难适用避风港规则,也不应对其适用避风港规则。
应当看到,反对ChatGPT等生成式人工智能直接适用“通知规则”的主要理由是,AI生成的侵权信息并非由“网络用户利用网络服务实施侵权行为”,而是AI自己生成的,因此在构成要件上不满足《民法典》第1195条所规定的通知—删除规则。尽管如此,笔者认为,利用生成式人工智能实施侵权与利用网络实施侵权在性质上具有“评价重心”的相似性,因此,AI生成虚假信息的侵权行为应当类推适用“通知规则”,具体而言:
第一,AI服务提供者无法一一审查AI生成的信息。无论是用户还是服务提供者利用生成式人工智能或者网络,都是将其作为一种侵权的工具。“通知规则”设立的一个原因,是因为网络平台上存在着海量的信息,网络服务提供者无法一一进行审查,难以保证不会出现侵害他人权益的信息。同样地,在生成式人工智能平台上,每天都在生成大量的信息,服务提供者也无法去逐一审查。AI产品出现虚假信息,并不是服务提供者所能完全避免和控制的。一方面,人工智能产品力图模仿人,但其设计仍然存在固有缺陷,不可能完全具备人类的推理能力。另一方面,生成式AI作为一项新技术,本身存在着不成熟的地方,以目前的技术难以完全避免一些漏洞。因此,其提供给人们的答案可能并不可靠。如果有人根据生成式AI臆造的答案来行事,就会存在风险,甚至可能会产生一定的损害(例如,按照生成式AI提供的医疗方案治病就会给自己造成损害)。因此,需要权利人和用户在运行和使用的过程中发现涉及侵权的信息,并通知服务提供者,不能因为在生成式人工智能平台上出现了涉及侵权的信息,就要服务提供者承担侵权责任。一旦虚假信息构成诽谤等,AI产品的制造者就要承担侵权责任,这实际上对其过于苛刻。
第二,AI服务提供者根据用户的通知删除侵权信息的成本较低。尽管AI服务提供者无法对AI生成的信息进行事前审查,但是在用户发现AI生成信息构成侵权并且通知AI服务提供者进行删除或者其他必要措施时,AI服务提供者可以以一种相对较低的成本删除相关信息。通过这一方式,AI服务提供者可以以较低的成本防范侵权行为发生的风险,符合“防范成本最低的主体承担责任的原则”或“最便宜的成本规避者(cheapest cost avoider theory)”理论。在这个意义上,倘若AI服务提供者在收到用户的通知后仍然不删除,那么其就对侵权信息的传播存在过错,应当承担过错责任。就此而言,AI服务提供者所要承担的侵权责任,实质上类似于《民法典》第1195条所规定的通知—删除规则。
综上所述,由于AI服务提供者一方面难以对AI生成的信息进行实时审查,且根据用户的通知进行删除成本较低,因此AI服务提供者也应当类推适用《民法典》第1195条规定的通知—删除规则。用户在使用中一旦发现虚假信息,应当及时提出,AI服务提供者在收到通知后应当及时删除该虚假信息。如果其未能在合理期限内删除相关的虚假信息,则其应当依法承担相应的侵权责任。如果服务提供者已经尽到了足够的注意义务,可以认定其不存在过错,不需要就任何内容引发的侵权承担侵权责任。该规则充分考虑了技术发展的现状,对服务提供者较为宽容,既有利于激励创新,也能在一定程度上督促服务提供者尽到足够的注意义务。
(三)禁止深度合成、侵害他人合法权益
所谓深度合成(Deepfake),是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术,通常是利用信息技术手段深度伪造他人肖像、声音等,深度合成本身并不为法律所禁止,但如果利用信息技术手段伪造方式形成高度逼真且难以甄别的图像、声音、视频,侵害他人的肖像等人格权,则为法律所禁止。从比较法上来看,欧盟委员会曾经制定发布《应对线上虚假信息:欧洲方案》《反虚假信息行为准则》等文件,美国国会曾经提出《2018 年恶意伪造禁令法案》,将利用深度合成技术制作不实信息纳入虚假信息打击范围,防范虚假信息的生成和传播。我国《民法典》第1019条规定:“任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。”这就从侵害人格权益层面对深度伪造行为进行了规范。需要指出的是,《民法典》第1019条将该类侵权规定在肖像权中,但现在涉及深度合成的侵权行为早已不限于肖像,从实践来看,已经出现了模仿他人声音、动作、文字的行为,可能涉及不同的人格权益乃至著作权,因此有必要扩张解释《民法典》的上述规定,将其适用到深度合成的各类行为。
利用深度合成、侵害他人合法权益,主要是一种侵害人格权益的行为。作为大模型+大数据的AI不仅可以广泛收集大量的声音进行训练,同时可以利用收集的声音数据模仿、自动生成或者将某人的声音与其形体、动作结合起来,AI可以模仿任何人、说任何话。一旦滥用深度合成技术,可能会导致非常严重的损害后果。而随着生成式人工智能的发展,其自动生成的图片、视频等比深度合成技术更加逼真,使得深度合成变得更加容易和逼真。甚至更可怕的是,其生成的虚假图片连生成式人工智能自身也辨别不了。此种侵权行为不仅会侵害他人人格权,深度合成的虚假的图片、视频、音频等,或者伪造某人从事某种活动的视频,会造成以假乱真的后果,甚至会使受害人蒙受“不白之冤”。为了预防采用生成式人工智能技术进行深度合成导致的侵权,应当要求服务提供者承担如下法定义务:一是要求服务提供者在训练生成式人工智能时,尽量避免大规模收集人脸、语音等个人敏感信息,《互联网信息服务深度合成管理规定》第14条第2款规定:“深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。”因此,如果不得不使用这一类信息,应当取得权利人的同意,并尽量对个人信息进行脱敏化处理。二是要求服务提供者要采取各种技术措施避免信息的大规模泄露,切实保障个人信息安全。三是要求服务提供者采取技术措施添加不影响用户使用的标识,提醒用户该内容是由人工智能生成的,以防止人工智能生成的虚假信息的广泛传播。从比较法上看,美国国会提出《2018 年恶意伪造禁令法案》等,要求在人工智能生成的虚假内容中应当包含嵌入的数字水印、清楚标识更改的音频或视频内容。在现有内容治理手段基础上,明确规定了通过添加技术“标识”的方式,帮助用户有效识别人工智能生成内容。我国《互联网信息服务深度合成管理规定》第17条规定,深度合成服务提供者提供某些深度合成服务,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。深度合成服务提供者提供本条规定之外的深度合成服务的,应当提供显著标识功能,并提示深度合成服务使用者可以进行显著标识。这些规定有利于尽量杜绝违法信息和虚假信息传播、避免用户的混淆或误认。由于这些义务属于法定义务,如果违反这些义务造成损害,就有可能构成侵权。
(四)服务提供者对个人信息的安全保障义务
由于生成式人工智能的参数规模和数据规模日益庞大,其面临的数据安全风险也越来越大,而且一旦发生数据泄露造成损害,就会形成民法上所说的大规模侵权。因此,为了防止这种大规模侵权,首先要重视风险的预防和防范。
在生成式人工智能的训练和服务提供过程中,AI服务提供者往往也会处理个人信息,例如在训练过程中可能使用含有个人信息的数据,在服务提供过程中可能收集用户主动输入的个人信息,此时该AI服务提供者也将构成个人信息保护法意义上的个人信息处理者,其应当承担个人信息处理者应当承担的义务与责任。《生成式人工智能服务管理暂行办法》第7条专门规定AI服务提供者作为个人信息的处理者,应当遵循《个人信息保护法》规定的原则和规则。因此,AI服务提供者应当承担以下义务与责任:
第一,AI服务提供者原则上应当取得个人同意才能处理个人信息,除非符合《个人信息保护法》规定的不需要取得个人同意的情形。对此,《生成式人工智能服务管理暂行办法》第7条规定:“生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:……(三)涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;……”在实践中,AI服务提供者可能通过爬取互联网上公开的个人信息,对AI模型进行训练。根据《个人信息保护法》第27条的规定,个人信息处理者可以在合理范围内对公开的个人信息进行处理,不需要取得个人同意。在这个意义上,实践中AI服务提供者在合理范围内对公开的个人信息进行处理,原则上不构成对个人信息权益的侵害。但是,《个人信息保护法》第27条还进一步规定,个人可以明确拒绝个人信息处理者对公开的个人信息进行处理。因此,当个人向AI服务提供者提出明确拒绝时,AI服务提供者不得继续处理个人信息。此外,该条还进一步规定,对个人信息的处理若是对个人权益造成重大影响的,应当取得个人同意方可处理公开的个人信息。根据这一规定,若是使用公开的个人信息训练AI模型将会对个人权益造成重大影响,那么AI服务提供者也应当取得同意后才能处理公开个人信息。
第二,AI服务提供者应该采取必要措施,保障个人信息的安全。AI服务提供者是否负有对个人信息和隐私的安全保障义务?对此存在争议,笔者认为,AI服务提供者大量收集他人的人脸信息、语音信息进行训练,可能导致信息泄露,或者大量自动生成各种虚假信息。因此,应当就人工智能的训练过程和服务过程分别加以讨论,具体而言:首先,在训练阶段,AI服务提供者对数据进行处理时,应当对敏感个人信息采取必要的安全保障措施,应当尽快建立数据分类分级保护制度。服务提供者在训练时应当尽量保证所收集的数据的质量。《互联网信息服务深度合成管理规定》第14条第1款规定要求深度合成服务提供者和技术支持者应当加强训练数据管理,这也可以适用于生成式人工智能。其次,在提供服务的阶段,AI服务提供者对用户的输入信息和使用记录承担保护义务,不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。最后,AI服务提供者在保存用户输入信息和生成式人工智能的输出信息期间,这些信息存储于AI服务提供者的服务器和数据库中,第三人可能侵入这些系统,造成用户个人信息的泄露。在这个意义上,AI服务提供者也应当对个人信息承担安全保障义务,采取各种技术措施防止个人信息的大规模泄露。当前,不法行为人特别是有组织的网络犯罪行为人实施网络攻击、大规模窃取个人信息和隐私,成为网络安全包括AI技术安全的重大威胁。有效应对黑客攻击、保障个人信息的安全,是AI服务提供者应该承担的重要义务。
(五)确定侵权责任的承担方式
我国《民法典》侵权责任编规定的侵权责任的承担方式主要是损害赔偿,此外《民法典》还规定了停止侵害、排除妨碍和消除危险请求权等绝对权请求权。但是,这种民事责任是否可以适用到人工智能,仍然是一个值得探讨的话题。
一方面,AI服务提供者作为民事主体,若是实施侵权行为,应当适用侵权责任法的一般责任形式,包括损害赔偿请求权和停止侵害、排除妨碍、消除危险等绝对权请求权。AI服务提供者的侵权责任承担方式,类似于网络服务提供者的承担方式,应当适用《民法典》侵权责任编中第1194条以下网络服务提供者的相关责任。用户利用AI制造虚假信息,并对该虚假信息进行传播,那么用户应当承担独立的侵权责任,至于AI服务提供者则不需要承担责任。用户以及用户进一步传播虚假信息所使用的网络服务提供者的责任,则按照传统侵权法的规则处理即可。至于AI服务提供者收集个人信息所涉及的侵权责任,则依据《民法典》和《个人信息保护法》的相关规定进行处理,例如AI服务提供者不当处理个人信息,个人信息泄露造成的损失等,均可以适用损害赔偿责任,且《个人信息保护法》第69条第2款还规定了获利损害的规则。但是,倘若一个AI存在固有缺陷,总是生成可能构成侵权的虚假信息,此时该AI的服务提供者应当如何承担责任就成了问题。在这种情况下,应当采取停止侵害、排除妨碍和消除危险的请求权进行解决。通过这种方式,既有利于维护民事主体的合法权益,也有利于鼓励人工智能技术的发展。
另一方面,AI服务提供者作为个人信息处理者,还应当承担《个人信息保护法》《民法典》所规定的个人信息处理者应当承担的民事责任。首先,AI服务提供者侵害个人信息权益造成损害的,应当适用《个人信息保护法》第69条第1款规定的过错推定责任,而非适用一般过错责任。其次,在AI服务提供者处理个人信息期间,个人还可以向AI服务提供者主张《个人信息保护法》第四章所规定的“个人在个人信息处理活动中的权利”,包括查阅复制权、可携带权、更正补充权、删除权和解释说明权。
▐ 结 语
生成式人工智能对侵权提出了新的挑战,但是仔细分析侵权的主体、客体和责任承担,可以发现生成式人工智能引发的侵权纠纷没有完全超出《民法典》和《个人信息保护法》的相关规定,现行法的规定仍然可以作为处理和解决此类纠纷的依据。因此,在《民法典》颁布之后,对于实践中出现的新问题,应当注重通过对《民法典》的解释应对新问题形成的挑战。当然,生成式人工智能作为一种新的技术变革,可能引发新的纠纷和其他的社会治理问题,而这就需要在未来条件成熟时,通过特别立法进行有效应对,从而预防和处理生成式人工智能引发的各种侵权风险,有效保障民事主体合法权益,促进人工智能产业的健康发展。
编辑:杨 奕
排版:覃宇轩
往期回顾
REVIEW
《中国应用法学》是国内专注法律应用和审判理论研究的学术期刊,由最高人民法院主管,中国应用法学研究所主办,2021-2024年入选CSSCI来源期刊扩展版目录,2022年入选中国人文社会科学核心期刊目录。办刊宗旨为:对司法实践问题及司法体制改革进行深入探讨,反映司法实务的最新动态和研究方向。围绕司法实践中的前沿问题,聚焦与司法应用有关的、社会性的、实证性的和冲突性的研究成果,立足高端、关注热点、把握前瞻、彰显权威、引领变革,努力打造理论法学成果向应用法学成果转化的高端研究平台。主要栏目包括:"习近平法治思想研究"“高端论坛”“本期特稿”“权威解读”“专题策划”“法学专论”“涉外法治研究”“法律评注”等。
《中国应用法学》投稿网站:
https://zyyf.cbpt.cnki.net/
《中国应用法学》订阅邮箱及二维码:
zgyyfx_issue@163.com
刊号:CN10-1459/D.
订刊电话:
刘老师 13240059637/010-67555935李老师 18612717797/010-67555917