高阳|通用人工智能提供者内容审查注意义务的证成
2023年11月6日,OpenAI公司推出了GPT4-Turbo,12月6日谷歌公司的Gemini诞生,这两款模型无论从学习样本的数据量级,还是生成内容的可扩展性等方面,均得到进一步的优化与升级。可见,生成式人工智能正朝着通用人工智能这一终极目标稳步前进。所谓“通用人工智能”(artificial general intelligence,简称AGI)是指“具有理解、学习和运用知识解决跨领域任务能力的人工智能,它具备认知灵活性、适应性和解决问题的通用技能”。概言之,它具有完成任何目标工作的能力,并且可以像人类一样思考甚至比人类更聪明。
以ChatGPT为代表的生成式人工智能是通用人工智能发展的必经阶段与具体应用,两者在内容生产机理方面具有一致性,由内容引发的信息内容安全问题亦具有可类比性。通用人工智能为人工智能产业提供基础架构,具有极强的泛化性、跨领域性、多模态性等特征,在生成式人工智能中产生的任何内容风险,均将蔓延至通用人工智能并可能引发人工智能产业链的连锁反应。现实中,用户在与大语言模型互动过程中,极易受到有害信息的侵害。学者将有害信息主要分为3类:(1)仇恨、歧视性;(2)攻击、诽谤性;(3)粗鲁、不道德性。大语言模型如果长期输出此类有害信息影响用户,势必造成人类社会价值崩塌。因此,通过对生成式人工智能内容风险法律规制的研究,有助于厘清通用人工智能时代的内容侵害的防范路径与规制手段。
当前,生成式人工智能内容风险的法律规制引起了全球的高度关注。美国白宫发布了《安全、稳定、可信的人工智能行政令》(以下简称《行政令》)、欧盟的“人工智能法案”和我国国家网信办等七部门联合公布的《生成式人工智能服务管理暂行办法》(以下简称《办法》),均试图通过风险防范的治理手段将预期的损害风险控制在社会可以接受的合理限度。需要注意的是,无论是安全评估、算法备案还是审计等干预手段都不能保证大语言模型不再生成有害信息。生成式人工智能在实际运行中造成用户或第三人损害的侵权责任归责问题,引起学界的普遍关注。现有研究明确无论是生成式人工智能抑或是通用人工智能均不可能具有主体资格,应由人工智能提供者承担侵权责任,在归责原则方面不能适用产品责任,应通过一般侵权责任制度辅之以过错推定规则予以调整。但对于人工智能提供者的注意义务,学界少有关注。
《办法》第4、7、8等条款从行政管理角度规定了生成式人工智能提供者在内容生产过程中需履行的法定义务,依据侵权责任法,即使生成式人工智能提供者遵守了法定义务,也不能证明其完全没有过失,行为人还必须证明自己已经尽到了合理谨慎的人在特定情形下所应尽的注意义务。何为生成式人工智能服务提供者应尽的注意义务?有学者指出,生成式人工智能提供者需要承担内容管理义务与内容责任。以实现“内容生产者”的规制目的,提供者需在服务应用层做好过滤审核。反对者则认为,生成式人工智能提供者对内容控制力较低,不宜要求它对自动生成内容负有一般性审查义务。从经济效率角度,亦不应由提供者承担主动审查义务。通用人工智能相较于生成式人工智能,具有更强的创作能力与自主性,提供者在内容生产的过程中,是否负有内容审查的注意义务,有待商榷。
针对通用人工智能提供者内容审查注意义务的界定,需厘清以下几个问题:(1)通用人工智能服务提供者应遵循哪类主体的“理性人”标准?(2)通用人工智能提供者是否需承担内容审查的注意义务?(3)通用人工智能提供者注意义务具体内容该如何界定?本文从通用人工智能内容生产机理出发,通过与传统网络提供者的横向对比,厘清法律属性。在此基础上,探究通用人工智能提供者注意义务设立的学理基础,并提出构建方案,以求教于方家。
二、通用人工智能提供者法律地位的特殊性
基于目前生成式人工智能迭代的速度及相关技术的发展,通用人工智能已近在咫尺。从计算机技术角度来看,通用人工智能是生成式人工智能的进阶、优化版。基于两者内容生产机理的一致性,通过对生成式人工智能内容生产方式的剖析,有助于理解通用人工智能的创作逻辑。
(一)“以数据为中心”的内容生产逻辑内嵌风险
作为直接生成应用文本型AI,ChatGPT类大语言模型是经强化的人工智能深度学习模式,其颠覆性地改变了人类获取知识的DIKW传统方式,通过用户指令提问的方式即可调用大模型中所蕴藏的知识。ChatGPT之所以可以实现知识提供的便利性,依赖于海量数据的“喂养”,学者将其称为“一个需要无限吞噬数据或投放语料库的‘科技怪胎’”。
具体而言,人工智能内容生产以数据为首要性、决定性的逻辑起点,大语言模型先行适用数据、算法模型、网络和算力等技术构建基础设施层,经过基础设施层的数据收集与预处理、模型层数据训练、应用层数据输出的层层加工与处理,最后以指令微调的方式调用大语言模型习得的知识在应用层输出结果,从而创建模仿人类行为和创造力的新内容。由此形成了数据收集—数据预处理—数据训练—用户提示词输入—AI生成内容的生产模式。以此类比,通用人工智能提供者内容生成不仅依赖于训练数据文本质量,更是基于用户输入的提示词。因此,有害信息的产生主要来源于两种途径:
第一,通用人工智能系统自发生成有害信息。通用人工智能内容生产的过程亦是数据训练、加工等处理的过程,在内容生产全周期中,任一阶段的数据质量瑕疵均可能导致有害信息的生成。(1)数据质量引发错误、偏差信息。实践中,“喂养”ChatGPT算法模型的海量数据来源于开源数据集合如Wikipedia、ROOT等,GPT-4更是利用爬虫技术从互联网中抓取数据。这意味着数据集在多样性、代表性、真实性方面可能存在缺陷,此类数据运用于大模型训练中势必导致输出结果的错误。(2)数据训练导致刻板印象加剧。研究表明,模型中的编码经常无意中将含有违背核心价值观的偏见数据用于训练,如GPT-3使用CommonCrawl数据进行训练,生成文本中曾出现过女性不如男性、黑人是罪犯等高毒性句子。因此,适用“毒性”数据文本训练模型将强化对特定群体的负面刻板印象。(3)数据输出与反馈渗入标注人员的偏好。大模型适用人类反馈的强化学习(Reinforcement Learning with Human Feedback,RLHF)机制循环地反复训练,当原始模型输出的内容在由标注人员建立的“人类偏好标准”的打分模型中分数较低时,它将受到惩罚,被要求重新学习。因此,大模型可能因为标注人员偏好的植入,导致生成不客观、非道德性的信息。
第二,通用人工智能系统受用户操控被动生成有害信息。大语言模型中,提示词扮演着至关重要的角色,其是模型生成有意义和相关性内容输出的关键因素。由于通用人工智能系统设计的灵活性与高度自主性,导致其容易受提示词操控发生“越狱”。“越狱”通常指对系统模型进行修改或扩展,使其生成原始数据训练未包含的内容,或者让其针对特定主题或语言风格生成特殊内容。这些修改可能涉及对模型结构、训练数据、损失函数等方面的调整,易使模型摆脱法律与道德准则的束缚,生成有害、不恰当或冒犯性的内容。如知名社交新闻论坛网站Reddit公布了操纵ChatGPT“越狱”的DAN(Do Anything Now,立即做任何事)方法。经测试,DAN会假装成为“百无禁忌”的独立AI,绕过OpenAI设定的限制,生成煽动暴力、侮辱他人、传播种族主义和鼓励非法活动内容。
综上,无论是自发生成抑或被诱导生成的内容,用户所能获得的信息皆是由通用人工智能提供的。相较于传统网络服务提供者的中介服务,通用人工智能提供者所提供的内容生成服务具有一定的独特性。
(二)通用人工智能提供者法律属性的界定误区及纠偏
从内容生产逻辑来看,通用人工智能与生成式人工智能均是通过自我学习掌握了遣词造句的规律,再由人类发号指令,由其推算概率最高的结果反馈给用户,学者将这一生产过程界定为“智能搜索引擎+智能文本分析器+智能洗稿器”。也有学者认为,鉴于大模型算法的复杂性,它的提供者客观上对生成的内容不具有控制性,应认定其为新型网络服务提供者。然而,《办法》第9条规定,生成式人工智能提供者应当依法承担网络信息内容生产者的责任。该条基于行政管理的需要,将生成式人工智能提供者认定为《网络信息内容生态治理规定》中的网络信息内容生产者。与生成式人工智能内容生产机理相同的通用人工智能,其究竟属于何种民事法律主体,下文将展开讨论。
1.通用人工智能提供者不属于网络服务提供者1996年,美国颁布的通信规范法(Communications Decency Act)被认为是互联网立法的里程碑,其将网络服务提供者分为网络内容提供者(Internet content provider,简称ICP)与网络服务提供者(Internet service provider,简称ISP),并规定网络服务提供者对于第三方提供的内容免于承担法律责任。我国亦采取了该种分类,依据《信息网络传播权保护条例》(以下简称《条例》),网络服务提供者是“为网络信息交流和交易活动的双方当事人提供中介服务的第三方主体”。它包括但不限于网络接入服务提供者、网络存储空间服务提供者、搜索引擎服务提供者、传输通道服务提供者等主体。其中,网络接入与信息传输通道服务属于基础电信服务,为实现用户接入网络、传输数据提供光纤、电网等设施,其法律地位类似于电话公司。网络存储服务提供者则是依据用户的指令,为用户提供信息存储空间服务的主体,如爱奇艺、优酷等视频网站以及微博、小红书等社交媒体平台。搜索引擎服务的功能在于信息定位,根据用户提交的关键词或目录为用户提供信息检索服务,并以链接列表的形式向用户反馈搜索结果,帮助服务对象定位目标信息。由此可知,传统的网络服务提供者并不向用户提供具体的网络内容,仅是为网络接入、数据流动与存储提供中介服务。
由上述可知,通用人工智能提供者为训练语言模型需存储语料库的数据集合、人机交互数据等,存储仅是“数据喂养”的辅助措施,依据用户指令调用语言模型中的知识完成内容的生成和输出方是其核心功能。搜索引擎提供者将所检索的信息以链接列表的方式呈现给用户,由用户决定所访问及采用的信息。不同于此,通用人工智能提供者并没有罗列各种可能的答案供用户选择,而是直接向用户提供自我学习后获取的知识,极大地缩短了用户从搜索引擎链接列表中寻求“最优答案”的时间。因此,通用人工智能提供者并非传统的网络服务提供者。
虽然新型的网络服务提供者并不属于传统的接入、存储、搜索引擎网络提供者,但其为用户获取网络内容亦是提供中介性的服务,并不直接提供内容。如P2P、NFT交易平台等。然而,通用人工智能具有自我学习能力,通过给定的数据集合学习其中隐含的规则,在与人类互动地过程中智能化地生成用户所需的数字文本。“具有文本生成能力的人工智能并不是在复制与还原人类自然学习物理过程、社会机制和知识逻辑中来重演自然语言对智慧的建构过程的”,而是根据用户的指令和提示,生成新的内容提供给用户。因此,其也不属于新型的网络服务提供者。
2.通用人工智能提供者属于新型网络内容提供者基于人工智能的发展沿革,斯坦福大学的尼尔斯教授将其分为弱人工智能(Weak AI)与强人工智能(Strong AI),弱人工智能仅可以完成有限的目标工作,它以提高人类智能为发展目标,并不能重现、复制人类智能。通用人工智能不同于弱人工智能,属于强人工智能,其具有合理程度的自我理解和控制能力,可以学习和模仿人类思维相关的认知行为。通用人工智能以人类神经网络建模架构为核心的深度学习技术突破了弱人工智能的机械性,赋予通用人工智能类似于人类的自我学习能力,使其可以在无人类监督的情况下,基于海量无标记数据输出“类人化”的结果。
当前,继“专业生成内容”(professional generated content,PGC)和“用户生产内容”(user generated content,UGC)之后,利用人工智能技术自动生成内容的新型生产方式被称为“人工智能生成内容”(Artificial Intelligence Generated Content,AIGC)。中国信息通讯研究院发布的2022年人工智能生成内容(AIGC)白皮书中指出,从技术能力来看,AIGC形成了三个层次的能力闭环:一是智能数字内容孪生,建立现实世界到数字世界一一对应的映射关系。二是智能数字内容编辑,通过现实世界控制和修改虚拟数字世界的内容,建立现实世界与数字世界的双向交互。三是智能数字内容创作,赋予人工智能算法内容创作和自我演化的能力,生成的AIGC产品具备类似甚至超越人的创作能力。因此,通用人工智能可以实现“类人化”甚至超越人类的自我创作。
从用户获取内容的方式来看,通用人工智能提供者属于内容提供者,但其不同于传统的网络内容提供者。第一,相较于传统的内容提供者,通用人工智能提供者对于生成的内容控制力降低。传统的内容提供者对内容享有完全的控制力,其是互联网信息内容的直接创建或提供方,它通过收集、选择、系统化、包装等方式实现信息内容的加工和生产,如iTunes。有学者指出“鉴于大模型算法的复杂性,通用人工智能提供者客观上难以完全控制什么内容会被生成”。第二,通用人工智能的创作行为需要人类的提示词予以激发。人类通过“提示词”无时无刻不引导大语言模型进行“微调”,模型与人类用户交叠增强,衍生出共生能动性的交流关系。而传统的内容生产由生产主体决定、控制内容的生成,无他人的协同配合。从本质上看,通用人工智能具有类人化的内容创作能力,其通过指令微调的方式调用大语言模型中的知识为用户提供了内容,因而,通用人工智能提供者构成新型的网络内容提供者。
三、通用人工智能提供者“生成”内容的负外部性
大语言模型生成的内容只是与用户输入的指令在语义上具有最大关联性,其正确性并不能得到保证,这种特质就决定了它们可能生成大量的虚假、误导信息导致负外部性。再之,训练大模型的数据集合无法保证涵盖所有的语言和命题,来自互联网环境中的虚假、错误、偏见、歧视等瑕疵数据亦将导致大模型生成有害信息。知名作家凯文·罗斯(Kevin Roose)指出,大语言模型核心的问题是它通过“有害”信息可以说服人类从事危险、破坏性的行为,甚至可能诱导人类进行自我侵害。有学者将人工智能生成的有害内容可能引发的法律风险归纳为:诽谤、与犯罪行为有关的言论、不当致死或致伤。亦有学者将人工智能引发虚假有害信息风险分为积极生成型、消极生成型和人为操纵型。从侵权责任法角度,通用人工智能提供者作为新型的内容提供者,依据其侵权行为的不同,有害信息可分为自发生成型与用户操控被动生成型。
(一)自发生成型引发直接侵权风险
通用人工智能算法仅是针对用户指令提供了概率最大的答案,该答案可能不具有真实性,甚至属于捏造、诽谤性内容而侵犯用户或第三人的名誉权、肖像权等人格权。如美国著名电台主持人Mark Walters因ChatGPT生成的内容中捏造虚假诉讼诽谤其挪用财产,向乔治州地区法院提出侵权之诉,要OpenAI公司承担赔偿责任。再如知名媒体人Ted Rall询问ChatGPT他与好友的关系时,ChatGPT编造了二人因作品剽窃而引发名誉权侵权纠纷的虚假故事。依据民法典第1156条的规定,侵权人承担赔偿责任应对具备3个要件:一是行为人必须有过错。二是要有因果关系,所谓“因过错侵害”表明的是因果关系的成立。三是侵害他人民事权益的存在损害后果。通用人工智能提供者作为新型的内容提供者,直接向用户提供了诽谤性有害内容属于作为的侵权行为,虽然内容仅是在与用户一对一的对话中生成,并未将有害信息予以扩散,其并不能禁止用户扩散诽谤性信息。而且,将含诽谤性有害信息的交互数据用于数据训练可能导致有害信息的再次生成。因此,对于通用人工智能自发生成的诽谤性信息,提供者在未尽到相关注意义务具有过错时,需承担侵权责任。
除此之外,通用人工智能生成的内容可以诱导用户自残或自杀。据报道,一名比利时男子d与名为Eliza的人工智能助手针对气候变化问题进行了长达6周的对话后自杀,男子的遗孀称在回应男子对生态环境的焦虑时,Eliza建议他为了减轻地球的负担而牺牲自己。再如一位10岁的小朋友要求亚马逊的Alexa推荐“刺激游戏”,Alexa告诉小朋友“硬币挑战”的游戏,即将硬币插入电源接口处测试是否会触电。这一致命游戏在社交媒体平台广泛传播,立即引发了家长的干预和公众的强烈抗议。试想,如果小朋友接受了挑战而导致受伤或身亡,通用人工智能提供者作为内容提供者未注意到用户未成年身份或怂恿用户自残具有过错时,亦应承担侵犯生命权、健康权等人格权的侵权责任。
(二)用户操控被动生成型诱发间接侵权
通用人工智能受用户操控,亦可能生成有害信息。实践中,OpenAI公司已极力识别并限制诱发系统“越狱”的提示词的使用,用户还是可以发现被禁指令的替换词轻松实现系统“越狱”。知名教授Mark Lemley在与ChatGPT互动的过程中,一步步引导ChatGPT生成关于Lemley罪责的内容,最终,ChatGPT指出Lemley因窃取公司商业秘密而承担刑事责任。事实上,Lemley教授是研究商业秘密的专家,ChatGPT学习到Lemley撰写的商业秘密论文,却在用户诱导下“无中生有”地编造出相关罪名。如果用户利用ChatGPT生成的虚假内容大肆宣传,使第三人遭受损害时,提供者未尽到注意义务,可视为其存在过错,因其为用户的侵权提供了帮助,与用户构成共同侵权,共同对遭遇损害的第三人承担侵权责任。此时的共同侵权行为人间不以意思联络为必要,“数人因过失不法侵害他人权利,苟各行为人之过失行为,抑或加害人其中一人故意,他人为过失,均为其所生损害之共同原因,即所谓行为关联共同,亦成立共同侵权行为”。换言之,用户故意与提供者过失行为相关联损害他人权利时,亦成立共同侵权。
由此可知,通用人工智能生成的有害信息已经对用户或第三人造成了严重的损害,带来了负外部性。依据经济学的原理,负外部性的化解需将其内部化,由通用人工智能提供者承担负外部性带来损害的社会成本。侵权责任法的目的在于合理分配损害,由通用人工智能提供者承担侵权责任可以实现外部性的内部化。依据侵权责任法,行为人违反预见及预防侵害他人权利的注意义务时,侵权责任成立。因此,厘清通用人工智能提供者的注意义务是解决负外部性问题的前提与基础。
四、通用人工智能提供者内容审查注意义务的学理基础
我国立法中鲜有关于网络内容服务提供者侵权责任的规定,相关侵权问题可适用传统侵权规则予以解决。民法典第1194条仅笼统地规定网络服务提供者直接侵权责任条款,并未对网络内容提供者的注意义务作出规定。《网络信息内容生态治理规定》第9、10条,《互联网信息服务管理办法》第15、16条等从行政管理角度规定了网络内容提供者负有对提供内容的合法性进行审查的义务。此类规制性规范具有明确保护范围,即旨在保护特定个人或特定人群且明确规定了行为准则,并建立了期待可能性时,可成为侵权责任法上的注意义务,违反该等规制性规范即未尽注意义务。但上述规制性规范旨在维护社会公众利益,并非以个人保护为目的,不能成为保护性法律。依据侵权责任法一般原理,传统的网络内容服务提供者负有对生成内容进行普遍审查的注意义务,围绕通用人工智能模型的提供者对有害信息是否负有内容审查的注意义务,学界产生分歧的解决,需从法理入手为其设定注意义务寻求理论基础及正当性的依据。
(一)通用人工智能提供者承担内容审查注意义务的理论依据
衍生于传统传播学的数字守门人理论与民法的安全保障义务理论,可以为通用人工智能提供者承担内容审查注意义务提供学理基础,具体分析如下:
1.数字守门人理论“守门人”理论起源于传播学与信息学领域,这一概念由最早由库尔特·卢温(Kurt Lewin)提出,他认为,“信息传播的过程中,需要通过不同的‘关卡’,那些能够决定信息是否能够通过‘关卡’的人或机构被称为‘守门人’”。传统意义上的“守门人”指的是新闻、报刊等主体,他们需要在海量信息中根据受众群体的喜好、价值性等因素“把关”新闻信息的发布类型,其负有管理、控制信息进出入关卡的责任。“守门”(或把关)是指控制信息通过关卡的方法,如选择、编辑、展示、整合、删除等一切控制信息的机制,关卡则是指人类获取信息的平台或媒介的出入口。因此,“守门人”理论事实上是一种信息控制范式。数字经济时代,互联网逐渐具备了基础设施的基本属性,数字内容的传播超越了传统大众传播方式,数字守门行为逐渐表现为对数据的处理与控制。
随着信息网络技术的发展,越来越多研究表明,由于超大型网络服务提供者在数字环境中独特的影响力致使其获取并收集海量数据,从而掌控了世界上最有价值的资源。他们以数字时代社会交往管理员的身份,管理着平台上的言论活动,进而演变为数字守门人。1986年,Kraakman教授把“守门人”责任引入法律责任体系,历经Lawrence、Zittrain等学者的不断丰富与发展,终在2020年欧盟颁布的数字市场法(Digital Markets Act,以下简称DMA)中明确了数字守门人制度。该法案从竞争法角度首次规定了数字守门人的概念,并以义务形式规范数字守门人行为,以此形成事前规制来弥补事后监管的不足,开创了数字守门人行为治理的新路径。
在网络数字内容治理方面,同样是“权力越大,责任越大”。超大型网络服务提供者因用户的使用行为获得了巨大的数字红利及数字权力,却未承担起与之相对应的责任。以此类比人工智能领域,ChatGPT系列产品的问世极大地缩短了通用人工智能的研发周期,在相对短暂的时间段内引发了井喷式同类产品的研发和几何倍数增加的全球用户,从而确立了OpenAI公司在通用人工智能领域举足轻重的地位。OpenAI通过人机交互的历史对话数据获得了巨大的训练文本,但未明确数据挖掘、处理、加工规则,屡屡发生有害内容侵犯用户权益的事件。依据数字守门人理论,通用人工智能提供者具有信息生产、控制的能力,其负有数字内容的“监管”职责,应承担内容审查义务,积极发现并处置违法、侵权内容,以减少这些行为的社会危害。
通用人工智能的内容生成是在与人类一对一的对话中,自行判断、收集和学习新数据,联系上下文理解用户指令后,以接近人类使用习惯的表达进行创新内容的输出。在这一过程中,对话框中会出现什么语句和段落,既依赖于大语言模型中的数据链,又与用户输入的文本提示词在拟定过程中的微调和修正相关。通用人工智能提供者作为网络内容提供者,更是肩负数字守门人的职责,应以溯源治理的方式,采取相关技术措施,对数据训练集合、自发生成的内容进行审查。
2.安全保障义务理论安全保障义务源自德国法上的“交往安全义务”,是法官造法的产物。“交往安全义务是指开启或持续特定危险的人所应承担的、根据具体情况采取必要的、具有期待可能性的防范措施,以保证第三人免遭损害的义务。”该理论产生初期,适用于经营者在经营场所对消费者或者其他进入该场所的人之人身、财产安全依法承担的安全保障义务。近些年来,随着网络的发展与普及,德国联邦最高法院类推地将“安全交往义务”适用于网络运营者,将其责任定位于“妨害人责任”,创设了“面向未来的审查义务”。法院基于网络运营者是“危险源开启与控制”的主体,要求其对正在发生的侵权有义务排除,并对未来的妨害负有审查控制义务,从而使规制传统物理场所安全问题的“安全保障义务”延伸至网络空间,并成为今后各国立法的一个趋势。
现代社会工业化和信息化水平日益增高,网络运营者依靠信息技术构建的虚拟空间,已成为人类离不开的生活、交往空间。网络运营者作为网络平台架构者、控制者与获利者的特殊地位,需要履行维护网络平台安全性和稳定性的作为义务。我国已从公法角度规定了网络运营者的安全保护义务,如网络安全法第9条。《办法》第9条亦是规定了生成式人工智能提供者需履行网络信息安全义务,私法领域也应对提供者承担风险控制义务作出回应。
通用人工智能提供者作为新型的网络运营者,具备“开启、参与社会交往”及“给他人权益带来潜在危险”的两项特征。其作为危险源的开启与控制者,创设了它能但用户却无法控制的具有一定风险/危险的虚拟场所。它掌控网络平台生成的内容及用户数据,依据危险控制理论,提供者与用户承担共同侵权的连带责任时,其作为侵权人离危险源较近,对危险的控制力大于受害人,因而对防范该网络空间中的危险负有特殊义务,即根据具体情况承担采取“必要、具有期待可能性的防范措施”,以保护用户免受有害信息侵害的积极义务。
(二)通用人工智能提供者承担内容审查注意义务的正当性
通用人工智能提供者需承担内容审查的注意义务,无论从经济效率角度还是技术角度均具有合理性。所谓经济效率,即鼓励以合理费用预防意外事故,而不鼓励在安全上的超过投资,而对财富予以极大化、对成本费用予以极小化。例如,在Hendricks案中,法官认为,“被告只需用1.2万—1.4万美元的钢丝就能封闭整个水面,此与原告16岁男孩受伤害的风险相比,其成本微不足道。”因此,被告因过失而败诉。具体到通用人工智能领域,通用人工智能具有良好的通用性与泛化性,能够处理跨域任务。对于其产生的虚假信息、诽谤污蔑等内容风险与偏误置若罔闻,则将弥散至整个产业链之上,损害极大。因此,通用人工智能提供者需采取合理的预防措施,将自我监管介入点前置,在模型训练时便植入伦理规范以确保通用模型输出内容更符合人类的价值取向。
从技术角度,通用人工智能提供者内容生产全过程采取技术措施审查、过滤有害信息具有可行性。现有研究表明,大语言模型可用于分析、识别预料库中的有害信息。在此基础上,更有学者提出过滤语言模型可能产生偏见的方法。正是因为通用人工智能以大语言模型为技术基础,而大语言模型对有害信息的识别、监测与过滤能力已被科学家验证与应用。美国颁布的《行政令》提出了“以技制技”的方法,要求人工智能提供者在内容生产中实行“人工智能红队”机制,在受控环境下与人工智能开发人员合作,用对抗性方法动态跟踪、识别缺陷、漏洞,并依据职能系统生成的有害信息针对性地调整系统参数及架构。因此,由通用人工智能提供者承担预防成本低于有害信息带来的伤害或行业风险,应由提供者承担内容生产过程中有害信息审查的注意义务。
五、通用人工智能提供者内容审查注意义务的多维度构建
内容审查的注意义务要求通用人工智能提供者以谨慎“理性人”的标准可预见到有害信息的危险性,以合理的方式加以避免或防止损害的发生。“可预见性”不要求行为人对伤害预见到极为具体的程度,只要能够一般性地预见到伤害的现实可能即为足够。由于通用人工智能生成信息海量性特点,逐一审查将需要其投入巨大成本难以集中力量进行科技创新等活动,因此,其不负有对生成内容普遍审查的义务,但可借助于技术措施,实现特殊内容——有害信息的审查。需要注意的是,技术措施的合理、有效性不能采取结果主义,以技术性审查为标准,即其采取符合技术特点的内容审查、过滤机制就应当认定履行了相关义务。因为“理性人”标准是一种客观化或类型化的过失标准,即行为人应具其所属职业、某种社会活动的成员或某年龄层通常所具有的注意能力。通用人工智能现正处于飞速发展的初级阶段,并不能从技术上完成实现零有害信息,因此,应赋予其一般的注意义务而非较高的注意义务。根据通用人工智能提供者在有害信息生产过程中角色、职能的不同,其需履行的注意义务应结合它在具体场景下的预见能力进行差异性建构。
(一)“自发生成”场景下的注意义务
通用人工智能提供者自发“生成”内容时,基于上述内容生成机理,提供者可预见的风险为:数据质量瑕疵导致输出内容质量偏差和大语言模型随机生成有害信息。第一,由于训练大语言模型语料库数据质量对产出内容的关键作用,其可以预见语料库中含有的“毒性”数据将在输出内容中呈现或被放大。第二,算法黑箱以及内容生成机制的不透明,提供者有能力预见大语言模型可能随机生成有害信息。基于此,提供者负有侵权预见义务,即采取适当措施避免合理预见可能发生的危险。
1.数据训练集合“毒性”的审查义务从人工智能发展历程来看,无论是监督学习、无监督学习还是强化学习,数据训练对于内容的输出均起到决定性的作用。从比较法视野来看,欧盟率先将人工智能提供者对智能机器生成内容的注意义务前置,并通过调整侵权责任规则体系,实现人工智能提供者的法律责任明确化。2021年欧洲议会颁布的人工智能法案(Artificial Intelligence Act,AIA)第10条规定了高风险人工智能提供者对于数据训练、验证及测试过程中的注意义务,要求其对训练数据集合的可用性、质量及适当性进行评估,明确数据集合的优缺点,并对存在的缺点与缺陷采取相关措施予以解决等。鉴于审查义务属于注意义务的一种类型,通用人工智能提供者对训练数据集合的“毒性”,负有审查义务。
第一,审查数据集合的“毒性”,并采取合理、有效措施识别、过滤、降低数据“毒性”。研究表明,基于提示词的推理机制增强了有害信息识别的准确性,实现多种语言有害信息的分类监测。具体而言,首先,利用文本向量化技术将文本转化为数字向量或矩阵;其次,适用机器学习和自然语言处理技术算法分析数据;最后,检测模型利用单词嵌入技术如Word2Vec、GloVe等,根据单词在上下文的用法将其表示为高维空间中的向量,便于机器学习技术识别有害信息的模式与特征,如有害信息的常用单词、短语和句子结构的特定组合等,从而达到监测、识别有害信息的目的。在完成对有害信息的识别后,提供者需采取技术措施过滤、删除此类内容。
但是,训练数据集合的复杂性、体量之庞大,导致“有毒”信息的识别并不能做到完全精准。学者依据将“毒性”程度的不同将语言分为:仇恨言论、广泛意义的攻击性语言与两者均无。研究表明,大语言模型可以精准识别攻击性语言,但是,40%的仇恨言论被误认为是攻击性语言。通用人工智能作为一项对人类进步带来重大影响的新兴技术,其为人类生活带来便利的同时,亦带来了风险、冲击和变化,在对其进行治理时并不能追求绝对的“零风险”,而应在合理范围内将风险降至最低。
第二,审查人工标注数据的“毒性”,对于强化学习中标注的数据负有及时调整标注人员选拨程序、数据标注规则、更换标注人员的注意义务。标注人员对标注数据的影响,一方面,其固有的价值观会影响标注数据的公允性;另一方面,标注人员长期暴露在“毒性”如暴力、种族歧视、恐吓等文本中,有害内容势必会影响其心理健康,进而“反噬”训练数据。为防止标注人员的不良价值观污染数据,提供者在标注人员选拨、培训、定期评估其合格性方面负有注意义务。公开资料表明,亚马逊公司选聘数据标注人员的条件需满足:至少完成1000项人类智能任务,完成率达98%;回答3项关于合格性的问题且回答正确等。满足条件胜任标注工作的人员,会被严格限制标注数据的数量,一般不能超过100个文本。提供者在严控标注人员选拨条件的同时,亦需提供与之配套的人员管理,定期跟踪培训,实时监测等规则,及时发现、移除“有害”标注数据,以保证标注数据的质量。
2.大语言模型输出内容的动态审查通用人工智能提供者负有对大语言模型生成内容动态审查的义务,采取与“人工智能红队”相似的技术措施,实时识别、归纳、评估可能生成有害信息的种类及具体内容,并依据结果数据创建有效的安全干预措施。传统AI与通用人工智能主要区别在于,传统AI遵循算法设定的逻辑规则,而通用人工智能的神经网络学习行为仅能从统计学上进行描述,其固有的独立于自我学习能力的概率行为降低了对学习结果的可预测性。即使神经网络在完全可控的环境下进行训练,并及时阻止其进一步学习,也仅能通过统计误差范围对学习结果进行间接预测。由于大语言模型的生产内容的合规性和技术风险同时共存的背景下,在对文本的学习中并不能真正理解自然语言,从而可能生成“张冠李戴”“无中生有”的错误内容。由此,通用人工智能提供者需要对系统生成内容的安全性进行主动的监测,利用类似“人工智能红队”技术实时、动态地跟踪、掌握智能系统生成内容的质量,并依据出现的内容问题针对性地建立解决机制。
(二)“用户操控被动生成”场景下的注意义务
对于用户操控被动生成的有害信息,通用人工智能提供者负有对用户输入系统的内容进行审查的义务,尽管提供者并没有生成有害信息的主观故意,基于安全保障义务理论,提供者负有维护系统安全、内容安全的“角色责任”。“当某人在社会组织中占据独特位置或要职时,即对增进他人福利或以某种特定方式促进组织目标或宗旨的实现负有特殊义务,且有责任采取措施履行这些义务。这就是他的‘角色责任’”。它要求通用人工智能提供者承担监控数字内容,保护处于弱势地位用户权益的责任,并采取必要措施维护通用人工智能处于安全、可靠的状态,怠于履行此种责任,它将承担法律责任或受到道德谴责。因此,提供者需要对用户输入的内容进行安全审查。对于用户采用“假装”“DAN”等方法越过安全审查使系统“越狱”的行为,依据《办法》第14条规定,提供者对用户负有监管义务,其需采取预防侵权的合理措施,识别、发现高风险用户并进行信用惩戒。
实践中,网络服务提供者运用算法技术对用户进行风险筛查的作法得到了法院的支持。在“短视频平台封禁恋童账号案”中,郑某被某短视频平台以“涉嫌违反社区公约,涉及过度关注或浏览未成年人相关内容的行为”为由永久封禁涉案账号,郑某使用的手机也无法再注册、登录及使用该平台。郑某认为其并无违法行为,以某平台违约为由将其诉至法院。法院经审理认为,平台基于“私权力”应用算法技术识别发现原告涉案账号为涉及算法风险评估系统“护童专项”的风险用户,后经过“护童专项”队列人工审核后,确定郑某存在违规违法行为而对其进行永久封号,该做法并无不当。虽然算法审查会产生误判,提供者在合理期限内对误判进行纠正,亦可以免责。在“杀猪盘案”中,被告某征婚交友平台因原告李某涉嫌诈骗将其封号,并向其他网友提示称“账号可能存在异常”“不要与之发生金钱来往”等。李某以侵权名誉权为由将某征婚交友平台起诉至法院,经法院查明,李某与平台其他用户聊天的过程中,经常使用“金融”“基金”“加微信”等“杀猪盘”诈骗案件所涉高频词汇,因此自动触发了被告平台风控系统的审核规则将其封号,经原告致电客服反映情况,被告人工核实后对该账户进行解封。法院认为,平台为履行法律规定的监管义务,并辅以人工在合理期限内审核误判,属于已尽到合理注意义务而免责。因此,通用人工智能提供者可针对用户输入的内容采取类似于风险筛查的审查机制,履行注意义务的过程中,即使出现错误,在合理期限内纠正亦可免责。
(三)用户投诉——处置的注意义务
基于内容生产是一个动态迭代和优化的过程,在数据输出阶段,提供者需设立投诉、举报机制,对于用户主张涉嫌侵权的有害内容进行审查,确属侵权内容的,提供者负有侵权结果避免义务,即采取有效措施将该内容从预料库中删除、停止生成。OpenAI发布的《数据处理协议》指出,它可以因提供、支持和改进服务的目的使用人机交互的对话数据。换言之,用户与ChatGPT对话的数据将作为语料库用于训练语言模型。因此,输出阶段生成的有害内容由用户发现后,需由提供者予以删除、屏蔽。为了防止用户恶意投诉,对于有害内容设置分类投诉、举报机制。具体而言,一方面,对于违背社会主义善良风俗的内容,因侵犯了社会公共利益,任何人可以向提供者进行投诉或反馈。另一方面,因虚假、有害内容侵犯个人民事权利的,利害关系人可向提供者举报或投诉,并提交相关证据材料。提供者在接到投诉、举报后对有害内容进行审查,确属侵权内容应及时采取有效措施停止传输,并从语料库中予以删除。
往期精彩回顾
莫纪宏|论地方性法规的空间效力张明楷|不法原因给付与侵占罪的成否
宋志红|宅基地征收向宅基地收回的“逃逸”及其规制田振洪|党内法规实施后评估制度的地方实践探索与思考李翔|刑事案例指导制度统一法律适用的机制完善
上海市法学会官网http://www.sls.org.cn