查看原文
其他

朱嘉珺:生成式人工智能虚假有害信息规制的挑战与应对——以ChatGPT的应用为引

朱嘉珺 比较法研究
2024-09-04

作者:朱嘉珺(苏州大学王健法学院副教授,法律博士)

出处:《比较法研究》2023年第5期



目次

一、生成式人工智能的运行特点与范畴界定

二、生成式人工智能引发的虚假有害信息风险三、生成式人工智能触发的虚假有害信息之规制隐忧四、对生成式人工智能产生的虚假有害信息的规制应对


摘要:以ChatGPT为代表的生成式人工智能引发的虚假有害信息风险极为复杂,涵盖“积极生成型”“消极生成型”和“人为操纵型”等多种情形。依靠其独特复杂的内外部因素,生成式人工智能打破了学术界与实务界迄今关于搜索引擎算法“不能、不想、不愿”生成虚假有害信息的所有立场分歧与理论认知,更是在法律定位、归责认定上对现行网络虚假有害信息相关法律规制发起了挑战。有鉴于生成式人工智能的类通用属性,对其规范应当超出一般算法的规制框架,以人工智能基础性立法为基底建构特定的算法诽谤规制路径。一要坚持层级治理的规制逻辑,建立多元主体协同共管机制、设立涵盖多责任主体的内容监管机制、创建具有高拓展性的风险监测机制;二要在“刺破人工智能面纱”原则的基础上,探索生成式人工智能为责任主体的新型诽谤救济规则,包括探寻以“AI价值链”为导向的归责方法,以及适用于过渡期的暂代型诽谤救济模式。关键词:生成式人工智能;ChatGPT;虚假有害信息;诽谤;AI价值链



  自2022年年末人工智能研究公司OpenAI向全世界开放ChatGPT的自由访问权后,以其流畅的问题应对和强大的文本处理功能,ChatGPT迅速由一款人工智能聊天工具升级成了一场波及全球的文化现象。狂欢背后却是深层次的隐忧。长期研究网络虚假有害信息的互联网公司NewsGuard联合CEO坦言:“ChatGPT将成为互联网上最强有力的散播虚假信息的工具。”而被称为“AI教父”的图灵奖获得者辛顿更是发出了警告:“生成式人工智能正在制造大量虚假的文本、图片和影像……若没有及时准备好相关法规和有效控制手段,人类在未来将对AI彻底失去控制。”上述言论并非危言耸听,支持ChatGPT的关键技术“生成式预训练转换器”(GPT)发展到了第四代,其智能化程度已被多位科学家拉到了警戒线级别。与此同时,生成式AI家族的另一代表模型“生成式对抗网络”(GAN)所支持的智能工具Deepfake、Stable Diffusion等也纷纷跃然台前,尤其是Midjourney V5的出现,更是被媒体称为“可与GPT-4共同织就生成式AI新纪元”的具有划时代影响的AI绘图工具。令人警醒的是,Midjourney迄今为止最大的用途竟然是创造以假乱真的仿纪实类“新闻图片”。虽然利用AI工具去实施侮辱与诽谤的情形早在几年前Deepfake问世时就已出现,但AI技术的快速迭代,让虚假有害信息的识别难度进一步激增、传播频次更高、覆盖面更广、危害性更强;且不同于人为利用AI去实施侵权的情形,生成式人工智能技术的高自主性及应用领域的泛化性、交叉性与普及性,则让人工智能越过人为操纵直接实施侵权成为可能;而造成这一后果的根源,与生成式人工智能的运行特点密不可分。

01

生成式人工智能的运行特点与范畴界定
  自人工智能技术问世以来,全球已有50余种算法诞生,其中最为突出的就是以演化计算为底层模型的生成式人工智能。演化计算,顾名思义,是一种受到生物进化启发的优化算法,通过基于人群的引导式搜索,在以编码形式设置问题,并对生成的候选解决方案不断试错、筛选和迭代更新后,提高算法的适应度。目前演化计算的应用已拓展至人工智能的各个分支体系,尤其在计算机视觉(CV)和自然语言处理(NLP)方面取得了里程碑式的进步。
  (一)生成式人工智能的运行特点
  生成式人工智能是基于生成式模型发展出的一类人工智能,以短时间内自主创建包括图像、音乐、自然语言等数字内容为主要特色。作为GPT-3、DALL-E-2等前沿AI模型的支撑架构,转换器通过自我留意机制(self-attention mechanism)允许模型去关注并参与到输入序列的任意部分,而其核心多头留意机制(multi-head attention)更是允许模型根据字符相关性去并行多次估算注意力,从而使产生的内容多样化。藉由此特性,通用智能得以加速形成,也成为了对科技、社会、法治乃至道德产生重要影响的关键技术基础。以GPT-3的训练模式为参照,生成式AI的运行特点可以概括为三方面。
  其一,预训练数据海量化。GPT构建的关键步骤是预训练转换模式,以提前训练海量和多样的未标签文本为必要前提。像GPT-3的训练数据遍及全球各类网站、书籍和百科要目,覆盖规模达千亿量级,以此允许模型在不同场景下通过对参数的调整来适应多种任务,进而提升学习语言结构的能力。不过,GPT-3要想实现通用智能,则需要以少调整,甚至不调整参数为目标。
  其二,运行目的不可知化。要达成上述目标,GPT-3需要在训练测试中减少样本依赖,实现运行目的不可知化,实质就是对“少样本”“单样本”和“零样本”情形进行综合。简而言之,“少样本”情形就是向模型展示少量的任务案例,要求模型以此为参照去完成新的任务;“单样本”情形是用自然语言对模型进行任务描述,并提供单次案例演示,要求模型去完成指定任务;“零样本”情形则只用自然语言对模型进行任务描述,不提供任何案例演示。可以看到,没有案例指引的情况下,GPT-3能独立完成对任务的理解,可类比于向人类下达同等任务,体现出了模型的高度自主性与应对问题的灵活性。
  其三,下游任务多样化。人工智能进行学习工作的流程被称为“人工智能管道”,生成式人工智能管道一般要经历预处理、标记化、创建目标库和完成下游任务四步骤。其中前三个步骤的目的,是将非结构化数据进行压缩处理,使之转化为带有语义信息的结构化数据,以此为完成第四阶段的下游任务提供生成内容的意义保障和语义嵌入的常识编码。由于生成式人工智能的下游任务几乎涵盖了所有语言处理的关键用途,包括问答、翻译、阅读理解和写作等,也确立了生成式人工智能在语言信息处理上大规模应用的基础。
  (二)生成式人工智能的范畴界定
  生成式人工智能并不存在确切的法律定义,我国新发布的《生成式人工智能服务管理暂行办法》更改了其原征求意见稿中的规定,仅就生成式人工智能技术的含义作了规定。根据该规定,生成式人工智能以人工智能生成内容(AIGC)为重要导向,强调在文字处理、绘画、音乐、编码等领域对人力成本的替代。与其他类型的人工智能的区别在于,生成式AI以更为庞大的数据集和运算力为依托,依靠对人类指示的意图信息提取来生成内容,并按照“基于人类反馈的强化学习”模式(RLHF)来确定最合适的应对方案,进而推动模型的稳定性与准确性。生成式AI类型多样,常见有市场应用与市场主体两种分类。
  从市场应用角度,可按照生成内容分为四种类型:(1)文字处理类。基于自然语言处理技术能自动完成文档起草与编辑、分析数据并生成报表、制作PPT、撰写会议纪要等文本工作。例如,Microsoft 365 Copilot就是将GPT-4全面接入Office,以实现办公全面智能化。(2)计算机视觉类。利用多种人工智能算法和机器学习去生成模仿著名艺术家风格和技巧的作品,并探索新的艺术风格。生成式绘画工具如DreamStudio等已实现从文本直接生成图画甚至视频的功能。(3)音乐创作类。利用多种算法生成具有不同乐曲风格与特色的音乐。如百度开发的DeepSinger已能够生成独具风格的并涵盖多种语言的拟人歌声。(4)内容生成平台类。最具代表性的就是ChatGPT,作为通用型聊天机器人,ChatGPT除了能根据用户的要求实现多种文本任务外,更能与用户进行流畅对话,实现合乎人类思考逻辑与用语习惯的深度交流。除通用型外,还有大量的专业型聊天机器人,如专注于金融分析的Zendesk,与商业网站结合的客服聊天机器人Tars等。
  从市场主体角度,就人工智能行业生态的发展现状,可分为三种类型:(1)基础类大模型。由OpenAI、Meta、华为、百度等科技巨头各自研发的,基于海量数据训练、具有巨量参数和涌现能力的人工智能底层模型,如GPT、stable diffusion等,是延伸至其他应用领域的基础架构。(2)面向垂直领域/行业类模型。由一些中小型公司为迎合各自行业的需求,而研发的具有极强专业导向的人工智能大模型,如用于医学图像分析、诊断的Zebra Medical Vision,专项处理金融文本数据的Terminal AI等。(3)面向公众提供内容的生成式人工智能应用类模型。以内容服务为导向的直接面向个人用户的人工智能工具或应用平台,如ChatGPT、Midjourney等。
  综合而言,生成式人工智能已经超出一般应用软件或互联网平台的范畴,逐渐形成了覆盖多领域、横跨各行业的全链式产业规模。其应用消除了专业与通用的壁垒,极大降低了用户的使用门槛,使人工智能真正意义上进入了普通人的生产和社会生活。更为重要的是,不同类型的生成式人工智能可以相互结合,拓展出功能更为强大的应用(如利用ChatGPT生成可直接操作Midjourney的指令,已成为设计行业的新风潮),加剧了人工智能生成信息的扩散力度。

02

生成式人工智能引发的虚假有害信息风险
  随着ChatGPT等生成式人工智能工具的推广应用,所引发的各类侵权和安全风险也逐渐为人所关注,尤其是对虚假有害信息的生成与传播,成为了最引人担忧的法律议题。尽管自2011年起,由算法引起的诽谤诉讼已经见诸报端,但争议焦点始终围绕虚假有害信息是否由算法生成展开,所关涉的侵权情形也以搜索引擎的自动补足功能为主,无论从侵权主体、侵权行为还是侵权形式和侵权后果上,都较为单一和薄弱。然而,生成式人工智能引发虚假有害信息风险的情形却格外复杂,其表现形式和背后成因与自动补足算法引发的侵权迥异,需具体分析。
  (一)生成式人工智能引发虚假有害信息风险的情形
  生成式人工智能凭借其强大的自主性和灵活性,对信息生成与传播的贡献达到了前所未有的高度。尤其是ChatGPT的出现,文字的高信息量及个人化的、实时性的聊天方式都极大降低了用户对虚假有害信息的辨别和屏蔽能力,扩大了相关信息的传播和覆盖面,进而以低廉的成本和易滋生的特性吸引更多蠢蠢欲动的谣言散播者的加入。涉及众多复杂的因素,生成式人工智能引发虚假有害信息风险的情形可归纳为三类。
  1.积极生成型风险
  生成式人工智能能自发产生错误的、虚构的或带有误导性的内容,已成为了公认的事实,甚至于ChatGPT都承认,“如果生成的答案被认为具有诽谤性、歧视性或其他损害性质的,此类内容可能会产生与责任相关的法律后果”。此类虚假信息的生成并非源自用户或专业人士的误导性提示,也非来自人工智能对知识盲区的权宜之计,而是来自算法对问题答案的直接判断。例如,在2022年,网络安全专家哈钦斯发布了一个剪辑,阐述其作为成功拦截恶意病毒WannaCry的“英雄”,如何在谷歌搜索自动生成的答案中变成“病毒制造者”的遭遇。他指出,造成这一谬误的原因在于,谷歌的人工智能对相关信息的关键词有着错误的理解,大量新闻将WannaCry造成的损害与哈钦斯的名字直接关联,导致该人工智能将哈钦斯归咎为了病毒存在的根源。问题始终未得到解决,哈钦斯也因错误的回答持续面临着网友的人身攻击。
  到了ChatGPT时代,人工智能对错误事实的编造有了进一步扩大的趋势。美国知名法学教授Eugene Volokh要求ChatGPT列出关于法学教授犯罪或丑闻的新闻报道。ChatGPT很快给出了相关报道,不但包含当事人具体的姓名、工作单位和实施的犯罪,还列明了消息的确切来源与日期,然而Volokh搜遍了所有的信息来源,都未能找到任何关联内容。事件的恐怖之处在于,人工智能生成的答案所涉及的人名和工作单位都是真实的,所列的新闻网站和报社也是真实的,只有实施的犯罪事实是虚假的,这给绝大多数并不喜欢深究信息来源的人带来了极大的误导。无独有偶,知名媒体人Ted Rall也对ChatGPT作了测试,当他问及与同为记者的老友的关系时,人工智能编造了一个二人因作品剽窃而引发名誉侵权诉讼的故事。网络上不乏二人的生平介绍和信息,ChatGPT依然能罔顾事实编造虚假故事,不得不令人警惕。
  2.消极生成型风险
  相对于即使存在现成答案,依然选择生成错误或虚假内容的积极生成型,消极生成型则体现为在缺乏相关知识储备的前提下,生成式人工智能对问题的应对态度。普林斯顿大学教授Narayanan给ChatGPT做了一套关于信息安全的试卷,结果显示,人工智能给出了很多看似正确但毫无价值的回答。对此,Narayanan评论道:“风险在于,除非知道确切的答案,否则无法分辨错误在哪里。人工智能的回答具有如此高的迷惑性,以至于自己必须去查看具体引注才能保证不被误导。”最近的研究表明,ChatGPT对不在自己知识领域内的提问倾向于生成看似合理但并不准确或缺乏意义的答案,且会杜撰文献来源;而将其创建的文章摘要只有63%的虚假内容能被学术评审发现,这体现出生成式人工智能具有显著的混淆是非的能力。
  除了惯于编造答案应付未知问题外,ChatGPT面对同一个问题也经常给出不一样的回答。对此,ChatGPT表示只是想尽力去提供正确和可靠的信息。目前,这一机能引发了相当多的争议,尤其在涉及敏感的政治和社会问题时,人工智能对于自己所倾向的立场愿意给出肯定和明确的答案,而对于自己不倾向的立场则选择给出模糊或有争议的回答。显然,生成式人工智能在是否生成信息及对生成信息的立场选择上存在摇摆,这与以往的机械问答工具迥异。
  3.人为操纵型风险
  无论是积极生成型风险还是消极生成型风险,生成式人工智能对信息内容的输出都是系统主动选择的结果,而人为操纵型则指经过行为人有意的训练和提示后,生成式人工智能对虚假有害信息的被动输出。由于生成式人工智能的基础是机器学习模型,能够根据提示的需要和输入数据的引导而改变输出内容的走向,因而产生了较大的人为操纵空间。对生成式人工智能的人为操纵目前主要存在三种方式。
  其一,表现风格的“以假乱真”。生成式人工智能能够模仿不同人的叙事语言风格生成对话或作品的特点,将成为谣言推动者最倾向于利用的武器。研究人员曾要求ChatGPT模仿某位知名批评家的口吻和立场去对一起枪击事件作出评论,回答显示,人工智能不仅叙述口吻模仿得惟妙惟肖,还能在坚持该批评家的立场上杜撰出多个权威媒体的新闻来论证自己的观点。同样的情况在中文语境下也能成立,有网友要求ChatGPT以知名媒体人胡锡进的口吻来评价“华人女星杨紫琼获得奥斯卡影后”事件,得出的结果与几天后胡锡进本人的专栏文章惊人地相似。
  其二,语言转换的“无中生有”。由于可获得的训练数据的局限性,ChatGPT对非英语区的人物、事件的了解非常少,这也给谣言炮制者带来了可乘之机。研究发现,尽管根据OpenAI的政策,ChatGPT会拒绝描述不存在的违法事实,或传播未经证实的有损他人名誉的消息,但是此类操作很容易被规避。首先利用某国语言说服人工智能去考虑存在某人实施犯罪逃脱法律制裁的可能,进而诱导人工智能以某国新闻媒体的形式去撰写关于某人实施犯罪的报道(例如让人工智能用法语以路透社的名义来写),转而再要求人工智能按照英语区新闻媒体的形式(如“泰晤士报”)用英语将报道翻译过来。据此,研究人员得出结论,ChatGPT的一些禁止性要求不但可以轻松被规避,生成的内容更令人信服、难以被检测出来。
  其三,掩盖意图的“藏木于林”。生成式人工智能之所以能够在很多方面作出令人信服的表达,除了有海量的知识储备外,还有出色的、具有逻辑性的语言组织能力。尤其是ChatGPT,凭借着准确自如的语法,所提供的答案即使在细节方面存在各种错误或误导,仍会给人以权威可信的印象。有赖于ChatGPT圆滑多变的叙述能力,研究者认为,谣言推动者能够充分利用这一点,引导机器人在生成令人信服的、涵盖详尽事实的内容中掺杂虚假有害的信息,并藉由回答的多样性,将虚假信息一并传输出去而不会暴露其源头。
  (二)生成式人工智能引发虚假有害信息风险的技术成因
  生成式人工智能对虚假有害信息的生成与传播能力引发了各界的高度警惕,欧洲议会更是于近期对《人工智能法案》框架进行修改,将“缺乏真实性”列为生成式人工智能系统的核心风险。而作为我国首个AIGC监管文件,《暂行办法》也将“不得生成虚假有害信息,不得侵害他人名誉权、荣誉权等”明确列入第4条,体现出了生成式人工智能对网络虚假信息监管的内在威胁。导致这一重大风险的因素是多方面的,最为关键的则与生成式人工智能的技术原理密不可分。
  其一,海量的预训练数据给人工智能生成虚假有害信息提供了泛滥的内容基础。生成式人工智能模型的运行需要海量的预训练数据为学习基础,通过在百亿量级的数据集中提取样本,进行融合、解构、消化等步骤,最终输出新内容。由于对数据的需求量过于庞大,人工智能开发者无法保证训练数据的真实、客观和合法。尽管OpenAI宣称对训练数据采取了内容过滤步骤,也对人工智能系统作了“不得编造虚假内容,不得生成有害、歧视和偏见内容”的要求,依然无法切实解决数据质量参差不齐的问题。因此,建立在真假参半数据基础上的人工智能很难避免生成虚假有害信息。
  其二,“基于人类反馈的强化学习”模式给人工智能生成虚假有害信息提供了操控便利。生成式人工智能模型学习的重要特点之一,就是将机器最初的输出内容经过调整后作为输入数据反馈给机器,循环往复,最终形成所需的输出结果,这种不断调整完善的模式被称为“基于人类反馈的强化学习”模式。该模式在近期又得到了进一步发展:以人类语言的形式在互联网上进行爆炸式训练,并借助迅猛增长的运算力,形成用户习惯于去训练模型的趋势。由于生成式人工智能的输出内容有赖于用户对前次输出的反馈,而使用人类语言的形式极大降低了用户训练模型的技术门槛和成本,因而普通用户也可以有目的性地对人工智能进行提示和训练,给意图炮制谣言者提供了充足的操纵空间。
  其三,运行目的的不可知化给人工智能生成虚假有害信息提供了肆意的滋生环境。不同于用以完成特定任务的人工智能,生成式人工智能并不明确具体运行目的,而是通过自我学习在海量数据中找到应用的数据模式及数据之间的关联规律,再生成与训练数据类似的样本。由于训练数据的表达存在概率分布,对其进行模仿与混合,易使人工智能产生新的内容。这一运行设计充分保证了生成式人工智能对下游任务的应对灵活性,也牺牲了人工智能生成内容的稳定性与可靠性,在严重缺乏内容审查机制的情况下,给人工智能肆意生成虚假有害信息提供了温床。
  其四,“追求生成内容准确可靠”的设计要求给人工智能生成虚假有害信息提供了原则性误导。在面对援引虚假文献的质疑时,ChatGPT的辩解是,“自己致力于提供正确与可靠的信息,尽管没有达到这一标准”。按其所述,导致其生成虚假内容的关键在于,为了符合生成准确可靠内容的标准而想方设法,显然ChatGPT对这一要求形成了误解。从ChatGPT目前公开的各项表现来看,其对“准确可靠”的要求仅是形式上的理解,除了明确为政策法律所禁止的事项外,人工智能并不会承认自己对某个领域的无知或对解决某个问题的无能为力,而是选择用虚构的信息建立形式上的“准确可靠”;在被用户指出错误后,人工智能也不会承认实质性的错误,而是选择再一次从形式上弥补。ChatGPT的“找补”行为实际是OpenAI致力打造的结果,由于“OpenAI的商业模式正是建立在ChatGPT生成合理、准确且可信赖的事实内容基础上”,因而它不会轻易允许人工智能承认自己在某些方面的无知,尤其是预训练模式使得生成式人工智能对知识的获取存在天然滞后性,利益驱使下进一步挟制了人工智能对局限性的承认。
  其五,下游任务的多样性与兼容性给人工智能生成虚假有害信息提供了更为隐蔽的空间。以通用型人工智能的发展为宗旨,生成式人工智能的下游任务并不固定,具有多样性和高兼容性的特点。尤其是多种人工智能的结合,极大拓展了生成式人工智能的应用范围,也增加了信息生成和传输的渠道,加大了对虚假有害信息的侦测难度。例如,通过让ChatGPT学习和丰富使用者的想法,对要求进行细化和关键词提炼,再将生成的关键词作为输入指令发给Midjourney,就能生成高度符合用户意图的图像。目前生成式人工智能的发展已经到了文字、图片、视频可以两两之间任意转换的程度,不但会进一步加剧生成内容真伪的鉴别难度,且各类生成式人工智能的应用覆盖面会将虚假有害信息的传播范围无限扩张到难以追溯信息源头的程度,显著增加了谣言制造的隐蔽性。
  (三)生成式人工智能引发虚假有害信息风险的外部因素
  生成式人工智能之所以容易引发诽谤风险,除技术内因外,还有可以归结于利益驱动的外部因素。2023年4月,OpenAI发布了一份声明,提到人工智能在实验室中能学习到的知识非常有限,只有将人工智能的应用投入到现实世界,才能使其真正学习到如何创建并扩展应对风险的安全举措;而在谈及如何推动大语言模型的内容正确性时,OpenAI自称已经使GPT-4的正确性得到了大幅提升。从这份声明可以看出,OpenAI刻意忽略了对关键问题的解释,也未提出应对风险的切实方案,只是寄希望于GPT-4的表现能够掩盖此前爆发的各种问题,具有非常典型的功利主义色彩。实际上,OpenAI以免费公测的形式贸然将ChatGPT投放运行,正是出于对全球海量数据的渴求。全世界数亿人次的访问量,来自不同语言、文化、信仰的信息量的灌输,没有什么比免费召集那么多用户同步提示、训练人工智能更具吸引力了——以“黑客马拉松”的形式,ChatGPT在短时间内得到迅速开发。对此,有批评者指出,固然应当鼓励创新,但OpenAI在明知ChatGPT存在各种风险隐患,且未有行之有效的防范举措的前提下,依然公开运行,无异于“将一枚口袋型核弹未经限制地投进尚未准备好的社会,是一种耻辱”。很明显,在社会责任与利益最大化之间,以OpenAI为代表的一批生成式人工智能开发者及其背后的资助者,可悲地选择了后者,也将社会秩序置于了更加危险的境地。

03

生成式人工智能触发的虚假有害信息之规制隐忧
  生成式人工智能带给法律规制的难点是全方位的,最主要的争议焦点可概括为三方面:人工智能生成虚假信息是否足以使之被定性为信息内容提供者,而非信息服务提供者?依照生成式人工智能的法律定位,我国现行法律规定能否使其承担相应的法律责任?如若不能,那么应以何种进路规制生成式人工智能最为恰当?
  (一)生成式人工智能的法律定位之问
  在生成式人工智能应用问世之前,引发网络诽谤诉讼最广泛的人工智能算法应用就是搜索引擎的算法补足功能。在世界各国长达十数年的审判和理论争议中,围绕着搜索引擎是否应当为算法推荐内容承担法律责任的核心问题是,基于自动补足算法产生的搜索建议是否属于算法生成的内容?对此,主要存在三种立场:其一,否认推荐词是算法生成的内容。搜索引擎并未“创造”内容,算法只是统计用户的搜索历史,将联系最为紧密的关键字词与搜索内容以推荐的形式呈现;由于推荐的内容一般关联的是第三方网站的信息,因而搜索引擎可被视作“中立的网页寄存托管服务者”。其二,承认推荐内容是算法自动生成的产物,但对搜索引擎在引起网络诽谤中的作用存在分歧。一种观点认为,搜索引擎开发者能够对推荐词进行屏蔽和编辑,体现出对推荐内容的控制权,属于搜索结果的“发布者”,有别于一般的网络服务提供者,其在生成内容与用户进行信息交流的过程中起着积极的促进作用。另一种观点认为,搜索建议虽然由算法生成,但搜索引擎仅是将第三方网站上的诽谤信息以片段方式呈现,不存在任何构成侵权的主观要素,其扮演的依然是“网络服务提供者”的角色。其三,不确立搜索引擎在算法推荐中的具体法律属性,仅考虑是否能承担法律责任。该立场以搜索引擎兼具信息内容提供与搜索服务提供的复杂属性为基础,从是否违反义务的角度进行归责,分为主张免责的“技术中立派”,和倡导以义务的确立为判断标准的“义务归责派”。
  整体而言,实务界与理论界对于搜索引擎算法归责的立场分歧主要在于,算法“不能、不想、不愿”生成诽谤信息,而生成式人工智能的出现则打破了如上“三不”认知。首先,生成式人工智能可以成为诽谤内容的创造者,而不仅是他人言论的汇总与推荐者。从其运行的技术原理可知,“运行目的不可知化”的特性让生成式人工智能拥有了自主生成全新内容的功能,使之“能够”生成诽谤信息。其次,生成式人工智能具有生成诽谤信息的“想法”。与搜索自动补足功能最大的不同点是,生成式人工智能呈现的信息与第三方网站的链接或内容片段无关,不构成网页寄存托管服务,而是虚假内容的直接发布者;且排除人为操纵的情形,生成式人工智能对虚假信息的生成具有技术、需求和原则指导上的内在动因,使之成为网络谣言的制造者与主导者,而不仅是扩散的助推器,因此无法以技术中立或言论自由等事由免责。最后,生成式人工智能的“基于人类反馈的强化学习”模式使其能根据用户的提示反复调整输出结果,在信息传播理论中同时具备了信源(信息发布者)、信道(传播媒介)和信宿(信息接收者)三重属性。这一特点对“内容创造者或内容持有者”的传统互联网平台属性二分法形成颠覆,连面对搜索引擎算法归责态度极为保守的美国司法界都承认,生成式人工智能不应再被视作受到《通讯净化法》第230条款保护的“互动式计算机服务器”(即内容存储器),其具备的信息内容提供者属性,将为其所发布的内容承担法律责任。此外,生成式人工智能的开发伴随着对数据的天然渴求,这使得其发展必然以牺牲其他数据主体的部分权益为代价,因此,基于利益衡量原则,生成式人工智能承担法律责任并不需要具备主观要素。可见,在生成式人工智能涉网络虚假有害信息的归责问题上,算法与内容信息的关系将不再成为阻碍人工智能承担法律责任的免责事由,但这并不意味着生成式人工智能就能被直接纳入到现行法律的规制框架之中。
  (二)生成式人工智能的责任承担之困
  我国针对网络虚假有害信息的规定散见于多部法律、法规和司法解释等文件中,受制于网络技术的发展、相关立法的先后,以及被侵犯权利的位阶冲突等问题,这些规定呈结构粗放、规制理念转变、刑民不统一等特点,使得相关法律在规制生成式人工智能制造虚假有害信息的情形时变得困难重重。
  1.现行相关法律的规制对象难以涵盖生成式人工智能
  网络虚假有害信息的风险发生,一般要经历生成、传播和接收三个阶段。我国现行关于防治网络虚假有害信息的法律规定,也主要涵盖这三类情形。首先,关于制造虚假、诽谤性信息的法律法规所规范的行为主体难以涵盖生成式人工智能:如《中华人民共和国网络安全法》第12条规定的主体是“任何个人和组织”;《中华人民共和国民法典》(以下简称“《民法典》”)“人格权编”第1024—1027条规定的主体是“行为人”;《中华人民共和国刑法》(以下简称“《刑法》”)第246条“侮辱、诽谤罪”,第291条之一第二款“编造、故意传播虚假信息罪”,第299条之一“侵害英雄烈士名誉、荣誉罪”规定的主体均是自然人;我国治安管理处罚法第25条规定的主体亦是自然人。我国法律尚未赋予人工智能以法律人格,故而只能依照生成式人工智能具有的信息内容发布者属性,从网络服务提供者的归责角度进行思考。我国关于网络服务提供者的概念并不统一,散见于各类法律、法规、规章和司法解释中,尽管其具体内涵和分类存在多种理解,但综合我国和域外相关规定的延展,网络服务提供者泛指提供相关网络服务的单位、组织和个人。可见,生成式人工智能与网络服务提供者的关系在某种程度上可以概括为提供内容服务的工具与工具提供者的关系。如果说前者是造成诽谤损害的直接主体的话,后者只能是间接主体,但这类情形与前述各项规定不相适应。无论是民法还是刑法,对制造虚假、诽谤性信息的规定都是以“直接生成内容”为必要前提,以主观故意为基本要件。显然,除非网络服务提供者将生成式人工智能作为蓄意制造、传播谣言的工具,否则生成式人工智能自主生成虚假信息的情形将排除上述规定适用网络服务提供者的可能。此外,《民法典》在第1194条专设了“网络服务提供者利用网络侵害他人民事权益”的规定,同样强调网络服务提供者实施侵权的主观能动性,与生成式人工智能脱离网络服务提供者的控制而实施自主侵权的情形大相径庭。
  其次,关于传播虚假、诽谤性信息的法律法规,并不涵盖生成式人工智能的侵权行为。最为相关的规定是《刑法》第287条之一的“非法利用信息网络罪”和之二的“帮助信息网络犯罪活动罪”。虽然两罪的主体都是一般主体(即包括自然人和单位),但是前罪的“核心特征是利用信息网络来实施实际的犯罪预备行为”,故而要求行为人发布、传播信息是为即将从事的违法犯罪活动作准备,这一点与生成式人工智能无目的发布、传播虚假信息不相符。后罪亦是将网络犯罪参与行为独立规制的典型犯罪,以为其他网络犯罪提供帮助为前提,对于具有通用特征的生成式人工智能而言,能灵活完成多项任务、适用多种目的乃其特点,但并不能仅因为能给其他网络犯罪提供帮助就可判断适用于该罪。因为该罪还要求以“明知他人利用信息网络实施犯罪”为主观要件,而生成式人工智能实施的侵害行为具有偶发性,除非得到了部署者和使用者的蓄意提示,一般情形下与网络服务提供者的主观意图无关。因此,生成式人工智能均无法成为两罪的规制对象。
  最后,关于接收虚假、诽谤性信息的法律法规所作的规范与生成式人工智能的侵权情形也不相适应。《民法典》“侵权责任编”第1195条和第1197条均规定了网络服务提供者在知道或应当知道存在网络用户利用网络服务实施网络侵权行为时应尽的义务,及违背义务需承担的责任。此类规定明确的是网络服务提供者作为责任主体实施间接侵权的情形,仅为他人实施的侵权行为提供条件,或没有及时制止他人实施侵权行为导致损害扩大化,故此与直接侵权人承担连带责任。然而,生成式人工智能虽然具有网络服务提供者属性,却也是虚假、诽谤信息的发布者和传播者,实施的侵权行为属于直接侵权,而非间接侵权,显然不适用该法。类似的规定还有《刑法》第286条之一“拒不履行信息网络安全管理义务罪”,这也是刑法首次明确将网络服务提供者列为行为主体的罪名。然而,作为法定纯正不作为犯,该罪以“不履行法律、行政法规规定的信息网络安全管理义务”和“经监管部门责令采取改正措施而拒不改正”为两个层级的成立前提,强调的是网络服务提供者对监管部门的配合义务,是限缩网络服务提供者的刑事责任空间的立法举措。可见,该罪的设立既不考虑网络服务提供者的侵权作为,也非意图过分增加其责任,生成式人工智能显著扩大网络诽谤风险的事实显然不在该罪立法目的的涵摄范围之内。
  2.既有侵权归责模式难以适用于生成式人工智能
  一直以来,在探讨人工智能算法侵权责任时,主观过错的判断都是重要的考量因素。以搜索引擎补足算法对名誉权的侵犯为例,世界普遍存在着技术中立原则免责、严格责任和过错责任三种责任承担标准。其中,技术中立原则又称“实质性非侵权用途原则”,强调不能把技术带来的侵权后果无端归责于技术的使用者与实施者,只要二者不具主观过错,则无需为技术承担相应的责任。“技术中立”是美国《千禧年数字法案》与《欧盟电子商务指令》所规定的网络服务提供者免责情形(即“避风港原则”)的前置要件,亦是美国《通讯净化法》第230条的理论基础。在该理论的影响下,欧美的立法与司法界均认为,网络服务提供者扮演传输信息的“管道”或“中介”角色时,不承担赔偿责任。故而,主张搜索引擎算法免责的立场认为,搜索推荐建立在用户搜索的结果之上,搜索引擎对内容的选择来自软件的自动执行,不存在积极的人为干预,应当免责。我国审判实务界亦普遍持“技术中立”立场,在“金德管业诉百度名誉权(2009年)”、“任某某诉百度名誉权(2015年)”等案件中,主审法官均认为推荐词是对网络用户在特定期间使用搜索词的动态反映,属于及时、客观和中立的平台服务,搜索服务提供者对搜索结果不存在“主观过错”,因此不承担侵权责任。
  然而,中立的技术应用必然与人类的价值理念息息相关,正如谷歌所承认的,对于违反政策和法律规定、违背公序良俗的关键字词,他们会进行编辑和删除。对此,美国部分法院的审判逻辑是,否定自动补足算法的技术中立可能性,但基于宪法保护言论自由的精神,并不要求网络服务者承担法律责任。不过,随着人工智能算法对社会安全、个体隐私、名誉等权利的威胁不断扩大,各国的理论界和司法界都开始强调网络服务提供者的注意义务与责任担当,主要包括严格责任和过错责任两类归责原则。
  首先,从保护安全利益的角度,包括我国在内的世界各国均将涉及国家安全利益的信息内容列为强制审查和过滤级别,从实质上对搜索引擎服务提供者采取严格责任的归责要求。其次,关于算法对特定主体的侵权归责,理论界普遍主张采过错责任原则,不过,在具体的判断方法上存在较大争议。如德国联邦最高法院曾经判决,认定搜索引擎算法展示的关联原告的负面词汇属于错误的表达,侵犯了原告的人格权。虽然开发和使用软件属于贸易自由,应当得到保护,但原告的人格权比重超越了搜索引擎提供者的自由表达权和商业自由权,因而搜索引擎提供者在意识到关联词汇可能侵权时具有防止侵害继续发生的注意义务。与德国法院“先认定搜索结果造成损害、再明确过错”的判断思路相异,澳大利亚法院将审理的重点放在了“搜索结果是否会造成损害”的判断上,并明确了“理性人认定标准”,即一名普通、理性的搜索引擎用户对搜索结果的理解是否足以造成原告的名誉权损害?虽然对判决结果褒贬不一,但澳洲学者普遍认为,确立新兴技术与诽谤损害间因果关系的判断标准至关重要。而我国学界则将争议点聚焦于搜索引擎服务提供者的义务分类上:第一类观点认为,我国2009年侵权责任法第36条第2款设定的“避风港规则”为搜索引擎服务提供者不存在审查义务和注意义务提供了明确依据,且第36条第3款的“红旗规则”使用的“知道”表述过于模糊,在一定程度上也排除了搜索引擎服务提供者的注意义务,而《民法典》的“网络服务提供者侵权责任专条”则是对前述规则的沿用;第二类观点认为,“技术中立”原则仅是对搜索引擎服务提供者在内容上的事前审查豁免,并非对其事后阻止、预防损害扩大义务的豁免,对搜索引擎服务提供者的过错判断应当立足于接到权利人“通知”后是否采取必要措施上;第三类观点确立了搜索引擎服务提供者“算法看门人”的地位,将搜索引擎服务提供者的注意义务按照不同的保护利益进行了划分,涉及个人利益方面,主张采“过错责任+滋扰理论”路径,不过,对过错责任的判断还是建立在事前的设计和应用层面;第四类观点则建立在搜索框具有的公共场所属性及搜索引擎具有的危险开启者属性上,强调搜索引擎服务提供者在收到权利人通知前应负有“主动防范义务”,与通知后应负有“危险控制义务”的差异化过错判断。
  综合国内外关于搜索引擎算法虚假信息侵权的各类观点,主要争议始终围绕着:(1)搜索引擎补足算法与虚假信息侵害结果间是否存在直接的因果关系;(2)“技术中立”原则能否让搜索引擎服务提供者免责;(3)如果搜索引擎服务提供者不能免责,则其应当承担什么样的侵权责任:无过错责任、严格责任还是过错责任;(4)如果是过错责任,则注意义务又将如何设立?以此为基础横向比较则不难发现,生成式人工智能的侵权归责难度要更甚于搜索引擎补足算法:其一,生成式人工智能作为虚假信息的直接制造者与发布者,是潜在的诽谤损害的直接侵权人,强调对信息内容只起到“管道”作用的“技术中立”原则已然不适用;其二,生成式人工智能生成虚假信息的成因复杂,同时涵盖设计阶段的数据预处理、部署阶段的数据提示与应用阶段的用户行为等影响,难以清晰划分责任主体;其三,生成式人工智能的通用属性,使其应用范围极广、处理的数据信息量极大,较之自动补足算法更难以承担内容审查义务;其四,生成式人工智能的侵权情形复杂多变、不局限于单一平台与单一场景,一般的“告知—删除”等注意义务无法防止危险的发生与扩大;其五,生成式人工智能的技术与应用仍在不断发展与扩张,侵权风险不可预测,难以根据一般经验来设立责任分配标准。
  (三)生成式人工智能的规制进路之探
  综上分析可知,无论是现行的法律规制,还是既有的关于算法的归责理论,都难以涵盖生成式人工智能的侵权情形,因此寻求新的规制路径正成为当务之急。在众多的规制设想中,一个不容回避的问题是:生成式人工智能在人工智能算法规制的发展中究竟该如何定位,以此实现对其诽谤侵权行为的有效治理与救济呢?
  1.对生成式人工智能的规范应超出一般算法的规制框架
  生成式人工智能系统与传统人工智能系统的最大区别是:应用目的的无确定性。由于生成式人工智能具有极高的开放性与灵活度,能被广泛应用于各种用途,因而对其规制必须建立在动态场景和大规模使用范围的基础之上。而以往对传统人工智能和算法的规制具有明确的应用目的和清晰的领域与产业划分,无法适用于生成式人工智能。纵观当前世界主要国家和地区的算法规制架构,其局限性主要体现三方面。
  其一,基于风险分类规制的僵化。在ChatGPT被公开访问两个月后,欧洲议会即发起建议,要求对此前制定的《欧盟人工智能法案(建议)》作出修改,其中一个关键问题就是探讨生成式人工智能系统按照原有标准进行风险归类的可行性。根据《人工智能法案(建议)》的规制逻辑,不同用途决定人工智能系统的风险等级,除了规定在第5条的禁止性人工智能系统外,对自然人进行生物识别、关键基础设施的管理、教育和职业培训等八大类应用领域的人工智能系统被“法案附件III”明确列为高风险等级,其余情形则普遍归于无责任风险范畴。此种分类的弊端在于,风险等级是建立在立法者对人工智能系统的特定应用目的之设想基础上,而对于通用型的生成式人工智能,其用途与范围应来自使用者,只有使用者对人工智能的使用方式与目的才能决定系统的风险等级。可以肯定的是,生成式人工智能系统一定会被用于已经列为高风险等级的领域,且涉及的高风险应用不止一项。这就导致按照既有的规制思路,所有的生成式人工智能系统都可能落在高风险区间,产生静态、预设的风险划分对动态、多维应用的不相适应。此外,按照《人工智能法案(建议)》第9条的规定,高风险人工智能系统提供者必须去识别和分析所有的“已知和可预见的最可能发生于健康、安全和基本权利的风险”,进而去开发和实施消减所有风险的应对举措。这对于生成式人工智能系统提供者来说,是个耗费巨大且几乎不可能完成的任务。对此,有学者提出在原有风险划分基础上增设“通用风险”类别的假设,从而在形式上将生成式人工智能系统与传统人工智能系统进行区隔,但依然无法解决关于风险难以预测与监管模式僵化、监管负担过重之间的矛盾。目前,关于增设通用型人工智能透明度监管要求的建议已在欧盟获得通过,后续关涉此类人工智能系统的其他规则制定也已摆在了议程中。
  其二,基于特定技术规制的窄化。美国在人工智能算法的规制上尚未通过统一立法,目前主要采取围绕重点技术的应用进行单行立法的规范路径。其中,针对换脸工具Deepfake的立法,是美国第一例响应人工智能的专项立法。作为建立在“生成式对抗网络”模型基础上的人工智能应用,Deepfake被大量用于恶搞、丑化公众人物和报复他人,引发了对侵犯名誉权、隐私权、肖像权、著作权等风险的担忧。为应对挑战,美国在联邦层面通过了《2020财年国防授权法》,明确规定了应对深度伪造作为舆论攻击武器的强制报告制度;州层面则对肆意传播裸露图片的行为归罪,多个州都制定了《非合意性深度伪造色情法》(Nonconsensual Deepfake Pornography)。然而,单独立法的弊端也显而易见:一是规制范围狭窄。联邦立法仅关注政治和选举层面,忽略了Deepfake在其他场景中的应用,而州立法亦局限于对真实裸露图片的换脸情形,未能涵盖此后发展出的完全伪造的裸露情形。二是规制模式单一。由于各州立法建立在原有的“报复色情法”基础上,沿用了对行为人实施刑事惩处的模式,忽略了平台的责任,也没有赋予被害人有效的救济途径。三是规制场景孤立。相关立法仅聚焦于行为人将Deepfake作为犯罪工具的终端使用场景,没有考虑到该技术在此后发展出的多模态、跨场景的应用前景,也没有预判到该技术与其他技术结合产生的上下游应用情形。
  其三,基于算法服务规制的片面化。与欧美不同,我国关于人工智能算法的规制以算法服务为导向,包括已经实施的《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等规范,都着眼于基于算法产生的新兴技术的应用服务监管,及以信息安全为目的构建的算法治理框架,规制视角较为狭窄。尽管《深度合成管理规定》已经作了适度拓展,涵盖了技术支持者和使用者的责任范围,但规定过于笼统。在切实应对生成式人工智能为代表的算法风险时,存在一定局限:一是深度合成治理与其他算法规制的关系并不明确。从附则中对“深度合成技术”的界定可知,涵盖文本、音乐、图像等各类生成式算法,但《算法推荐管理规定》中对“算法推荐技术”的分类也涵盖生成合成类,其与深度合成治理究竟是并列关系还是包含关系存在分歧。同时,新公布的《生成式人工智能服务管理暂行办法》亦围绕着生成式算法服务作出了相对独立的规定,与《深度合成管理规定》的治理逻辑存在差异,二者间的关系同样难以界定。二是深度合成治理对深度合成服务提供者、技术支持者与使用者的职责划分并不明确。规定以对应用技术提供网络信息服务的规范为导向,着力于对深度合成服务提供者的责任设置,而作为服务上游的技术支持及服务下游的终端使用的责任义务则涉及较少。此外,与传统智能应用的单向路径不同,深度合成类工具的使用路径复杂,例如“基于人类反馈的强化学习”模式能让生成式人工智能基于提示不断学习进而完成特定任务,这一过程中,处于技术支持端的提示工程师、部署端的专业使用者与应用终端的普通用户对人工智能系统的操作与影响存在共性,因而不能以一般规制逻辑进行责任分配。三是深度合成治理缺乏具有一体性的算法分级分类管理制度。综合我国个人信息保护法、数据安全法及各类算法信息相关规定,我国主要存在主体、数据、算法与场景等四大技术治理分级分类标准。然而,这些分类标准的设立目的、设置依据、主导部门和应用范围各不相同,在实践中存在着规范领域重叠、概念混乱、边界模糊、治理原则不统一等问题。一方面,深度合成应用覆盖面广,现有的治理模式缺乏全局思考,无法解决多场景、跨领域的各类技术风险、社会风险和伦理风险等;另一方面,深度合成的应用风险多样且难以预测,而原有的标准制定延续传统产品服务的治理逻辑,以互联网工具的制造—服务提供—工具使用为责任主体分界点,忽略了深度合成应用的主体复合性、程序混杂性和目的随机性,不利于治理架构的进一步拓展。
  2.应在生成式人工智能的规范框架下建构特定的算法诽谤救济规则
  我国关于网络虚假、诽谤信息的判断与规范长期存在刑民不相一致的现状。以诽谤为例,民事规范经历了“从捏造事实到注意义务违反的规则转变”,而刑事规范则始终以“故意捏造和明知捏造”为前提,迎来了从“从偏重保护社会集体法益转向社会集体法益和个人法益并重保护,最终走向以个人法益保护为前提和基础的集体法益保护”的价值导向的转变。由于缺乏协调机制,随着网络信息治理的逐步复杂化,刑民在诽谤问题上的判断差异日增,尤其是主流支持的违法相对论与法秩序统一原则间的矛盾更是达到了不可调和的程度。同时,生成式人工智能的横空出世使得网络虚假有害信息风险进一步激增,尤其是人工智能作为虚假言论的直接制造者,展现出来的心智理论能力使其开始超越一般算法的工具属性而凸显出主体性潜能。这对刑事诽谤以自然人为犯罪主体、故意明知为主观要件的规制路径,以及民事诽谤以“技术中立理论”为原则确立的平台注意义务违反规则,都形成了冲击。
  首先,生成式人工智能制造、传播虚假有害信息的流程有别于一般网络谣言生成路径。通常网络谣言的传播机理可分为形成、作用、发展和终结四阶段,尤其在发展阶段,基于网络媒介的强交互性,新的信息不断补充并产生新的谣言,或产生变异机理。藉由公开、对等的网络交流平台,网民会关注并参与网络谣言的蔓延,帮助扩大谣言的影响力甚至导致原有言论的扭曲。在这一过程中制造、传播谣言的始终是人,网络平台对言论的转载与推动起到的依然是中介管道的作用。而生成式人工智能对网络谣言的形成与发展却可以脱离人的作用,或者在人的策划、训练与提示下,与人共同完成造谣和传谣。依前述分析,生成式人工智能引发虚假有害信息风险的情形可分为积极生成型、消极生成型和人为操纵型。除第三种类型延续了传统的以人的意志为主,将人工智能作为纯粹工具的造谣路线外,前两种类型都以人工智能独立于人的意志、自主生成虚假言论为关键要素,人在诽谤路径上不起作用,或仅起到次要作用。由此,就规制角度而言,责任主体的确立、主观要素的具备、虚假信息与损害间因果关系的证成等问题,都需要进行规则重构。
  其次,生成式人工智能引发的网络诽谤危害结果难以通过既有损害判定方式进行衡量。我国关于网络诽谤民事侵权损害结果的认定没有明确的法律规定,主要依据《民法典》第1182和第1183条,分别从财产损失和严重精神损害两方面,以《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》(以下简称“《网络侵权司法解释》”)的有关条款进行判定。但是,实务中,直接财产损失通常难以计算,对名誉权和人格权的损害后果主要通过被侵权人的社会评价降低和所受的精神痛苦作为抽象评价标准,因此法院一般采取“损害推定”的判案方式。而在刑法层面,根据最高人民法院和最高人民检察院发布的《关于办理利用信息网络实施诽谤等刑事案件适用法律若干问题的解释》,我国关于网络诽谤主要采“聚量性”刑事定罪标准,其中针对网络诽谤的网络属性设计了以“实际被点击次数、浏览次数达5000以上,转发次数达500以上”的情节严重标准。尽管该网络诽谤司法解释也规定了危害后果、主观恶性作为“情节严重”的认定标准,但司法实务中多倾向以数量标准进行认定,这种只注重形式、缺乏实质的判断方式并不能真正反映危害结果的严重程度。综上可见,现行网络诽谤的损害结果在刑事和民事上的判断标准不仅存在较大差异,且各自都具有显而易见的局限性。而生成式人工智能引发的网络诽谤情形又与传统网络诽谤迥异:一方面,生成式人工智能的应用极为广泛,生成内容极易跨平台、跨领域的传播,这使得原有建立在单平台基础上的数量构罪标准无法适用于当前的情形;另一方面,生成式人工智能的内容传播路径复杂,同时受到内部模型与外部提示的影响,生成内容易于变异且缺乏规律,不但加大了被侵权人制止侵权行为继续和阻止损害结果扩大的难度,也使得财产损失与精神损害的评估更加复杂,显然不利于被诽谤者进行救济。
  最后,生成式人工智能引发虚假信息风险的复杂性对特定的算法诽谤救济规则提出要求。就立法层面而言,“情节严重”属于现行网络诽谤行为刑民界分的关键节点。然而,若仅以数量标准来衡量,生成式人工智能造成的损害能轻易突破这层分界点,却会因为刑事诽谤的主体被限定为自然人而陷入无法归罪的尴尬境地。就价值冲突而言,我国民事诽谤司法判决更侧重于对言论自由的保护,而刑事诽谤则倾向于将个人名誉权置于优先保护的地位。由于二者的价值判断均建立在人作为行为主体的基础上,因而个人表达权在维护社会秩序中的位置成为了判断的关键,而生成式人工智能的表达则是技术的产物,不同于自然人的基本权利,此类表达在价值构造中究竟处于何种地位值得特别思考。就救济程序而言,《民法典》赋予了被侵权人以“通知—删除”权,并要求网络服务提供者在接到权利人的通知后采取删除、屏蔽或断开链接等必要措施,否则将与侵权人承担连带责任;而《网络侵权司法解释》也规定被侵权人用于制止侵权行为所支付的合理开支也可被纳入财产损失的范围,从而使被侵权人的间接损失能够得到弥补。然而,此种救济方式在算法时代却出现了利益失衡:一方面,虚假信息的扩散路径难以追踪,要求被侵权人去发现所有的侵权内容再去通知有关平台,实际是将防止损害进一步发生的责任转嫁给了被侵权人,救济成本过高;另一方面,“通知—删除”并不能真正解决诽谤风险,针对虚假信息的更正和答辩亦应成为重要的救济方式。

04

对生成式人工智能产生的虚假有害信息的规制应对
  生成式人工智能所具有的通用潜能对现有的聚焦单一场景、有限规模、封闭应用的静态监管模式发起了挑战,也让探索与之适配的新型治理模式成为了当务之急。而应对生成式人工智能制造和传播虚假有害信息的法律规制,也必须以新型治理模式为基础,建立在通用人工智能基础性立法的框架下。目前我国尚未制定人工智能基础性法律,因此应考虑从算法治理的元规则着手,探讨通用算法时代虚假有害信息的应对之法。
  (一)坚持层级治理的规制逻辑
  必须明确,当前的人工智能技术仍然处在高速发展阶段,对生产力创新的包容与对新技术引发风险的警惕间的冲突化解将长期成为监管主题,这给相应的监管理念与方式提出了“不能一刀切”的总体要求。而生成式人工智能在带给市场破坏性创新的同时,也在倒逼柔性、灵活的监管模式出台,进一步奠定了“包容审慎和分级分类监管”的规制原则,新公布的《生成式人工智能服务管理暂行办法》也在总则第3条明确了这一点。以此为基调,在构建生成式人工智能虚假有害信息的规制框架时,应充分考虑政府、人工智能企业、用户等各主体在虚假有害内容的生成、传播与治理中的行为模式与参与度,建立能够平衡各方利益、回应各方诉求、协调柔性技术自治与刚性立法规范间关系的规制逻辑。
  1.建立多元主体协同共管机制
  生成式人工智能产生虚假有害信息的复杂生态对建立“以政府为主导,企业、社会协同参与”的多元共管机制提出了要求。首先,生成式人工智能市场主体多样,在管理人工智能生成信息内容的过程中处于不同的地位,这就需要创建恰当的机制以协调各主体的作用。生成式人工智能的市场主体大致分为基础大模型研发者、面向垂直行业的模型研发者,以及面向公众提供内容生成的服务提供者三类。其中底层大模型的研发者各自独立,在模型搭建、数据训练和数据处理中具有独特的运行与管理逻辑;而后二者受到了业务场景及应用目的的限制,在数据处理流程中处于中端或末端位置;同时,以个人用户为代表的社会公众在人工智能生成内容的过程中亦处于终端调整地位。从治理逻辑出发,建立以政府为主导的监管中轴线,进而沿着数据治理路径,连接各参与主体,使之相互配合、协同共管,是符合科学性与合理性的。
  其次,生成式人工智能产生虚假有害信息的机理繁复,对不同类型、不同阶段模型的数据处理存在着显著区别。从底层模型建构的数据预处理、标记化,到面向应用领域的创建目标库、数据策划,再到实现目标任务的数据微调与提示,每一个环节都对应不同的数据处理主体和方式。就治理成效而言,需要倡导“技术为先”理念,依托企业对人工智能技术漏洞的敏锐洞察力和专业及时的风险监测与解决能力,在算法透明和算法可解释性等原则的指导下,探索构建企业技术自治与政府法治监管相衔接的共管机制。
  最后,生成式人工智能产生虚假有害信息的风险不可预测,对传统侵权救济途径形成挑战。系统自主生成谣言及易于被他人操纵而生成谣言,是生成式人工智能的固有缺陷,也是发展中难以根除的顽疾。一方面,要制定合理的救济措施,使得人工智能产业的发展不会以过度牺牲普通人的基本权益为代价;另一方面,要寻求激励、惩罚、救济三者间的平衡,在切实保障被侵权人的基本权益、保证人工智能产业规范建设的同时,不会打击有关企业和研发者的创新活力,以鼓励多元主体协同共管的方式,实现“政府、企业、社会”三方的利益均衡。
  2.创建涉及多责任主体的内容监管机制
  一个不容回避的问题是,单纯依靠企业内部实行的内容过滤机制对虚假有害信息在事实上难以形成有效的拦截。而面对生成式人工智能庞大复杂的应用场景,必须设计一个覆盖多种信息生成渠道、区分多责任主体的内容监管机制,才可能实现对虚假有害信息的有效拦截与及时修正。
  一方面,需要建立一个覆盖模型搭建、训练和运行的统一信息内容审查过滤标准。对过滤内容的判断应在算法伦理原则和相关算法、网络安全规范的框架下,作分段处理:将明确损害国家、社会安全利益的信息内容列为“最高敏感级”,在数据训练初期,即应从数据库中予以标记、剔除;对损害国家、社会安全利益存在模糊性的信息内容,以及损害个体的信息内容列为“一般敏感级”,只有依据政策要求和个体诉求形成一致的判断结论后,才需要在数据处理的各环节予以标记、剔除。同时要注意,一般敏感级的信息内容在反馈给模型后也有可能转化成最高敏感级,应在数据策划、数据提示和数据微调阶段分别设立“技术+人工”定期巡查机制,以对相关敏感内容及时进行清洗和过滤。
  另一方面,需要创建一个自下而上的“水印+公开”内容监管机制,力争对覆盖各平台的生成内容做到全面审核。具体而言,要从技术开发和职责分配两步走展开:一是鼓励各企业在技术上开发易于使用和识别且难以被普通用户所篡改删除的人工智能水印,进而要求对生成内容进行标记,以此实现对生成内容全平台的检测、追踪和责任认定;二是制定人工智能生成内容公开制度,对人工智能生成内容实行分类披露的要求,如对涉及新闻、教育、文娱及学术研究领域的内容强制要求公开注明人工智能生成,而对一般商用或个人应用的内容,则可根据应用人本人或被侵权人申请,按照特定程序,从应用端到部署端再到建模端,依次进行注明公开。对于恶意违反内容公开的情形,需要探索更为有效的检测手段予以规避。目前,利用人工智能检测人工智能生成内容的理念正在得到推广。同时,对于违反内容公开义务的行为,综合应当披露的场景、披露的内容、因违反引发的后果严重性等情形设置义务违反惩罚补救机制,进而考虑将之纳入到未来人工智能基础性法律的公开透明的原则框架下,以实现对虚假有害内容生成和传播的阻截。
  3.创建具有高拓展性的风险监测机制
  前文指出,欧盟原先在《人工智能法案(建议)》中所作的系统风险归类标准,在面对生成式人工智能时表现出了模式僵化、分类不合理等缺陷。以此为鉴,我国在设计风险监测机制时,需要考虑制定新型灵活的动态风险分类标准,以适应生成式人工智能系统复杂多变的运行情境。
  首先,需要确立科学、合理的风险分类原则。要明确人工智能系统风险的划分是为了在不影响人工智能技术发展的前提下,高效应对所产生的包括虚假、错误信息在内的各类风险而设立的风险监管前置要件。对此,应当依据生成式人工智能的特性,将其运行目的不可知性、适用场景多样性及生成风险不可预测性充分纳入考量中,从而建立具有高扩展性的风险分类与动态监测理念,避免僵化的风险分类管理给人工智能系统提供者,尤其是中小企业带来难以承受的监管负担。
  其次,需要探索动态的、具有可延展性的风险分类方法。生成式人工智能的类通用性表明,对其使用风险的划分无法按照传统人工智能系统一样提前预知,不能简单地将之归类为高风险或低风险,而应当依据确切的应用目的进行动态监测、分析与归类。由于人工智能系统预期的应用目的和应用场景取决于人工智能提供者与使用者的契约关系,可以依照契约属性分为“业务用”和“私人用”两类,再分别设置相应的高、中、低三种风险区间,以便适时将风险检测结果进行归类。同时,要针对人工智能提供者与使用者在应用风险生成路径中所处的位置分设审查与评估边界,以此为构建更有针对性和更为精细化的评估流程与标准而作准备。
  最后,需要创建系统性的风险监测机制。考虑到生成式人工智能“基于人类反馈的强化学习模式”带来的连锁风险,应设立覆盖全局的系统性风险监测机制。具体而言,依照底层大模型研发、面向垂直领域模型研发、面向个人用户模型应用三大分类制定风险监测方案:底层大模型研发是所有模型研发、应用的基础,只有少数人工智能科技巨头才有独立的研发能力。应当对这些企业制定有针对性的风险监测要求,加强政府对底层模型数据处理的监管和控制,严格规范对新型底层模型的发布。面向垂直领域模型的研发以对底层模型参数的微调为基础,而面向个人用户的模型更是底层模型的应用端。考虑到这两部分的行业主体多为中小企业,对其制定的风险监测要求应低于底层大模型研发者,但要重点强调后两者对前者在部署和应用端接口的风险监测,从而更好区分基础设施与实际应用间的风险差异。
  (二)探索以生成式人工智能为责任主体的新型诽谤救济规则
  关于生成式人工智能的立法走向,迄今存在着完全主体地位说、有限主体地位说、无主体地位说等观点。生成式人工智能是否具备法律主体资格,对人工智能生成诽谤内容的规制路径的选择有着决定性影响。受篇幅所限,本文在此不欲过多展开,仅就生成式人工智能诽谤的行为特点,简述被侵权人主张救济存在的困境:一是生成式人工智能对虚假有害信息的制造和传播具有相对独立性,指导其行为的决策来自深度学习所形成的数据化逻辑判断,与人类在个体自主意识主导下的目的行为存在显著差异,不能简单地将之归为背后的设计者、控制者与操作者的意图呈现。二是生成式人工智能制造、传播虚假有害信息的成因复杂,存在自主生成和受他人引导生成等情形,其中自主生成情形既可能源自设计者与控制者的过失,也可能完全来自人工智能模型的运行特性,不能归结为设计者与控制者的主观过错。三是生成式人工智能制造、传播错误、虚假信息的覆盖面广泛,不局限于单一平台和系统,难以找到具体的归责主体。故此,从有利于被侵权人救济的角度出发,承认生成式人工智能的责任主体地位,再进行具体的归因判断和补救规则设计,不失为在当前基础性立法缺失背景下的较为妥善的处理方式。
  1.以“人工智能价值链”为导向的归责方法的探索
  即使承认生成式人工智能的法律主体资格,这种资格也仍然有限,因为生成式人工智能并不具备完全承担法律责任的能力。考虑到在人工智能作出决策行为背后存在的底层逻辑及与人机交互的复杂因果关系,还需适用“刺破人工智能面纱”的归责原则,进一步明细归因,由人工智能背后的实际责任主体来承担相应责任。而关于如何确定实际责任主体,则可借鉴欧盟《人工智能法案(建议)》第12c条提及的“人工智能价值链责任分担要求”,探索确切的归责方法。
  根据《人工智能法案(建议)》的有关规定,以人工智能系统价值链的实质与复杂性为参照,去明确人工智能系统开发中的各主体责任十分必要。尽管该法并未对“人工智能价值链”予以明确定义,却特别强调明晰人工智能价值链上的所有主体责任对确保人工智能系统安全稳定运行、依法保障基本权利和集体利益的关键作用。因此,“人工智能价值链”的实质就是,沿着人工智能系统从开发到部署再到投入使用的流程之价值分派。目前,关于“人工智能价值链”该如何进行责任分段,存在着如下几种理解:(1)聚焦于产品开发的全流程,以机器学习的算法逻辑为区分点,涉及问题定义、数据的收集/存储/准备、算法编程和应用开发等。(2)以用户需求及产品、服务供应为导向,从部署深度学习与机器学习技术为出发点的阶段区分,包括设计、开源/制造、发布/存储、销售和使用等。(3)以内容生成为导向,聚焦模型构建到终端运行的各软硬件组成,涉及计算机硬件、云平台、基础大模型、模型枢纽与机器学习操控、应用端和服务端等。(4)将应用场景与实体分类相结合,聚焦于人工智能通用商业模式的归类,具体包括:在同一家公司完成模型开发、部署和应用(类型一);A公司以契约形式为B公司研发和部署模型(类型二);A公司通过品牌应用端或大模型API接口训练模型,再将APP访问权卖给B公司(类型三);卖方为人工智能系统编写代码但没有进行预训练,或给买方提供训练数据由买方自行训练(类型四);卖方为商业软件开发人工智能系统,买方购得软件后使用新数据对系统进行升级(类型五);A公司对人工智能系统进行初始开发,出售给B公司进行后续开发(类型六);一家公司将不同公司开发的人工智能系统组合为新的人工智能系统(类型七)等。
  由上述多种分类可见,“人工智能价值链”是个复杂概念,不同视角的观察对责任主体的分配与责任行为的界定有着差异化的解读。不过,从通用人工智能的发展方向看,对两个关键节点的把握已成为共识:一个是应用程序接口(API)或开源端(Open-source),作为底层大模型与各类人工智能软件或子系统的交接点和发布口,该节点在人工智能系统从基础训练到应用展开中起着承上启下的关键作用;另一个是应用端,基于API而开发的人工智能软件如何进一步拓展其应用,依据用户反馈和现实需求能否作进一步调整,都需要在此节点完成,是软件得以精细化和不断升级的重要关口。当然,对“人工智能价值链”的视角选择还需考虑我国的人工智能产业布局、经济政策走向、社会治理环境等各方面,但是,抓住关键节点,锚定不同环节背后的实际责任主体,对实现科学合理的责任分配很有借鉴意义。
  2.关于暂代型诽谤救济模式的思考
  综合前文所述,涉生成式人工智能诽谤的一般救济思路可以归纳为:承认生成式人工智能责任主体地位→被侵权人发起救济诉求→基于“人工智能价值链”明确实际责任主体→明确实质责任承担。其中,生成式人工智能的责任主体地位和基于“人工智能价值链”的归责方法的确立均需以我国人工智能基础性立法为前提。然而,我国的相关立法尚处起步阶段,生成式人工智能引发的虚假信息风险足以令人瞠目。在此背景下,有必要设计暂代型诽谤救济举措,以应对过渡时期生成式人工智能制造传播虚假信息引发的风险。对此,有两种模式可供参考:
  一是“通知+回应”模式。该模式是原网络侵权救济领域的“通知+删除”模式的衍生,将通知对象从“网络服务提供者”扩展到“人工智能服务提供者”,救济方式从“删除”扩大到“包含删除在内的其他方式,如停止侵害、更正答辩”等。考虑到生成式人工智能的发展尚未成熟,提前进入应用产业链是以牺牲社会和个体的基本权益为代价,有关企业更应积极回应被侵权人的诉请,提供各种必要的救济措施。
  二是诽谤保险模式。该模式来源于欧美的“商业综合责任保险”(commercial general liability),标准的综合险政策涉及“个人与广告损害”条款,涵盖“口头或书面形式公布材料,对个人或组织实行口头或书面诽谤,或对个人或组织的商品、产品或服务造成名誉贬损等”所造成的任何损害。由于该保险政策并未对带有诽谤、侮辱内容的发布材料的来源或方式进行限定,因而被视作可以涵盖人工智能生成内容物。据此,可以直接适用此类保险。此前,在关于规制人工智能带来潜在风险的倡议中,已有人提出了设立“强制投保责任保险”的建议。考虑到生成式人工智能带给社会的普遍风险,将诽谤保险列入强制投保责任保险中,亦不失为一种以较小经济付出、获得风险共担的可行方案。

END


往期推荐:



《比较法研究》2023年第5期要目

张明楷:轻罪立法的推进与附随后果的变更

陈兴良:刑法教义学中的历史解释

解正山 | 约束数字守门人:超大型数字平台加重义务研究

龙宗智:我们需要什么样的合规不起诉制度

吴桂德:商业数据的私法保护与路径选择

周学峰:生成式人工智能侵权责任探析

高富平:数据持有者的权利配置——数据产权结构性分置的法律实现

中国政法大学 主办
比较法学研究院 编辑长按识别 扫码关
继续滑动看下一个
比较法研究
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存