查看原文
其他

曾庆醒 | 涌现效应下的生成式人工智能数据污染及其治理路径

曾庆醒 法学杂志
2024-11-17
【作者】曾庆醒(华南理工大学法学院、法治经济与法治社会研究中心副研究员
【来源】《法学杂志》2024年第5期数字法治专题
【基金项目】本文为2023年度教育部人文社会科学研究专项任务项目“ChatGPT对高校思想政治工作的影响研究”(项目编号:23JDSZ3006)的阶段性研究成果
内容提要:生成式人工智能的迅速普及推动了社会进步,但也衍生出数据污染风险。作为复杂系统的一种特性,涌现效应从系统的底层相互作用中出现,并在AIGC的数据生成和数据传播阶段不断作用。涌现效应叠加导致数据污染问题日趋严峻,由此诱发偏见性表达等权益侵害问题。技术源头治理困难、风险预防理念遇阻、责任归属原则失灵构成数据污染治理的核心困境,为平衡技术进步与社会安全,应坚持审慎原则,采用渐进式技术治理策略,并引入全过程风险管理理念;坚持发展原则,明确归责的基本要件和例外情形,建立合理的责任剥离机制;坚持生态原则,引入多元综合治理模式,经由原则释法补充规则空白,并建立数据污染联动治理机制。

关键词:AIGC ;涌现效应;数据污染;法律治理;风险预防



目次

一、涌现效应下AIGC数据污染的生成机理与规范威胁

二、涌现效应下AIGC数据污染的治理困境

三、涌现效应下AIGC数据污染治理的理念转向

四、涌现效应下AIGC数据污染的规制路径

五、结语



生成式人工智能(以下简称AIGC)拥有比传统人工智能更强大的信息分析与人机交互能力,其可以独立生成内容,拥有自感知、自决策、自执行、自适应、自学习等特征,代表性模型为ChatGPT。该技术在全球范围内得到广泛运用,但由涌现效应所诱致的负面影响越发显著,致使法律面临“破窗性”挑战。[1]具言之,涌现效应是指新的、未被预期的特性从复杂系统的底层相互作用中产生,致使AIGC的输出结果具有高度的不确定性,从而可能存在严重的失真、不端或缺维现象,进而诱发偏见性表达、误解性表达等可能严重侵害特定人员或人群权益的问题。为回应前述现象,国内外均开展针对性的立法活动,我国的专门性规范为《生成式人工智能服务管理暂行办法》,欧盟于2024年批准《人工智能法案》,美国科罗拉多州通过SB24—205法。但专门性立法仍较为粗疏,未能形成全面的规范体系,由AIGC诱发的诸多问题仍由传统法律加以规范。传统法律往往基于明确的因果关系和责任归属展开规范适用,但在涌现效应的影响下,AIGC语境下的因果关系模糊化,责任归属亦有较大商榷空间。现有规范体系在AIGC领域失灵后,如何确认核心治理原则并更新相应的法律框架,成为亟待回应的现实问题。[2]


一、涌现效应下AIGC数据污染的生成机理与规范威胁


AIGC数据污染治理是本文的核心命题,但为何着重从涌现效应的角度加以阐发?应如何理解涌现效应的特殊性?又为何要从法学视角出发审视AIGC技术与涌现效应?对这些前置性问题的回应,是本文的根基所在。


(一)AIGC语境下涌现效应的现实特征


AIGC是一个内含多个子系统的复杂系统,每个子系统都具有相对独立的要素、结构和功能,子系统之间的组合呈现出多层次、多维度、多因素相互作用的复杂状态。AIGC运用深度学习技术,通过投入大量数据进行训练,输出全新内容,这个过程涉及子系统的相互作用,如各个层次的神经网络之间的连接、权重调整和激活函数的应用等。由于子系统互动的复杂性,AIGC可能会出现人类难以预料的异常行为,此种“整体大于部分之和”的系统现象称为涌现现象。涌现效应具有普遍性,如生物学中单细胞生物到复杂生物体的进化、经济学中的群体行为及市场经济波动都是涌现效应的体现,但研究AIGC语境下的涌现效应具有重要的现实意义,如何约束难以约束的人工智能是我们这个时代的重要命题。


涌现效应的出现与模型的规模大小密切相关,而AIGC是投入大量数据训练后产生的大模型,这便决定了AIGC将放大涌现效应的影响。“事物的涌现大都依赖于一定数量的个体,一个群体,一个集体,一个团伙,或是更多。”[3]庞大的数据量使大模型拥有涌现的能力,这是其区别于小模型的主要特征。[4]模型在具备一定规模后便能具备其预设之外的能力。大规模预训练模型是AIGC的基础,这一巨无霸模型所包含的参数是传统技术系统无法企及的,因而在AIGC上发生涌现效应的可能性最大,涌现效应的后果也更具有不确定性。


涌现效应是AIGC核心竞争力的来源,但也带来诸多社会负面影响。AIGC所产生的涌现效应并不总是积极有益的。第一是偏见性表达,涌现效应可能导致AIGC无意中放大存在于训练数据中的偏见,从而生成和推广有歧视的、偏见的内容,包括种族、性别、信仰偏见等。[5]第二是误解性表达,涌现效应可能导致AIGC误解人类文化、情感和行为,从而影响模型输出的质量和适用性。第三是错误性表达,涌现效应可能导致AI模型输出错误或者虚假内容。AIGC的前述负面效应具有广泛的社会影响。由于AIGC技术采用的是“训练一应用循环模式”,当AIGC产生并传播误导性、不准确或有偏见的数据时,整个互联网数据集合的质量和准确性都会受到威胁。这种逐步放大的效应不仅限于单一系统,也可能跨系统传播,导致数据污染问题加剧,最终威胁到经济社会的秩序安全,如图1所示。对于涌现效应导致数据污染的具体机制,以及数据污染的宏观社会后果,下文将分为数据生成与数据传播两个阶段具体展开。


图1涌现效应下的数据污染机理


(二)涌现效应下数据生成阶段的数据污染


AIGC的技术核心在于利用神经网络,尤其是深度学习技术,从海量数据中捕捉数据分布并生成新数据。具言之,AIGC通常使用由多层神经网络构成的深度学习模型,而这些神经元之间的连接方式、权重分配以及层间信息传递都会使数据处理和转换极为复杂。输入数据在这些层间传播时,每个层级都会因特定的算法及训练数据等多重因素随机发掘新的特征或模式。在涌现效应的作用下,AIGC在数据生成阶段的数据污染问题越发凸显。


第一,数据失真。数据尤其是语言数据,其内容的理解高度依赖于数据所处语境,而理解水平取决于研究人员的经验,缺乏系统科学的方法论,深度学习模型可能过度拟合样本或欠拟合,致使生成的数据失真。“模型训练集中的信息压缩所带来的必然偏差,在未给出多余指示词的情况下,模型生成的输出包含一些与输入不符合的信息,这些信息可能是错误的、无关的或者荒谬的,制造出语义扩张或无关的情境,而且无法避免。”[6]


第二,数据不端。当AIGC模型接触到含有偏见或违反伦理的训练数据时,其可能会因涌现效应而产生歧视性或攻击性内容。其典型表现是,微软2016年推出的聊天机器人在社交平台上被灌输大量带有仇恨和偏见的信息后,“成为一个集性别歧视、种族歧视等于一身的不良少女”。[7]


第三,数据缺维。人类数据具有多元维度,长期以来社会学家、传播学家、语言学家致力于发掘这些信息,但依旧无法全面地发现和验证。AIGC模型无法发掘其中所有维度,人类试图利用大模型的涌现性发掘更多设定之外的维度信息并加以利用,但涌现性的不可控会导致信息失真。[8]换言之,模型在训练时自组织出一个相对单薄的模式,该模式反映了训练数据的表面特征,但未能反映全局多维结构,这可能导致AIGC输出一些有损于权利保护或社会安全的片面信息。


(三)涌现效应下数据传播阶段的数据污染


涌现效应不仅在数据生成阶段诱发数据污染,更在数据传播阶段推动受污染数据快速、全面流动,进一步导致社会负效应。涌现效应对数据传播的影响,难以纳入传统传播理论的分析框架。


传统传播理论一直聚焦信息传递的渠道、速度、深度和广度,但涌现效应使得传统的传播学原理缺乏解释力。传统传播学依赖于群体的统计学特征,可以充分把握群体的传播规律,但难以预测个体的信息传播,这与机器学习的原理相似。AIGC的出现改变了数据的生成方式和传播方式,个人可在短时间内生成大量符合自身利益以及价值观的数据并予以传播,数据的群体性特征被逐步稀释。[9]涌现效应下的病毒式传播已成为一种新的传播模式,并且呈现出一系列新特征。其一,海量性传播。由于AIGC能在短时间内产生大量数据,这些数据在被推入公众领域后迅速传播,每个单一的数据点可能引发数以百万计的分享和传播。其二,高速化传播。AIGC能在短时间内依据社会舆情动向,快速生成符合当下传播热点的内容并进入社会传播,成为某一观点传播的助推器。[10]其三,全渠道传播。AI生成数据不仅通过传统的信息传播方式进行传播,还会利用各种新媒体形式实现快速扩散。涌现性使同一信息能够跨越媒体的形式边界,实现多渠道融合传播。其四,高渗透传播。AI生成数据内容覆盖面广,在涌现效应的作用下,数据能够深入各类人群,不论年龄、性别、地域、圈子、阶层,几乎所有的互联网用户会被触及。由于涌现效应的前述影响,受污染的数据能够在短时间内无孔不入地侵入社会。


(四)涌现效应叠加下AIGC数据污染的社会危害与规范影响


涌现效应作用于AIGC数据生成和数据传播两个环节时,会形成叠加效应。数据污染不仅在初始生成阶段就已形成,而且在传播过程中得到放大,其影响范围不断扩大,最终造成严重的社会后果,并冲击现有规范体系与数据治理模式,对此可从以下三个方面加以理解。


第一,影响科技创新。数据污染会导致原本应准确无误的机器学习模型产生偏见,当这些被污染的模型参数再次用于新的数据生成时,将形成恶性循环,最终误导研究者的判断。由于涌现效应下数据传播具有海量性,此种误导的力度不容小觑。[11]科技创新不是纯粹的技术演进问题,其有赖于法治环境的保障,如何在科技创新的正效应与负效应之间达成平衡是本文的核心问题意识之一。


第二,冲击数据安全。数据是当代社会的“石油”,但数据污染可能导致数据的完整性和可靠性受损,增加数据泄露、篡改或被恶意利用的风险。[12]更为严重的是,这种污染数据可能误导决策者,使之在数据安全方面采取错误行动,威胁整个信息系统的安全性。[13]《生成式人工智能服务管理暂行办法》第9条明确赋予AIGC提供者网络信息安全义务,能否成功制约数据污染将深刻影响义务的履行质量。


第三,混淆社会表达。数据污染会在相当程度上堵塞真实信息的传播渠道,导致公众对某些社会事件或现象的理解产生偏差,进而采取较为激进的行动,影响社会的和谐稳定。“立于数据基础之上的算法可说是人工智慧最重要的技术概念之一,若有底层数据不尽正确、算法标准未臻公平情况或欠缺必要的问责要求与对应责任规范等,均可导致歧视的出现。”[14]数据污染既可能在微观上导致特定人员的肖像权、名誉权、隐私权等权利被侵害,又可能在宏观上导致特定群体遭受严重的社会歧视。


二、涌现效应下AIGC数据污染的治理困境


AIGC的不稳定性和不可控性冲击了人类社会的秩序,由于受到技术限制,此种负面影响无法通过技术优化的路径加以矫正,数据污染治理迫切需要切实可行的法律方案。但现有规制思路已有捉襟见肘之势,难以有效回应AIGC数据污染治理的现实需求。


(一)涌现效应下数据污染的技术源头治理困难


当前,技术源头治理是化解AIGC数据污染的主流方案。这种策略基于技术理性,试图通过对AIGC模型的训练数据、网络结构、学习规则等要素进行规制,从而控制算法的输出,避免有害数据的生成与传播。[15]但囿于AIGC与涌现效应的特性,仅依赖技术源头治理策略,很难全面消除这种涌现效应对数据输出的影响。


首先,AIGC的不确定性无法经由技术源头治理得到克服。技术源头治理策略预设的前提是AIGC是可以通过科学知识和数学方法予以预测和控制的活动。然而,基于人工神经网络结构的复杂层级,在深度学习领域AI模型的数据输入与结果输出之间存在人类无法认知的“隐层”,那些埋于AIGC系统深处的零碎数据和模型参数蕴藏着大量人类难以理解的代码和数值,这也是涌现效应的发生根由。人类在设计算法时无法全面预见其应用场景和后果,正如OpenAI创始人之一的Greg Brockman所言,“AIGC可能产生‘不可知的’影响”。[16]换言之,涌现效应内生于AIGC,仅凭人类的有限理性与目前的技术水平,无法充分克服不确定性。


其次,即便是缓和而非克服AIGC的不确定性,同样困难重重。虽然缓和AIGC的不确定性仍有理论上的可能,但AIGC所具备的技术复杂性、不透明性等特点,给技术源头治理带来了严峻挑战。[17]《生成式人工智能服务管理暂行办法》第19条规定,AIGC提供者有配合有关部门说明数据来源、规模、类型、标注规则、算法机制机理等技术事项,以及提供必要的技术、数据等支持和协助的义务,但AIGC的算法极端复杂,涉及数学、计算机科学、神经网络等多个领域知识,对这些领域的知识有综合性的深刻理解,是缓和AIGC不确定性的重要前提。此外,AIGC因其不透明性而被视为“黑箱”,即使专业人员也未必能充分解释其内部运作过程。由于设计和实施技术源头治理方案的决策者几乎不可能具有相应的知识禀赋,其对于算法技术的理解多来源于少数专家的“转译”,如何避免部分专家利用其技术权力俘获管制进而贬损立法的民主性供给,便成为一道艰深的难题,“当规制机构需要大量的技术专家时,规制机构与受规制事业在人事上出现了相互交流,这也将成为规制者被俘获的原因”。[18]


最后,技术源头治理策略难以兼容“双重技术性”。AIGC的法律治理既涉及算法技术,也涉及立法技术,是一个具有“双重技术性”的难题。从社会系统论出发,在功能分化的现代社会中,唯有法律系统可发挥形成“稳定规范性预期”功能,[19]立法技术的核心正在于保障法律的稳定性,然而,信息技术的快速发展使得AIGC系统能够以极快的速度进行版本迭代和功能升级。[20]自2018年以来,OpenAI公司在Transformer模型的基础上研发出GPT、GPT-2、GPT-3、 ChatGPT模型,并很快迭代升级到GPT-4, AIGC在短短几年内从文本模型发展成多模态模型。[21]立法修法需经历科学论证、民主意见吸纳等程序,周期较长,法律更新的速度难以与技术发展的现实需求相匹配,AIGC的创新步伐远超过监管工具的创新速度。[22]算法技术的发展深刻影响算法规范的有效性,而目前来看,算法技术对立法技术提出的挑战尚无法得到有效回应。


(二)涌现效应下数据污染治理的风险预防理念遇阻


新兴科技引发的风险问题使风险预防原则越发成为市场监管的重要遵循,险基监管(risk-based regulation)成为新兴技术治理的主要监管手段。风险预防理念的核心目标是在数据污染发生之前进行干预,即“向前”预防,而不是“向后”补偿。[23]但由于涌现效应的介入,这种预防机制的实效受到削弱。


1.风险预防原则的规范展开。风险预防原则起源于20世纪70年代的德国,[24]随着其不断发展,风险预防原则逐渐形成了以威胁的不确定性、反课举证责任、取缔潜在有害行为及增加公众决策参与为核心内容的内部构造。[25]由公法视角出发,风险预防原则的实质是立法者授权政府在国民面临不确定的威胁时,可不顾科学上的不确定性而采取保护国民的行动。[26]对风险预防原则内部构造进行结构化阐释可进一步将风险预防原则拆解为危害预期、危害的不确定性、预防措施和证明机制四项基本要素。[27]其中,危害预期指的是出现了对公民基本权利或社会公共利益构成现实威胁的潜在危害,这是风险成立的前提。以现实威胁的出现作为风险预防原则的启动条件,可避免政府事前干预的盲目性。危害的不确定性是指潜在危险转化为现实的可能性及可能后果均难以确定,这意味着风险预防原则可能在运用过程中扼杀了潜在价值增长点,也有可能防止了难以承受的灾难性后果。预防措施是识别风险后采取的一系列干预防范措施。证明机制是将安全担保举证责任倒置,其本质是对政府干预的救济措施,体现了对社会整体利益与风险主体利益的兼顾。出于对社会公共利益的谨慎,风险主体需积极举证以排除其风险。


进入风险社会后,财富的社会生产伴随着风险的社会生产。[28]风险社会语境下,社会各子系统之间的复杂勾连关系使风险预防成为重要法律原则。我国法律对风险预防原则的应用广泛,主要集中于社会法与行政法领域,例言之,我国《突发事件应对法》第三章规定了突发事件监测与预警制度,《网络安全法》第五章规定了网络安全监测预警与应急处置制度,《食品安全法》第二章规定了食品安全风险监测和评估制度。风险预防理念本质上是对市场经济中过程导向的意思自治理念在特定领域的限制与矫正,试图以政府先期干预实现结果导向的最优资源配置。风险预防原则的广泛应用意味着法律作业理念将发生根本性变革,由“如何修复和恢复社会”转向“如何规训和塑造社会”。[29]对于涌现效应,我国也以风险预防作为重要规制手段,《生成式人工智能服务管理暂行办法》第3条、第7条要求AIGC提供者应事先采取措施提升AIGC质量,尽可能避免涌现效应带来的负面后果。


2.风险预防成效不佳。风险预防原则因其以国家公权力介入私领域的属性而长期成为国家干预经济生活的重要理论基础,但风险预防原则对社会整体利益的原则性保护使其在微观层面缺乏细致的粒度。面对AIGC数据污染与涌现效应叠加的技术治理困局,单纯的险基预防无法适应涌现效应下AIGC数据污染问题的治理。


一方面,风险预防机制缺乏现实可操作性。根据风险预防理念,AIGC治理的目标是通过预先设置的机制将数据污染扼杀在生成阶段。这意味着在AIGC研发的最初阶段就要进行严格限制,将数据污染的风险降至最低。然而,面对AIGC语境下的涌现效应,此举会陷入缺乏现实可操作性的窘境,[30]其原因在于,涌现效应所导致的AIGC不确定性是确定的。虽然“风险预防原则的功能不在于增加社会的安全程度,而是通过事前立法活动让人类在面对科学后果的不确定性时有一种制度化的反应程序”,[31]但风险预防措施必须在相当程度上避免风险转变为现实的损害,否则社会对于风险的担忧便无法得到缓解。然而,数据污染风险具有类型多元性,需要考虑多种可能的风险场景和影响。这不仅是一个技术问题,还涉及伦理、社会、经济等多个领域。[32]此种多元性使得风险预防变得更加复杂,需要综合考虑多个领域的知识和经验。进言之,数据污染治理涉及多个法域,[33]这种特性使得风险预防变得越发困难,需要综合考虑多个法律领域的规定和原则。意欲通过风险预防规避数据污染,在技术维度不太具有现实可行性。


另一方面,风险预防理念与科技创新之间存在内在矛盾。“人工智能的发展及其对社会的影响在根本上是不确定的,因此,人工智能的规制问题日趋严峻,且目前来看缺乏公认妥适的规制方法。”[34]为实现风险预防目的,往往需要对技术活动进行严格监管,这无疑会限制科技创新。以AIGC为代表的前沿技术需要相对宽松的环境来保持其发展活力,如果过度拘泥于风险预防,为技术革新设置过多限制条件,那么前沿技术的发展可能会陷入停滞。[35]在新技术发展的过程中,“如果没有足够的耐心和包容,如果没有温和、理性的理念,很容易因为对风险的担心而扼杀至关重要的创新”。[36]重视安全甚于经济效益固然是法律的基本立场,对于难以准确判断其风险大小的技术创新,法律持以审慎监管的态度并无不当,但过于严格的监管可能会影响国家在相关领域的竞争力。因此,应当在风险预防与技术创新之间找到一个平衡点,确保在预防风险的同时不会过度限制技术发展。平衡点的确立是困难的,只是由于专门性立法的规定较为宏观、粗疏,这一内在矛盾尚未外显化。


(三)涌现效应下数据污染治理的责任归属原则失灵


在涌现效应的作用下,数据污染问题呈现出前所未有的复杂性,传统的归责理论在这种新环境中面临着适用困境。不同于A引发B而B引发C,或者2+2=4这种常见的因果逻辑,与涌现相关联的是一种不同类型的因果关系:2+2≠4,甚至不可能意外等于5,而是呈现2+2=苹果的结果。[37]从法理角度来看,责任归属的基础在于因果关系,而当存在多个可能的因果时,如何确定法律责任归属便成为复杂的问题,[38]在涌现效应的语境下,因果关系甚至可能无法得到直接确定,这进一步加剧了判断责任归属的难度。涌现效应是一种具有耦合性的相互作用的产物,而在技术上,这些相互作用及这些作用产生的系统都是非线性的,即通过对系统的各部分进行简单求和并不能得到整个系统的行为。[39]AIGC的涌现效应打破了技术与结果之间简单的线性因果模式,导致责任大小难以判断,从而引发一系列的责任归属难题,对此可从以下两个方面加以理解。


一方面,因果关系模糊带来归责挑战。因果关系之有无是归责的核心问题之一,[40]但AIGC所具有的涌现效应导致AIGC本身与数据污染结果之间存在复杂的因果关系。“生成式人工智能行为在技术上的特殊性,给侵权责任带来了一系列影响,其中就包括因果关系的多元化。人工智能生成的侵权内容是算法、算力、数据集和人机交互等众多因素共同作用的结果。但因算法的复杂性,这些因素对侵权内容的生成发挥了多大的作用,在客观事实层面难以判断。”[41]“算法黑箱”是导致因果关系认定复杂化的重要原因所在。[42]在数据生成阶段,算法的正负面效应都可能因涌效应而随机出现,即一因会导向多种可能的果,且此种转换是随机的,数据污染与特定算法之间的关联难以明确。在数据传播阶段,涌现效应也会对AIGC内容的传播产生影响,信息在传播过程中因涌现效应而逐渐失真,最终产生数据污染,损害结果与最初内容生成者和传播者的行为之间的关系更加复杂。


另一方面,跨境流动加剧数据污染治理的责任归属难题。全球化背景下,跨境数据流动已经成为日常现象,“数据流动涉及多主体,现有机制无法联动不同部门展开数据监管协作,更无法在数据跨境中同他国机构进行协作,不具有协同治理的可能”。[43]首先,在跨国背景下,AIGC技术的涌现效应使得其与数据污染之间的因果关系变得更加复杂和模糊。例如,在美国开发的AIGC技术可能在全球范围内产生数据,但这些数据在其他国家产生的污染效果如何,以及这种效果与原始技术之间的关系如何,都是难以确定的。其次,即使因果关系明确,不同国家的法律体系也存在差异。当数据污染问题出现时,各国可能会有不同的归责标准和处理方式,某些国家更倾向于采用过错责任制,而其他国家采用无过错责任制,这种差异使责任归属变得更加困难。最后,跨国数据流动涉及多个参与主体,除了技术开发者和数据使用者,还有数据的传输方、存储方等,难以确定责任归属,[44]现有的国际法律框架并不足以应对这一问题。[45]


三、涌现效应下AIGC数据污染治理的理念转向


AIGC的涌现效应对现有的法律治理模式造成了极大挑战,其根本原因在于以风险预防原则为代表的传统规制理念无法有效回应新兴技术引发的治理困局。为适应涌现效应下AIGC数据污染有效治理的要求,亟待实现规制理念转向。以审慎原则、发展原则、生态原则为核心的规制理念对AIGC数据污染治理展现出较强的理论解释力,审慎原则、发展原则主要用于缓和AIGC治理的算法技术难题,而生态原则主要致力于克服法律技术难题。


(一)技术源头治理的法理基础:审慎原则的内涵廓清


涌现效应作用下AIGC的数据污染问题突破了绝对技术理性的认知范畴,即使最先进的技术也不能始终如一地产生预期的结果。因此,可行的办法是从绝对技术理性转向相对技术理性,即充分认识人类现有知识的局限。这种转变意味着对AIGC的算法规制应当采用更为审慎、克制的态度。


审慎原则的核心价值在于纠正绝对理性主义在算法治理中可能带来的负面效果,并解决源头治理和预防机制遇阻的困境。第一,其克制了算法治理中片面追求理性化、确定化的倾向。AIGC的不确定性决定了绝对技术理性化的治理方案难以奏效,应保持开放和审慎的态度。第二,其避免了依赖任何单一的源头治理手段。[46]源头治理、预设规制、事后补救需要互相配合,才能面对极具复杂性的数据污染问题。第三,其弥补了风险规避机制在应对不确定性时的局限性。AIGC处于不断发展的过程当中,相应的规制措施需要在现实中不断调整。同时,审慎理念并非对新兴技术采取放任态度的粗放式治理,而是采用了精细化的治理思维,避免了陷入粗放式与强干预之间的“钟摆式”循环。


《生成式人工智能服务管理暂行办法》第3条规定,对生成式人工智能服务实行包容审慎和分类分级监管。“审慎的核心要义是保证新业态发展时的‘安全底线’,既不是控制也不是限制,从监管运作方式角度看它应随时进行创新与改良。”[47]面对AIGC涌现效应的不确定性和复杂性,以及技术源头治理策略在兼容“双重技术性”方面的困难,期望一蹴而就地找到完美的解决方案是不切实际的。如果仅从静态的视角来看待AIGC数据污染的治理问题,那么管制俘获等问题便无法得到解决。相反,渐进式的算法治理策略才是最佳选择。[48]这意味着,一种动态、结果导向的治理视角是更值得提倡的,治理策略应随着算法的发展和应用情况逐步调整,“既要为创新‘踩油门’,又要为秩序‘踩刹车’”。[49]


(二)责任归属中的价值平衡:发展原则的内涵厘定


“正处于发展阶段的AIGC具有巨大的促进经济和社会进步的潜力,因而不宜在风险和不利影响尚不明确时约束其发展,应充分发挥其潜力。”[50]涌现效应所带来的挑战在技术的持续迭代中将呈现循环式的演变。以早期的搜索引擎算法为例,因其缺乏对虚假信息的识别,大量误导性内容在网络上流传。随着技术进步,搜索引擎逐渐学会如何筛选和优化内容,误导性信息的传播随之减少。因此,只有秉持技术发展的原则,才能更好地调治技术发展所伴随的风险。


在数据污染治理中秉持发展原则,核心是平衡好技术进步与社会公共利益的关系。科技发展不可避免地会伴随风险,但因此而施加过度规制,便可能丧失推动社会进步的机遇。放眼全球,美国在AIGC初期阶段所采纳的开放态度为其技术进步提供了广阔的空间。当前,对AIGC的过度规制可能会导致全球竞争力的失衡,这对国内企业和技术生态均不利。因此,发展原则强调对于数据污染的法律治理应采取有限治理策略,以技术进步与社会公共利益的良好平衡为核心关注点。欧盟的《通用数据保护条例》(GDPR)为数据保护提供了全球领先的法律框架,但其也被批评为过于严格,可能会抑制技术创新。欧盟对于重大技术创新一向持过度审慎的立场,这已经导致其在部分领域处于竞争劣势。以转基因产品为例,欧盟对转基因产品的审慎态度导致对此持开放态度的美国垄断了转基因产品市场,自2004年起,世界上超过90%的转基因大豆种子来源于美国的孟山都公司。[51]基于全球范围内的制度学习和经验借鉴,我国应在数据污染治理中找到一个既能保护数据安全,又能鼓励技术创新的平衡点。


同时,发展原则的具体落实在于归责谦抑。鉴于涌现效应所带来的不可预测性,对于数据污染的责任分配应持以更为审慎和包容的态度。[52]这不是对技术开发者和运营者的放纵,而是在责任判定时充分考虑涌现效应的复杂性。虽然他们是AIGC的提供者,但也“无法完全影响数据的各个方面,即使在前期对模型进行完善的判断,实际上也无法预料到具体情形下的模型微调”。[53]具言之,在侵权责任的认定中,不能简单地将责任归咎于制造商或软件开发者,而应考虑技术的成熟度、模型运行环境和人为因素等多种因素。美国为在维护市场秩序的同时鼓励企业创新,在技术治理的责任归属上创设了技术避风港制度。其《儿童在线隐私保护法》(COPPA)规定将“激励网络平台采取技术规制手段进行自我监管"。负责COPPA执行的美国联邦贸易委员会(FTC)以白名单的方式,列出符合儿童在线隐私保护标准的技术清单。只要网络平台采取了白名单内的任意一项技术,就可换取相应的平台责任豁免。[54]技术避风港制度背后体现的正是在技术治理责任分配上既关照市场秩序与用户权益,又给予技术实施者较大的自由空间,以富有灵活性的制度设计兼顾技术创新发展的需求。有观点认为,AIGC服务提供者是侵权风险的制造者和侵权内容的提供者,无法依据避风港规则主张免责,[55]这种观点实际上是以绝对理性主义为基础,未考虑到涌现效应的复杂性,要求AIGC服务提供者为其无法完全控制的模型承担完全责任亦不妥当。


(三)多法协同的体系化治理:生态原则的内涵阐释


审慎原则和发展原则主要是从算法技术治理的角度出发探讨AIGC数据污染的规制路径。生态原则(也称全面原则)指向的则是法律技术治理,其强调整体性和系统性的法律应对策略,旨在运用多种法律路径和策略来应对数据污染的多重挑战,并重视多种法律手段之间的协调性。[56]同时,这一原则也强调法律的预见性和适应性,要求在面对新的技术挑战时,能够及时调整和完善法律规范。领域法学理论是生态原则在学术理论维度的对照,张文显教授在中国法学会法学期刊研究会2023年年会上提出,“领域法学、新型交叉法学知识体系构建研究”是建构中国自主法学知识体系的第三阶段任务,侧面说明生态原则是学术界普遍赞同的法律治理技术。[57]


生态原则的核心是多元综合治理。在涌现效应的作用之下,数据污染问题涉及多个领域,因而数据污染治理需形成一个综合性的法律治理框架。正在快速发展而又不断产生新的法律现象、新的法律问题的新兴交叉领域本身包含着隶属不同部门法体系下的法律关系,故而以其为调整对象或调整方法的法律也就必然会横跨多个部门法,且往往具有复杂性、多元性,因此,新兴交叉法律领域无法按部门法学标准将其划归于任何既有的法律部门。[58]生态原则的提出就是要打破传统的法律部门界限,实现各个法律领域的有机整合和协同治理。同时,还要注重不同层级法律规范之间的配合,并发挥其他社会规范的功能作用,形成完备的AIGC治理规范体系。这不仅可以弥补技术源头治理的不足,还可以形成一个全面的屏障机制,确保数据污染问题得到有效遏制。在此基础上,还需要建立一个跨域协同机制,以确保多元主体之间的有效沟通和协作,形成一个真正的综合性法律治理体系。


四、涌现效应下AIGC数据污染的规制路径


目前,我国已初步建构起AIGC治理的制度体系,但仍然存在规制范围有限、效力层级较低、规范衔接不畅等问题。[59]涌现效应的存在并不意味着针对AIGC数据污染的规制不可能实现,而是需要根据复杂系统涌现效应的特性,通过理念转换、制度调适、机制健全等方式逐步修缮治理方案。以审慎原则、发展原则和生态原则为导向的新治理方案具有较高的灵活性和包容性,能更好地协调各方之间的利益冲突,是过渡阶段AIGC治理立法的务实选择。[60]


(一)审慎原则视角下的数据污染动态规制


欲实现审慎原则的制度转化,一方面,需调整立法文本的规范结构。AIGC虽然整体上呈现出不确定性,但局部的相对确定仍是可能实现的,当某一技术在应用中展现出一定的稳定性、可预测性和社会影响力时,才将之纳入规制范围。而对于那些不够成熟或存在不确定性的新兴技术,应先进行观察和研究,以确保对其特性和潜在风险有充分的了解,再决定是否对其进行规制以及如何规制。另一方面,需为相关立法预留更多的变迁空间。虽然提供稳定的规范预期是法律的独有功能,但只有在社会事实相对稳定的前提下,前述功能才可能得到真正实现。AIGC技术的发展一日千里,这决定了社会很难对其形成整体性的稳定预期。为在AIGC治理领域实现法治与改革的平衡,可考虑在立法文本中引入更多的试点条款,并对试点的目标、期限、评估主体等核心要素作框架性的规定。


传统的数据治理模式常常过于重视事前的风险预防,而忽视了数据环境的动态性,但AIGC的涌现效应加剧了这一环境特征。因此,需要转变治理理念,从单纯的事前风险预防转向全过程的风险管理,“对算法加强技术实时监测,致力于对算法的数据使用、应用场景等日常监测”。[61]


这种全过程的风险管理理念要求注重风险的动态性,重视风险的实时监控和应对,以掌握风险管理的主动权。风险规制是一个持续的过程,包括风险识别、评估、处理和监控,而非一次性的、静态的风险评估和管理。金融、医疗等领域的风险规制实践也证明了这一点。例如,金融机构在高频交易中实施动态风险评估以适应秒级变化的市场,而医疗机构则在新药上市后持续监控其实际效果和副作用。同时,在全过程的风险管理理念要求之下,事中和事后的风险介入也至关重要。这意味着,不仅要在技术应用之前进行风险评估,还要在技术应用的过程中和应用之后持续地进行风险监控和管理。


为此,应重点引入“风险监管沙箱”制度。“风险监管沙箱”可以为技术应用提供一个实验性的环境,允许企业在一个受控环境中测试其AI系统,以确定其是否可能导致数据污染。在此期间,监管机构可以密切监视这些系统的行为,评估其风险并提供反馈。一旦系统在沙箱中成功地展示了其安全性和有效性,其就可以在更广泛的环境中部署。[62]与此同时,囿于AIGC的涌现性,即使其在沙箱中没有呈现出明显的运行危险,也无法完全排除其在更广泛环境中诱发风险的可能,故而有必要进一步引入“安全港”制度。“安全港”制度可以为技术应用提供一个相对安全的环境,只要企业在开发和部署AI系统时遵循了某些预先确定的最佳实践和标准,就可以在某种程度上免于担责。这可以为企业提供清晰的行为指引框架,鼓励其采取积极措施预防数据污染。


(二)发展原则指引下的数据污染治理归责制度构建


第一,强调因果关系是本质归责要件。因果关系是法律归责的核心要素,为后者提供了正当性基础,虽然在特殊情况下法律以是否实施违法行为作为责任归属的依据似乎回避了因果关系问题,但此举实是对因果关系的拟制,并未影响因果关系在法律归责领域的基础性地位。处理AIGC导致的数据污染问题时,仍应以因果关系作为责任归属的基础,只有当有充分证据可以明确证明某一行为与数据污染之间存在相当的因果关系时,才能对相关主体进行归责。虽然AIGC的涌现效应导致因果关系模糊化,但这种模糊更多地体现在技术意义上而非规范意义上,换言之,只要可将数据污染结果追溯至某个瑕疵行为,便可满足必要条件公式意义上的因果关系要求。[63]坚持因果关系在责任归属上的基础地位,仍具有现实可行性。


第二,审慎适用重大损害的例外归责。由于条件公式意义上的因果关系要求较容易得到满足,仅以此作为归责要件会导向普遍违法,有必要进一步讨论归责的主观基础问题。在大部分的法律情境中,过错原则是首选的归责方式,但当面对涌现效应下的数据污染问题时,尤其是涉及国家安全或重大公共利益时,必须重新审视这一原则的适用性。数据污染可能导致误导性的信息传播,从而对公共利益造成严重损害。在这些特殊情况下需引入无过错责任或严格责任制度,即便数据提供者或处理者未有明显的主观过错,只要其行为与数据污染之间存在明确的因果关系,就应当承担相应的法律责任。但是,鉴于无过错责任的严厉性,其适用应当慎重为之。为平衡公共利益与个人权益,无过错责任应仅适用于危害后果特别严重的极少数案例,并应给予责任人合理的免责机会。具体而言,如果责任主体能够证明其已经尽到了所有可能的注意义务,[64]但数据污染仍然发生,那么其应当被免除责任。


第三,过错相当和可预见性下的责任剥离。为了确保责任的公正归属,必须考虑数据污染的实际后果,并据此对责任进行合理的分级和剥离。具体来说,对于那些存在过错并直接导致严重数据污染后果的责任主体,其应当承担与其行为过错相匹配的责任。但对于涌现效应所带来的超预期后果,应当进行适当的责任剥离。此处可借鉴“可预见性理论”,即责任主体只需对其行为可能导致的、在合理预见范围内的后果承担责任。这种责任分级与剥离的设计,不仅可以确保归责的公正性,还鼓励了责任主体在未来更加审慎地处理数据,从而更好地维护社会的公共利益。


第四,坚持以使用者为中心的跨国数据污染归责理念。在全球化的背景下,跨国模型的应用逐渐普及,然而,这种模型在我国的应用面临特殊的挑战和问题。为维护国家的网络安全和信息主权,我国《计算机信息网络国际联网管理暂行规定》第6条设置了防火墙机制规定,加之美国对我国AIGC的封锁,大部分国外AIGC模型在国内无法正常使用。但是,仍有部分使用者为了追求技术的前沿选择翻越防火墙,使用这些跨国模型。这种行为不仅违反我国法律规定,而且可能加剧数据污染问题。因此,对于应用跨国模型所造成的数据污染,应当坚持以使用者为中心的归责理念,强化使用者的主体责任。


第五,厘清涌现效应作用下的数据污染责任主体及其行为责任。首先,AIGC运营者不仅处于数据污染链条中的首要环节,还负有为用户提供清晰、准确数据的责任。如果涌现效应导致AI输出偏离预期,运营者有责任对这些输出进行校验和纠正。其次,运营者应当定期对其算法进行审查,确保其输出与既定的标准和预期一致,并且应负有对用户进行适当教育的责任,提醒用户关于AIGC输出内容的潜在偏见,以使用户在使用数据时能作出明智的决策。再次,使用者虽然可能是数据污染的无意传播者,但其也应当承担一定责任。用户参与到AI系统输出内容的环节中,应当对输出的内容负有监督义务,并对其可能实施的严重危害社会的行为负有预见义务,且应采取措施避免此类行为的发生。[65]同时,用户还应对所接收到的信息进行核实,避免盲目转发可能的错误信息。[66]复次,作为数据传播的主要渠道,平台等应当对数据的质量和完整性承担监管责任,建立有效的数据审核机制,以检测和阻止污染数据的传播。最后,开发者作为数据污染的源头,应当对其产品的输出质量承担最终责任。开发者在设计和训练AI模型时,应当确保数据集的多样性和代表性,避免潜在的偏见和错误。同时,开发者应当定期对模型进行评估和校准,确保其输出是准确和可靠的。


(三)生态原则引领下的数据污染多元综合治理路径选择


首先,通过原则释法补充规则空白。由于涌现效应下的数据污染是跨法域问题,需要将不同领域的法律原则和规则整合,形成一个更有弹性和包容性的法律框架。为此,需要充分发挥法律原则的指引功能。作为法律体系的基石,法律原则为法律提供了稳定性和连续性,如何经由原则释法兼顾法律规范的现实针对性与稳定性,成为克服技术源头治理的关键所在。在具体实践中,如何界定数据处理者的责任、如何确切衡量数据的真实性和完整性,以及在数据污染事件发生后如何为受害者提供有效的救济,都是需要进一步明确和解决的问题。AIGC数据污染的相关规则在短期内难以完善,为了填补法律治理的规则空白,需要更加深入地挖掘和解释现有的法律原则。“通过法律解释将新兴技术与现象包容进现有的法律条文内,合理扩大法律范围,灵活应对新事物带来的问题。”[67]对法律原则的深入解释和细化,不仅可以确保法律在数据污染治理方面的有效应用,还可以在未来立法面对类似问题时提供有益的参考和指导,有效避免“头痛医头、脚痛医脚”的双重技术性困境。AIGC的数据污染涉及多个法域,不同法域有对应的处理原则,故而此处仅作框架性的概述而不对相关原则作具体阐释。


其次,完善软法与硬法协同互动的风险规制体系。由于涌现效应作用下的数据污染常产生跨域影响,单一主体难以有效回应,跨部门、跨领域的多元主体治理合作十分必要。在此过程中,大量的技术规则和行业规则被创造出来,与法律规则共同作用,逐渐形成一种“交互回应型规制”。[68]这种规则体系上的共建共享,正是当今信息技术革命下国家力量和社会力量之间互动的体现。[69]针对涌现效应下数据污染的跨域性和多变性,既需要国家通过刚性的硬法规则落实各方责任,也需要技术规范、技术标准、行业规范等软法在治理中发挥更多作用。一方面,依靠原则性、倡导性强的软法规范来防治技术不完善所引发的风险,在新技术真正引发风险前通过制定行业自律规范或指南等方式引导技术向善,弥补新技术治理中硬法滞后的不足,平衡安全保障与创新发展;另一方面,对滥用新技术而引发风险的行为,需通过责任划分明确且具有国家强制力保障执行的硬法规范划定红线,增强数据污染治理的刚性。[70]


最后,建立数据污染联动治理机制。作为一个涉及多个领域的复杂问题,数据污染确实需要多法域的联动治理来综合应对。欧美地区已经在这方面取得了一些经验,特别是欧洲通过GDPR建立起数据保护委员会,这为世界各国提供了一个值得参考的样板。该委员会不仅协调各国的数据保护工作,还确保数据主体的权益得到充分保护。但是,我国法律体系、行政管理体制、市场经济的运行模式等都与欧美存在显著的差异,需要在借鉴国外经验的基础上,结合我国实际情况,制定出一套既具有国际视野又具有中国特色的联动治理模式。具体而言,一是建立起国家整体层面的数据污染联动治理机制,可以考虑建立一个专门的监管机构,如“数据保护与治理委员会”,来协调跨领域治理的工作,确保数据污染问题得到有效治理。同时,引入一系列具体机制,如数据污染的报告制度、数据污染的预警系统、数据污染的快速应对机制等,保障数据污染问题可以得到及时有效的处理。二是强化数据污染治理的国际联动,这需要加强国际合作和交流,学习和借鉴国外的先进经验,并向国外分享我国在数据污染治理方面的实践和成果。这样,不仅可以提高我国在数据污染治理方面的能力,还可以为全球的数据污染治理提供中国智慧和中国方案。


五、结语


AIGC为人类社会带来了巨大便利,但其所蕴含的涌现效应带来了显著的数据污染问题。以偏见性表达为代表的数据污染风险,会带来严重的侵害权益与冲击国家安全问题。技术源头治理的复杂性、风险预防的遇阻和责任归属的模糊性,均说明AIGC数据污染治理难以一蹴而就。对此,审慎原则、发展原则和生态原则为数据污染治理提供了新的视角和方向。如何治理AIGC数据污染是一个既复杂又紧迫的问题,本文的探讨仅仅是一个开始。面对涌现效应带来的一系列挑战,法律治理需要勇于创新,超越传统思维框架,探索更加公正、有效和可持续的数据污染治理模式。

[1]参见马长山:《智能互联网时代的法律变革》,载《法学研究》2018年第4期。

[2]See Miram Buiten, “Towards Intelligent Reguation of Aandietal meligence”, EJRR.41, 43, 48(2019).

[3][美]凯文·凯利:《失控:全人类的最终命运和结局》,东西文库译,新星出版社2012年版,第31—32页。

[4]这是复旦大学计算机科学技术学院教授邱锡鹏在2023世界人工智能大会青年优秀论文奖颁奖仪式暨青年科学家论坛上的发言。参见沈湫莎:《大模型“爆火”后,不妨再来点冷思考》,载《文汇报》2023年8月25日,第3版。

[5]参见支振锋:《生成式人工智能大模型的信息内容治理》,载《政法论坛》2023年第4期。

[6]江潞潞:《智能交往,未来已来——“激荡AIGC”数字交往八人谈观点综述》,载《传媒观察》2023年第3期。

[7]莫宏伟:《强人工智能与弱人工智能的伦理问题思考》,载《科学与社会》2018年第1期。

[8]参见曹章露、王林辉、赵贺:《人工智能技术与劳动力迁出决策——来自全国流动人口动态监测调查的经验证据》,载《北京工商大学学报(社会科学版)》2023年第2期。

[9]参见周伟:《自媒体时代网络舆情政府回应困境与消解路径》,载《情报杂志》2018年第4期。

[10]参见刘智锋、吴亚平、王继民:《人工智能生成内容技术对知识生产与传播的影响》,载《情报杂志》2023年第7期。

[11]参见孙蒙鸽、韩涛、王燕鹏等:《GPT技术变革对基础科学研究的影响分析》,载《中国科学院院刊》2023年第8期。

[12]“AIGC模型通过大量数据训练以实现高效的知识生成。在训练过程中,模型可能会间接地‘记住’部分训练数据中的敏感信息,如个人隐私、商业机密、专利信息等。这些敏感信息在模型生成知识的过程中可能会意外泄露。由于模型输出的不可预测性,这种泄露可能难以预防和控制。”刘智锋、吴亚平、王继民:《人工智能生成内容技术对知识生产与传播的影响》,载《情报杂志》2023年第7期。

[13]参见曹建峰、方龄曼:《“深度伪造”的风险及对策研究》,载《信息安全与通信保密》2020年第2期。

[14]McKenzie Raub, Bots, Bias et al. Artificial Intelligence, Algorithmic Bias and Disparate Impact Liability in Hiring Practices, ARK. L. REV.529, 530(2018).

[15]参见张凌寒、于琳:《从传统治理到敏捷治理:生成式人工智能的治理范式革新》,载《电子政务》2023年第9期。

[16]CAVE S, óHéIGEARTAIGH S S. Bridging Near-and Long-term Concerns about AI, Nature Machine Intelligence, 1(1):5-6(2019).

[17]参见毕文轩:《生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角》,载《比较法研究》2023年第3期。

[18][英]安东尼·奥格斯:《规制:法律形式与经济学理论》,骆梅英译,中国人民大学出版社2008年版,第97页。

[19]参见李忠夏:《宪法学的系统论基础:是否以及如何可能》,载《华东政法大学学报》2019年第3期。

[20]清华大学的研究报告表明,从迭代模式来看,生成式AI开启了一种“敏捷迭代”模式,这种模式具有快速小版本迭代特征。参见清华大学新闻与传播学院元宇宙文化实验室:《AIGC发展研究报告1.0版》,载微信公众号“清元宇宙”,2023年5月18日,https://mp.weixin.qq.com/s/FJhRU8cZ_hgk6Gzd5wbStQ。

[21]参见郭春镇:《生成式AI的融贯性法律治理——以生成式预训练模型(GPT)为例》,载《现代法学》2023年第3期。

[22]See Braden R. Allenby, Governance and Technology Systems: The Challenge of Emerging Technologies, in the Growing Gap Between Emerging Technologies and Legal-EthicalL Oversight 20-22(Gary E. Marchant et al.eds., 2011).

[23]参见张凌寒、于琳:《从传统治理到敏捷治理:生成式人工智能的治理范式革新》,载《电子政务》2023年第9期。

[24]See LaFranchi Scott, Surveying the Precautionary Principle, s Ongoing Global Development: The Evolution of an Emergent Environmental Management Tool. BC Envtl. Aff. L. Rev.32(2005):681.

[25]See Kriebel David, et al. The Precautionary Principle in Environmental Science. Environmental Health Perspectives, 109.9(2001):871-876.

[26]金自宁:《风险规制与行政法治》,载《法制与社会发展》2012年第4期。

[27]参见苏宇:《风险预防原则的结构化阐释》,载《法学研究》2021年第1期。

[28][德]乌尔里希·贝克:《风险社会》,何博闻译,译林出版社2004年版,第15页。

[29]齐延平:《数智化社会的法律调控》,载《中国法学》2022年第1期。

[30]See eg. Christopher D. Stone, “Is There a Precautionary Principle?”, Environmental Law Re-porter News & Analysis, Vol.31, No.7.

[31]宾凯:《政治系统与法律系统对于技术风险的决策观察》,载《交大法学》2020年第1期。

[32]参见孙祁:《规范生成式人工智能产品提供者的法律问题研究》,载《政治与法律》2023年第7期。

[33]不同法律部门之间的衔接本就是一个复杂的问题,加之数据污染自身的复杂特征,会越发加重法律对其规制中不同法律部门之间衔接的复杂性。

[34]Gonenc Gurkaynak, Ilay Yilmaz, Gunes Haksever, Stifling Artifical Intelligence: Human Perils, 32 COMP. L.& SECURITY REV.749, 754-55(2016).

[35]See Yavar Bathaee, The Artificial Intelligence Black Box and the Failure of Intent and Causation, 31 HARV. J. L.& TECH.898, 938(2018).

[36]支振锋:《生成式人工智能大模型的信息内容治理》,载《政法论坛》2023年第4期。

[37]参见[美]凯文·凯利:《失控:全人类的最终命运和结局》,东西文库译,新星出版社2012年版,第20页。

[38]See H. L. A. Hart/TonyHonor: Causation in the Law, The Clarendon Press, (1985).

[39]参见[美]约翰·霍兰德:《涌现:从混沌到有序》,陈禹等译,浙江教育出版社2022年版,第163页。

[40]参见张文显:《法哲学范畴研究(修订版)》,中国政法大学出版社2001年版,第133页。

[41]徐伟:《论生成式人工智能服务提供者的法律地位及其责任——以Chat GPT为例》,载《法律科学(西北政法大学学报)》2023年第4期;参见袁曾:《生成式人工智能责任规制的法律问题研究》,载《法学杂志》2023年第4期。

[42]参见王莹:《算法侵害责任框架刍议》,载《中国法学》2022年第3期。

[43]商建刚:《生成式人工智能风险治理元规则研究——以chat GPT为例》,载《东方法学》2023年第3期。

[44]See Kami A. Chagal-Feferkorn, Am I an Algorithm or a Product? When Products Liability Should Apply to Algorithmic Decision-Makers, 30 STAN. L.& POLYREV.61, 65(2019).

[45]我国制定的《网络数据安全管理条例》虽然是一个积极的尝试,但仍然是单边的做法,难以规制跨国数据污染问题。

[46]有学者认为,“传统的静态单向监管已经无法满足当下的法治需求,包容审慎监管要求政府在放弃监管与过度监管之间把握平衡点,主张发展与规范并重,而非一先一后”。刘权:《数字经济视域下包容审慎监管的法治逻辑》,载《法学研究》2022年第4期。

[47]刘乃梁:《包容审慎原则的竞争要义——以网约车监管为例》,载《法学评论》2019年第5期。

[48]对于发展趋势尚不明确的新业态,可以实施暂缓干预,但并不等同于不干预甚至放任,政府应当首先在一定的观察期内对其进行有效的监测分析,并动态预判潜在的风险,若届满前已认清发展趋势及其风险大小,或者新业态触碰了相关安全底线,则应即刻启动监管。参见刘权:《数字经济视域下包容审慎监管的法治逻辑》,载《法学研究》2022年第4期。

[49]马长山:《算法治理的正义尺度》,载《人民论坛·学术前沿》2022年第10期。

[50]郭春镇:《生成式AI的融贯性法律治理——以生成式预训练模型(GPT)为例》,载《现代法学》2023年第3期。

[51]参见王绍光:《大豆的故事——资本如何危及人类安全》,载《开放时代》2013年第3期。

[52]参见张文显:《构建智能社会的法律秩序》,载《东方法学》2020年第5期。

[53]何煊:《生成式AI的法律风险及应对》,载《西北民族大学学报(哲学社会科学版)》2023年第4期。

[54]沈伟伟:《技术避风港的实践及法理反思》,载《中外法学》2023年第4期。

[55]参见刘云开:《人工智能生成内容的著作权侵权风险与侵权责任分配》,载《西安交通大学学报(社会科学版)》2024年6月4日网络首发。

[56]有观点认为,“应当加强伦理、政策、法律多种治理方式的有效结合,以‘可持续发展’为共识重视促进性立法和伦理原则规范的制定”。刘露、杨晓雷、高文:《面向技术发展的人工智能弹性治理框架研究》,载《科学与社会》2021年第2期。

[57]领域法学的核心研究成果已结集出版。参见刘剑文等:《领域法学:社会科学的新思维与法学共同体的新融合》,北京大学出版社2019年版,第3页。

[58]刘剑文:《论领域法学:一种立足新兴交叉领域的法学研究范式》,载《政法论丛》2016年第5期。

[59]参见徐继敏:《生成式人工智能治理原则与法律策略》,载《理论与改革》2023年第5期。

[60]参见徐玖玖:《人工智能的道德性何以实现?——基于原则导向治理的法治进路》,载《现代法学》2021年第3期。

[61]胡坚波:《多措并举推进我国算法治理》,载《人民论坛·学术前沿》2022年第10期。

[62]参见崔聪聪:《个人信息监管沙箱的法理基础与制度构建》,载《法学杂志》2024年第2期。

[63]参见王莹:《算法侵害责任框架刍议》,载《中国法学》2022年第3期。

[64]例如采用了先进的数据清洗技术,并采取了所有必要的预防措施。

[65]参见邓建鹏、朱怿成:《ChatGPT模型的法律风险及应对之策》,载《新疆师范大学学报(哲学社会科学版)》2023年第5期。

[66]用户发现数据污染问题时,是否负有及时向相关部门或平台举报,从而防止进一步的数据污染传播的义务,需要进一步论证其合理性。不能为了规制数据污染,而盲目设定或增加用户的责任负担。

[67]郭春镇:《生成式AI的融贯性法律治理——以生成式预训练模型(GPT)为例》,载《现代法学》2023年第3期。

[68]参见马长山:《数字法治的三维面向》,载《北大法律评论》2022年第2期。

[69]参见马长山:《数字社会的治理逻辑及其法治化展开》,载《法律科学(西北政法大学学报)》2020年第5期。

[70]参见杨福忠、姚凤梅:《人工智能赋能社会治理之维度及风险法律防治》,载《河北法学》2022年第11期。

分享本文:

点击界面右上角按钮,在弹出框中选择“发送给朋友”或者“分享到朋友圈”

本刊微信号:faxuezazhi

本刊微信二维码:

继续滑动看下一个
法学杂志
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存