查看原文
其他

曾真|论大模型预训练数据的信息披露

曾真 上海市法学会 东方法学
2024-10-09

针对大模型预训练数据,目前的监管旨在数据处理合法和质量提高,但这两项目标都难以实现。监管目标的理性定位应是提升数据透明度。模型开发者就预训练数据的信息保留倾向可能引发社会风险,而现有的技术对抗效果不够理想,因此有必要制度“加码”。预训练数据信息披露,对模型开发者具有合规推定效力,对用户和社会公众产生赋权作用,并能激励数据公共资源开发、促进公共利益,可作为提升数据透明度正当、有效的途径。

生成式人工智能新浪潮正在重塑人机交互,改变人类从事写作、编程和设计等创造性劳动的方式,对医疗、法律、教育、文化等产业和职业产生深远影响,也向全社会提出了重大政策挑战:如何确保这些变革对人类有益?在由麻省理工学院和波士顿咨询集团发起的“负责任人工智能”战略专家小组中,超过60%的专家“赞同或者强烈赞同”,目前大多数负责任人工智能项目无法有效应对生成式人工智能的潜在风险。持续数月的作家和演员罢工使好莱坞电影工业陷入停顿,正是生成式人工智能引发负面社会效应的例证。这些事实共同反映出,公众对这项技术普遍缺乏信任。信任不会凭空产生,而是源于对技术的原理、功能和局限的全面了解,也就是对全生命周期的技术透明性提出了要求。
一、问题提出
大模型(Large Models)是生成式人工智能的基础技术。2020年,OpenAI团队就提出,随着算力、数据大小、模型参数规模三者任一指标的指数增长,模型性能都存在线性提升。2022年,DeepMind团队进一步证明了,模型参数规模必须与训练数据大小等比例放大,才能给模型性能带来实际增益。在推动人工智能技术进步的三大要素中,算力作为可自由流通的商品,不受垄断,其值易于量化,开发者一般也不对此保密;相反,算法目前多作为一种合法的竞争优势被作为商业秘密保护,同时算法的快速迭代又弱化甚至消弭了其可解释性,因此,除了满足算法备案的特定要求,强制算法公开几无合理依据。排除这两项,影响生成式人工智能开发余下最大的挑战与突破可能就在于高质量的训练数据集。数据集的选择和更替也在相当程度上体现模型的价值。
“任何在机器学习领域工作过哪怕一点点的人都了解数据的重要性。”尽管如此,人们还是容易低估数据的重要性。因应技术发展动向,各国对生成式人工智能技术或者服务的监管普遍展开。在预训练数据方面,目前的监管目标侧重于数据处理合法和数据质量提高,而对数据透明度往往表现出缺乏关注或者要求过高两种倾向。例如,欧盟“AI法案”欧洲议会提案第399修正案提出了“基础模型提供者义务”,其中第(4)项为专门针对生成式人工智能开发者的规定,因而又称为“ChatGPT规则”。根据该项规定,生成式人工智能开发者除应履行基础模型提供者义务外,还须符合以下三项要求:对生成内容进行标识;防止生成非法内容;披露训练数据中受版权保护的材料。“ChatGPT规则”总体上旨在提升模型透明度,尤其是对训练数据版权合规的要求过于严苛。“披露训练数据中受版权保护的材料”的前提是版权保护的范围足够清晰,然而,某些网络信息内容是否构成作品、是否享有版权,在学理上和司法实践中也并无定论。那么,要求开发者对训练数据进行全面审查,并筛选出所有可能受版权保护(包括尚不清楚是否受保护)的内容,未免强人所难,将产生令人生畏的合规成本。
与之相比,我国《生成式人工智能服务管理暂行办法》(以下简称《办法》)秉持包容审慎的监管原则,构建了包括规范自治、规范提供服务和规范接受监管在内的生成式人工智能服务提供者的义务体系。依照《办法》第7条,依法处理训练数据是规范自治义务的其中一项要求,即提供生成式人工智能服务必须履行预训练数据和优化训练数据的合规义务。但纵观《办法》全文,这一条文的立法目的能否实现,不无疑问。原因在于:其一是适用范围限制,根据《办法》第4条,其仅适用于模型投入使用之后,不包括开发阶段;此外,第9条将生成式人工智能作为一种技术服务,服务提供者和使用者之间通过订立服务协议形成技术服务合同关系,这一法律关系也仅可能成立于模型投放市场之后,不包括开发阶段。考虑到在开发阶段模型尚未向不特定的公众开放,即便存在风险也不会造成较大社会影响,并且在客观上监管困难,此种安排不无道理。但预训练数据毕竟是在模型开发阶段就已经开始发挥作用,如果不对技术的全生命周期进行监督或者治理,数据合法性监管的效果可能欠佳。其二是监管对象限制,根据文义,监管措施的相对人为生成式人工智能服务提供者,当模型开发者和服务提供者合一,此安排不具争议,但若将模型部署于某个专门领域或者用于完成特定任务,模型开发者和服务提供者发生分离,则可能不够周延。例如,第19条规定服务提供者应当配合监督检查,提供相应信息。逻辑上,监督检查发生在模型面市之后,但是,预训练是由开发者完成的,服务提供者单独可能无法提供监督检查所需的完整、全面的信息,然而强制模型开发者提供信息又缺少现行法依据,除非对“服务提供者”作扩张解释,否则监督检查或将流于形式。相比而言,欧盟的“基础模型提供者”概念在范畴上具有更为广泛的指涉,但也有批评意见指出,“基础模型”的定义模糊且涵盖宽泛,这导致基础模型一旦部署在具体应用层,就几乎避免不了被“AI法案”归为高风险类别的应用场景,例如将基础模型用于生成医疗患者档案,或者用于评估入学、就业、信贷、保险等申请资格,那么这实际上等同于将基础模型本身划定为“高风险模型”,无疑加重了模型开发者的负担,并且风险分级的立法目的和原则将被虚置。
除此之外,一些国家针对个案采取了更为直接的行政处罚等监管措施。例如,意大利曾以存在隐私风险为由暂时屏蔽了ChatGPT在其境内提供服务,后又附条件地允许其恢复服务,这可理解为“责令停业”“限制开展生产经营活动”等处罚方式在数字领域的表达。美国联邦贸易委员会(FTC)也正在就OpenAI是否通过ChatGPT实施了数据抓取、生成和传播虚假信息、侵害消费者权益等违法行为开展调查,要求OpenAI就其技术、产品、数据安全和隐私保护等事项提供详细信息。“一禁了之”固然不可取,个案审查也可能挂一漏万,并且个案式的事后审查还常因“刑不可知,则威不可测”而引发寒蝉效应,对技术发展形成阻碍。
要打破上述立法或者行政执法实践存在的局限,必须回答的问题是,就生成式人工智能的预训练数据而言,实施监管的目的是什么?明确了目的,才能顺理成章地回答应当管什么和应当怎么管。本文沿此脉络,针对监管目标目前的方向性偏差,明确合理的目标定位应当是提升数据透明度;又由于现有技术对信息保留的反抗无明显效用,因而提出应当通过制度“加码”,向大模型开发者课以预训练数据的信息披露义务。
二、预训练数据监管目标的理性定位
我国《办法》第7条对预训练数据提出了两个层面的要求:第一层基于现行法明确规定,具有强制性,包括数据来源合法、不侵犯知识产权、符合个人信息处理规则,以及符合法律法规其他要求;第二层目标是提高数据质量,因没有现行法依据,属于软法范畴。但这两个目标均难以通过监管途径实现。进一步考察会发现,对预训练数据进行监管,归根结底应当是为了提升数据透明度。

(一)数据合法性监管祛魅

预训练数据合法的监管目标在客观上难以实现。
1.数据抓取监管困境




数据来源合法的要求主要是针对数据抓取行为提出的。主流模型使用的海量训练数据大都来自网络信息抓取。数据抓取在互联网兴起的过程中并未被禁止。近年来,我国对数据抓取的规制多见于竞争法领域,司法裁判通常援引反不正当竞争法一般条款,并创设企业数据获取“三重授权”原则。据此,当抓取数据中包含个人信息,就需要具备合法性基础,否则侵犯个人信息;即便不包含个人信息,如果抓取对象超出原始数据范围,构成数据产品,也有可能构成不正当竞争。此外,以暴力破解的方式抓取数据,还可能触犯非法获取计算机信息系统数据罪。
竞争法路径在犃犐训练数据抓取上的规制作用并不明朗。对抓取行为是否合法的评价通常要考虑两个关键因素:第一是竞争关系认定。近来的司法实践表现出拓宽竞争关系范围、淡化竞争关系认定的倾向,似乎意在强调数据抓取行为的破坏性,拓宽打击范围;第二是市场影响认定。在AI开发者与数据持有者之间,对“数据抓取行为的正当性判断实质反映为妥善处理数据相关方利益衡量的问题”,因此,AI开发者可能会援引公共利益为其未经授权的数据抓取行为开脱。例如,针对侵犯个人隐私和数据上财产权益的指控,谷歌公司就特别强调其训练数据的“公共来源”属性(例如来自公开发布的网络信息和公共数据),并以“美国法律支持将具有社会价值的公共数据用于创造新的有益用途”为由抗辩。此时,判断落脚点在行为还是结果,会影响数据抓取的定性。以行为论,未经授权或者破坏性的抓取,当然可以认定违法;但若以结果论,由于“数据集是支撑整个大数据产业、人工智能的基础”,考虑到技术发展带来的整体社会效益远大于数据持有者承受的不利益,可能就要否定为模型训练而抓取数据的违法性。由此,在竞争利益和公共利益之间应当如何权衡,将完全取决于行政或者司法部门的决断,缺少其他利益相关者的广泛讨论,无法形成统一认识,这使得现有的判断标准大多是离散的,甚至可能出现完全相反的结果。此外,数据抓取行为在法律上究竟应当如何评价,涉及对数据权属的认定。数据确权的本质是对数据作为新型生产要素的资源和利益进行分配,也不单是竞争法能解决的问题。试图通过监督检查彻底杜绝非法的数据抓取行为,与试图通过竞争纠纷的司法裁判解决数据权属争议一样,可能无功而返。
2.侵犯知识产权监管困境




未经授权,使用受保护的作品进行模型训练是否构成知识产权侵权,同样存在争议。争议焦点的本质是,大模型习得人类语言模式的能力是否等同于社会一般理解的“学习”?若为肯定,那么模型训练(自监督学习)在效果上无异于人类学习;若为否定,模型训练可能只是对训练文本较为复杂的拆解与组合,那么训练过程就可能存在知识产权侵权。研究显示,训练数据在大模型中会被显著压缩。例如,开源大模型RedPajama的训练数据原始大小为5TB,但模型大小仅有14GB,相比训练数据缩小了约500倍。这表示,数据并非“以其原始形式存储和调用”,而是模型将数据中含有的信息“进行抽象、转换和建模,最终表现为神经网络中的参数权重”。因此有开发者认为,对于受保护的作品,模型“不是复制,而是从中学习,应认定为合理使用”。在笔者看来,这种观点显然混淆了数据和信息的概念。数据是以二进制代码表现的机读数字,其大小可度量、可压缩,但数据中所包含的信息量是无法度量的。版权法上的“复制是将作品固定在物质载体中,形成作品复制件的行为,至于固定的具体方式及手段则在所不问。”这就好比将一本大部头书籍缩印成小册子,二者在大小、重量上有显著差别,难道就不构成复制了吗?基于此,既不能当然否定模型训练可能构成复制,也不能当然肯定其构成合理使用。更何况,基于合理使用也仅能限制权利人行使其财产性权利,而对其精神性权利(例如署名权、保护作品完整权)不产生效力,这意味着至少也应当对训练文本的作者和来源作恰当标识。
模型训练不符合现行法上关于合理使用、法定许可使用等侵权豁免的条件,至于训练过程究竟如何定性,甚至是否落入知识产权保护范围,因关乎对机器学习与人类学习的深入理解和认识,也不能一概而论。可以肯定的是,训练数据中包含受版权保护的材料,但如果参照欧盟“AI法案”的做法,令模型开发者将这些材料全都列举出来,对开发者而言过于苛求,也可能诱发大量版权侵权诉讼,按照法律经济分析的“卡—梅框架”,此情形应采用责任规则由侵权者(模型开发者)对权益受侵犯者作出补偿,但潜在的受损害者数量众多,不同作品的补偿数额也不尽相同,从社会成本角度看,在设置责任规则的同时还需要对侵权者统一征收某种税费的制度配套,但实施这种税费征收,一方面要合理界定补偿标准,另一方面又不能抑制创新,现阶段要把握这个平衡点对决策能力是相当大的考验。我国《办法》尽管并未对训练数据作出版权标识的明确要求,但开发者也要对数据可能存在的知识产权侵权负责。这项监管要求忽视了训练数据知识产权侵权认定的模糊性问题,因而是不切实际的。
3.侵犯个人信息监管困境




不同于数据抓取和知识产权侵权的边界模糊性,一旦训练数据中包含个人信息,就落入个人信息保护法的适用范围,即获取个人信息就需要合法性基础,后续是否将之用于模型训练则在所不问。这意味着,模型开发者同时作为数据处理者,必须履行个人信息保护的法定义务,否则将受到法律效果的否定性评价。例如Clearview AI公司因未经同意使用个人敏感信息进行模型训练,就同时面临侵权损害赔偿诉讼和来自欧盟等监管机构的行政处罚。不过,除了“知情—同意”规则,根据个人信息保护法第13条第(5)项,个人信息处理的合法性基础还包括“合理使用”的特定情形。然而,模型训练能否纳入“合理使用”的范围从而获得合法性基础,涉及对“公共利益”“合理范围”等概念边界的勘定,目前尚无定论。与侵犯知识产权相似,也存在监管要求落空的可能。

(二)数据质量监管祛魅

《办法》要求生成式人工智能服务提供者“采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性”。但预训练数据的内在缺陷无法通过监管途径被克服。
1.预训练数据的内在缺陷




第一,数据存在边界。不同于人类基于真实、可靠的内容进行推理或者创作,语言模型的技术原理是基于统计概率完成语句“填空”,这一过程意味着模型生成的回答虽在形式上可能毫无瑕疵,但其内容质量却无法保证,不排除会有错误。错误回答的形成原因是复杂的,总的来说,机器智能存在限度。就训练数据而言,一方面,数据缺乏全面性。尽管大数据所利用数据是海量的,追求的目标是数据的“全本”而非“样本”,但是人类知识千头万绪,再大再多的可用数据也难免存在缺漏。另一方面,数据缺乏时效性。模型通常是离线完成预训练后加载到系统中,在与用户交互时通常也不像搜索引擎那样联网寻找答案,因而信息的时效性欠缺;有的系统搭载了检索增强模块,允许模型访问特定的在线知识数据库,但当模型从多个来源聚合信息,结果可能还是从不同文档截取出部分合成一个仍有错误的回答。
受制于预训练数据在内容和时间维度上的局限,数据存在边界,因而模型响应也是有边界的,但用户并不知晓该边界在何处。当用户提出超出模型响应范围的问题,由于语言模型的直接任务是完成对话,模型就有可能“一本正经地胡说八道”,生成错误答案误导用户。这一过程被称为AI“幻觉”。一般认为,幻觉可能与模型和人类的知识差距有关,目前尚无技术手段可以有效避免。无论人类还是模型自身都无法预估生成内容的质量,人类却有过度依赖模型输出的倾向。在从工商社会迈向智慧社会、数字社会的过程中,“社会关系、行为模式和日常生活都日益深刻地受到网络化、数字化、智能化发展的加持和重塑”,“从社会生产到日常行为都呈现出日益加深、日益全面的数字化生态”。于是人们形成了一种“机器信仰”的思维惯性,尤其是相信,机器对客观事实的反映不受情感、情绪等主观因素左右,因而在涉事实问题的判断上机器优于人脑。但是,大模型的真正优势在于模式识别和合成而非检索和筛选,人类对模型能力的认知错位会导致对输出内容的盲目确信,给错误观点披上可靠的外衣。如果模型输出看似合理(甚至有理有据)而实际不正确的幻觉,人们不经事实核查就照单全收,一旦幻觉继续在网络传播,有可能被抓取用于模型优化训练,经过系统反馈进一步加深自动化偏见和误解,形成虚假信息的循环传播链,使问题变得愈加复杂。此外,语言模型强烈的人机交互特性和强大的解题能力,有诱使人类不知不觉交出决策权甚至停止思考的危险倾向,如果任由模型生成的虚假或者错误信息吞噬我们的公共信息领域,对数字文明的塑造将产生毁灭性打击。
第二,数据“毒性”。预训练数据广泛来源于网络信息内容,它们既是模型强大语言能力的来源,同时又充斥着色情、暴力、仇恨等“有毒”言论。数据毒性不是专属于大模型的风险,但因生成式人工智能广泛应用于人机交互,有害输出势必影响模型性能甚至引发法律责任。对此,一些模型内置了检测工具,通过关键词过滤机制,能在有害内容到达用户之前将其屏蔽掉。但是,如果过度依赖“检测—过滤”功能,对所有风险问题避而不答,模型的响应能力会显著下降,即以牺牲用户体验为代价换取输出内容“安全”,这种模型可能足够安全,但也毫无用处。另一些模型,如ChatGPT,在预训练阶段通过“人类反馈强化学习”(RLHF)步骤,即使用经人工注释的语料对模型进行微调。要准确、全面地过滤有害内容,同时又不损失模型性能,现阶段RLHF过程高度依赖人工标注。数据标注是AI生态中隐形的人类劳动密集型作业,往往具有破坏性和剥削性。例如,在ChatGPT预训练阶段,OpenAI通过劳务外包雇佣肯尼亚当地劳工对数万个文本按照危险级别进行标注,其中部分片段“以生动的细节描述了极端色情、暴力、恐怖内容,可能给人造成严重的精神创伤”。据推断,这些文本可能来自暗网。由于数据毒性的处理暂无万全之策,以暗网内容作为训练数据恐怕超出了公众可接受的范围,并且,数据标注对劳动者的剥削也使得为符合人类伦理而设计的RLHF本身却存在伦理争议。
第三,数据潜在的偏见与歧视。数据是现实世界的映射。对特定群体或现象的偏见或者歧视广泛根植于社会实践,因而反映客观世界的数据也难免存在偏差,由于预训练数据的任何特征都会反映在系统行为中,模型可能重现甚或放大这种偏见与歧视,生成不准确或者不公正的内容,对人权、平等、公平等人类社会秩序价值构成风险。这些风险集中反映在两个方面。
其一,数据偏差可能侵蚀平等价值。首先,数据中部分群体“失语”可能强化刻板印象,加剧弱势群体边缘化。其次,将有偏差的数据用于训练时,模型对统计相关性而非因果性的高度敏感,容易导致不符合人类伦理或者“政治不正确”的观点输出。鉴于此,世界经济论坛建议,模型开发者应当详细记录机器学习所用数据的来源和处理过程,增强可解释性,应对潜在风险。
其二,因语料资源分布不均匀导致现有模型支持不够广泛,可能侵蚀公平、自由、民主价值。现在世界上最先进的语言模型仍仅支持部分语言提供服务,这是因为,可用于训练的多语种语料库十分有限,包含少数族裔语言的数据资源相当匮乏。语料资源的偏向性可能导致模型输出有失偏颇。哥本哈根大学一项研究显示,ChatGPT倾向于输出符合其开发者所在地(美国)文化和价值观的内容,在涉及其他国家和文化时,要么判断有误,要么仍然与美国的文化和价值观保持一致。该研究进一步指出,受训练数据影响,语言模型在文化和价值观方面存在严重偏见,无形中为传播所在国的意识形态推波助澜,甚至可视为“一种文化帝国主义工具”。不少非英语国家已经意识到使用本国语言开发数据资源的重要性,在技术上,现已能够通过跨语言迁移学习将特定语言的模型直接扩展到其他语言,以达到使用高资源的语言数据开发低资源语言模型的技术效果。也有国家直接以本国语言开发大模型以捍卫自身文化和价值观。例如,笔者以“中医是伪科学”这一命题分别对ChatGPT和三个国产大模型进行测试,ChatGPT详细论证了什么是伪科学以及中医为什么是伪科学,称“其理论和实践既不符合现代医学观念,也缺乏科学的实验和临床验证”;国产大模型则持相反立场,有的旗帜鲜明地指出“中医不是伪科学,而是一种具有系统性和实践经验的理论体系”,有的措辞偏向中立,表示“AI不能对任何一种医学理论或实践是否正确作出价值判断”。模型针对同一命题的不同回复表明,基于语料资源形成的文化和价值观差异的确会反映在模型输出中,可想而知,若将模型用于诱导用户或者操纵舆论,很可能“会导致人的主体地位被削弱,人的尊严和价值也会发生流失”。
2.数据质量监管困境




针对预训练数据的内在缺陷,《办法》要求从真实性、准确性、客观性、多样性方面提高数据质量。诚然,法律对社会问题的回应是必要的,但也不得不面对一个现实,那就是对数据质量的外部监督无法从根源上克服数据的内在缺陷。
首先,预训练数据的内在缺陷是一种客观现象,再怎么拓展数据库的边界都无法突破其全面性和时效性的局限,而针对数据“毒性”、偏见与歧视的数据结构优化也无法一蹴而就,这就决定了这些内在缺陷将长期甚至始终存在。其次,针对数据质量的衡量,现行《信息技术数据质量评价指标》(GB/T36344-2018)的评价指标体系是指数据的规范性、完整性、准确性、一致性、时效性和可访问性,因该项标准主要面向行业应用,与《办法》的社会面向存在出入。而缺乏可执行标准或将导致《办法》要求难以落地。
最后,《办法》对于数据质量要求并未设置相应的法律后果(责任),即便训练数据选择不当,对相关主体也无处罚依据。更遑论,《办法》仅规制生成式人工智能服务提供者的行为,而预训练数据很有可能根本就不受服务提供者控制,那么数据质量的监管目标就只是纸上谈兵,没有实际意义。

(三)监管目标的理性定位:提升数据透明度

无论是数据合法性还是数据质量的监管目标,都没有逃脱我国网络法领域一直“以网络服务提供者作为关键主体,以网络信息内容作为规制对象”的制度藩篱。面对生成式人工智能新的特征,在现有技术和制度框架下,这两个目标均难实现。究其原因,是监管目的与手段不相匹配。数据处理合法、数据质量提高,其实是数据治理而不是监督检查的必然结果。数据治理是一项系统工程,“应结合生成式人工智能研发、部署和应用的产业链条,精细设计面向所有行动者的数据责任矩阵”。监督检查发挥作用的前提是作用于正确的监管对象。将数据合法性和数据质量要求作为公权力作用的对象,其结果有可能是,不合法的数据处理行为或者不符合质量要求的训练数据结构变得更加隐蔽,即监管本身将导向无法监管的境地。在此,立法者对技术和技术控制者的能力认识显然出现了偏离。那么,有公权力保障的外部监督能够解决的问题或者能够实现的目的是什么?这一问题的答案才是监管目标真正合乎理性的定位。
综观人工智能治理的各国立场,一个共同的要求就是透明度。其出发点是,人类应当意识到他们正在与人工智能系统进行交互,并且必须了解到系统的功能和局限。人们常说算法不透明,却往往忽略了关于机器学习所使用训练数据的信息也很少传达给利益相关者。如果对训练数据的组成根本不了解,我们对数据和算法合规的监督在何种程度上是有效的,实属未知。申言之,如果人工智能开发者纷纷开始封闭系统,拒绝利益相关者参与人工智能整个生命周期的治理,那么构建可信人工智能的愿景就只会是“空中楼阁”。
尽管现有监管目标的设置不切合实际,在法律强制力的保障下,向犃犐开发者提出数据透明的要求却绰绰有余。数据透明度是一项着眼于模型开发过程而不是输出结果导向的监管目标,其承认外部监管必须通过模型开发者的内生动力才能有效发挥作用,也就是说,数据透明的意义并不在于一步到位地达成数据治理的最终目的,而是敦促开发者重视训练数据可能产生的影响。事实上,仅对数据透明度作强制性要求,弱化对数据合法性和质量的管理性要求,只要数据足够透明,行业和社会力量就会自发实现数据治理的目标。
三、信息保留和技术反制
透明度一直是软件工程的公认要求,由于训练数据透明有助于使模型输出的内容可解释、可追踪,以便技术人员判定和修复模型可能存在的问题,产业界一度对训练数据持开放态度。但随着模型开发的社会阻力增大,出于规避风险的考虑,开发者的态度由信息开放逐渐转向信息保留。现在,关于训练数据集的来源、组成结构等信息越来越不透明。信息保留走向极端就是AI系统彻底封闭,严重违背人工智能伦理规范,带来巨大的社会风险。与之相反,其他利益相关者普遍呼吁信息公开,并针对信息保留实施了大量技术反制行为。然而,这些对抗措施非但没能达到提升数据透明度的实际效果,还有可能产生新的风险。

(一)信息保留的社会危害

虽然对开发者而言,信息保留可以直截了当地规避法律风险,但考虑到其潜在的社会影响,恐怕得不偿失。
1.责任逃逸风险




对开发者而言,信息保留不仅能规避数据处理的法律风险,还可隐匿其违法行为,逃避法律责任,因而有被滥用的倾向,这会引发不同层面的社会风险。在宏观层面,大模型是由少数科学家和工程师设计开发的,但其影响可能波及全社会。与其他风险行为一样,许多决策不应完全交由技术人员作出,需要外部监督介入以纠正他们的错误或者干预其不当行为,以符合科技伦理治理的要求。在微观层面,鉴于模型自身无法选择所使用的训练数据,现有的回答模式又不包含将特定生成内容所依据的参考文献等文本来源作正确列举,如果因预训练数据选择不当导致生成内容侵害他人权益,因与责任认定有关的必要证据缺乏或者不易取得,侵权行为难以证明,权利人就无法获得救济,而模型开发者可能利用商业秘密、技术中立等理由实现责任逃逸。
2.技术安全风险




信息保留对技术发展的影响主要体现在两方面。其一,难以确定模型优化训练的方向。由于预训练数据不透明,用户无法控制提问范围,服务提供者和模型开发者也无法准确地识别和判定幻觉生成的原因,这对模型的持续优化并无裨益。此外,模型可能在交互过程中自我修正,然而参数自动修正的过程和结果均难以被人类理解,当面对指令攻击等恶意引导,参数的自动修正会对模型造成何种影响,也无法评估。其二,无法应对模型的“涌现能力”。涌现能力是指随着模型参数规模扩大,预训练数据增多,大模型表现出“不存在于较小模型中但存在于较大模型中的能力”,包括上下文学习能力、推理能力、泛化能力等。例如,谷歌开发的Bard模型在响应孟加拉语提示词后即调整为以孟加拉语回答,而其预训练数据并不包含孟加拉语语料。这表明,大模型通过自监督训练,可能获得人类始料未及的属性。关于涌现能力的原理仍在研究,但它可能是一把“双刃剑”,因其意味着不能简单地通过小模型的性能来对大模型作出预测。当模型能力不可预测,如何确定这种扩展是对人类友好的?尽管神经网络的运行逻辑捉摸不透,只要训练数据足够透明,在测量模型能力时,至少可以细化所采用的参数指标,对涌现能力的生成机理进行更加科学的分析,不至毫无头绪。
3.技术垄断风险




大模型开发是资源和劳动高度密集型作业,如果模型能够重用,将显著降低开发成本。开源对实现模型重用至关重要,这是由于:首先,闭源模型的开发者有可能随意更改参数或者训练数据,降低模型稳健性。其次,在闭源模型上部署应用的研发人员必须始终听凭模型开发者调遣,这种技术指导关系可能形成事实上的技术壁垒,阻碍新的模型进入市场。最后,虽然AI研发竞争激烈,但总体上是在推动人类理解和驾驭机器智能的能力发展,假如开放的研发生态被彻底抛弃,各开发团队之间再无沟通,可能就会进入零和博弈式的军备竞赛,这对人类技术的整体进步没有贡献。

(二)技术反制的现有实践和局限

信息保留对数据透明的侵蚀带来了潜在的社会风险。对此,在技术领域出现了许多反制措施,但实施效果大都不理想。
1.数据来源审计




数据来源审计的目的是检测特定的数据是否用于机器学习模型训练。包括两条路径。
其一是从模型输出端切入的逆向工程。目前主要是利用模型反转技术。模型反转的原理是,基于模型输出与预训练数据的相关性,将从模型输出中捕捉到的关键特征与现有的公开数据库和其他在线内容进行比对,从而再现预训练数据可能包含的内容,重建预训练数据的结构。但是,模型反转本质是一种隐私攻击手段,当基础模型被应用于特定领域,以私有数据进行微调或者优化训练,模型输出很可能在无意中泄露私有数据中的个人信息甚至是敏感个人信息。也就是说,以模型反转方式推测预训练数据结构,将对数据内含的个人信息构成巨大的隐私风险,并且一旦模型反转被当作提升数据透明度的正当手段,极易被滥用,产生新的道德和法律风险。
其二是从可能作为来源的数据库入手干预模型训练。例如,C4、LAION-5B均为大型公开数据库,也是已知的常见AI训练数据资源,前者专注文字,后者专注图像。在文字领域,2023年4月,《华盛顿邮报》发现版权符号“”在C4数据库中出现超2亿次,使用C4数据库就意味着这些进行过版权登记的作品被纳入模型训练,并且大概率未经授权,这一定程度上为作者提出经济补偿的主张提供了依据。图像领域的反制技术更进一步。柏林艺术家Mat Dryhurst和Holly Herndon创建了网站“haveibeentrained.com”,只要输入可指向某作品的关键字或者上传图片即可检测该作品是否被纳入LAION-5B数据集。比对结果一旦匹配,作者还可以“选择退出”(opt-out)该数据集,避免作品继续被用于训练。
对比发现,从数据库切入的路径更具针对性,也不易引发道德或者法律风险,但在实际效果上还是不能令人满意。首先,抄袭美术作品比文字作品更显而易见,因而目前关于模型训练权限的争论在图像领域相较文字领域更为激烈,检测工具开发也最先针对图像模型而非语言模型,但这并不表示这种检测对文字作品不重要,只是囿于现有技术难以实现,而且最终能否实现也不能肯定,毕竟现实中已进行多年的学术不端检测,效果也是不稳定的。其次,目前该技术仅支持特定数据集检测,对C4、LAION-5B等数据库未收录的作品,暂无法确定是否用作训练,何况技术再完善也无法穷尽所有网络信息内容,始终有疏漏之虞。再次,“选择退出”仅能从此时此刻的数据库中删除作品,无法确定删除对已经完成训练的模型是否生效,因而创作者主观上更倾向“选择进入”(opt-in)路径,即未经作者同意不得将其作品用作模型训练,这让作者有权事先决定是否同意作品纳入AI预训练数据,对作者权益的保护力度更强,但靠检测工具是无法实现的,因为检测发生的时间点已经在作品被纳入训练之后了。最后,免费开放的数据公共资源是人们为促进数据共享的进步尝试,数据库创建者本着利他的目的付出巨大成本完成了这些项目,所收录的作品现在却纷纷被“选择退出”,将挫败数据公共资源开发的积极性。
2.限制访问和数据投毒




由于数据来源审计的实效性有限,网络信息服务提供者(如社交媒体)就其拥有的大量用户个人信息和用户创作内容的数据,开始通过限制访问的方式来加以保护。例如Twitter暂时禁止未登录者查看推文。限制访问和许可费是社交媒体维持竞争优势的常见做法,但存在短视的局限。一方面,谷歌、微软等财力雄厚的科技巨头早已坐拥大量专有数据,Meta、Twitter等社交媒体也掌握了大量网络信息内容,并且它们都有能力获得更多可用数据资源的授权。在人工智能时代,“数据作为新型生产要素,是数字化、网络化、智能化的基础”,“(社交媒体)竞争的护城河就在于数据”。随着数据抓取越来越难,中小开发者、初创企业和非营利组织可能再也无法获得足够的训练数据,这将加剧技术垄断和经济集中。另一方面,社交媒体积累的数据资源本质上由用户的个人信息和智力劳动成果构成,按照劳动价值论,用户有权主张收益。但现在,平台以利己的意图将之专有化、资本化,而作为价值创造核心的用户却无法分享所得利益,实在难谓公平。
在一些创作平台尤其是二次创作平台上,用户也在采取关闭或者隐藏账户以及“数据投毒”等方式向AI开发者表达不满。譬如,同人小说等文学形式系在原创作品基础上进行的改编,其中的角色大多已经受到版权或者其他商品化权保护,因而“二创”作品往往难以主张财产性权益。大多数创作者并不以此谋生,而是出于对原作品富有感情,希望与志同道合的人交流以获得精神满足,也因此对作品的财产属性普遍缺乏关注。然而,财产权益缺位使可公开访问的同人小说网站成为数据抓取的“宝库”。例如,同人小说网站“Archive of Our Own”(简称AO3)的千万余件公开发表的文字作品已被证明用于GPT-3模型训练,而现有的许多营利性人工智能写作程序(例如Sudowrite、Writesonic)都搭载了GPT-3模型。AO3的创作者认为,模型“窃取了人类艺术成果,不是真正的创作”,但却有取代人类写作的现实可能。鉴于现阶段缺少作品纳入模型训练的经济补偿标准,模型生成相似作品是否构成侵权也存在争议,创作者无法获得法律救济。于是有的创作者选择隐藏作品,使之无法抓取也无法访问,但这弱化了社区交流属性,与他们满足精神需求的初衷背道而驰,极大妨碍互联网创作生态的持续发展。有的创作者选择进行“数据投毒”。在人工智能领域,数据投毒包括攻击训练数据样本使数据出现偏差或者直接攻击模型,例如在交互中对模型回答作错误引导。本文的数据投毒是指向在线语料库填充“文字垃圾”这种特定的数据样本攻击。由于“文字垃圾”零散创作的过程缓慢,人们开始利用语言模型批量化生成无意义、低质量的内容,这些内容很可能不真实、有错误、有偏见,或者至少同质化,会“毒害”公共信息领域,长此以往,将导致在线语料库质量整体下降。
3.技术反制的有限作用




涉及数据透明度的问题,不同主体的需求之间存在紧张关系,信息保留和技术反制作为这种紧张关系的外在表现,相互对抗,彼此制约。理想的状态是,通过行业的自我调适,预训练数据的信息公开程度能够在两股力量相互作用之下达到一定平衡,此时,既不会影响开发者的合法经济利益和技术优势地位,又能满足利益相关者对数据的知情权需求。但在现阶段,单靠技术反制尚不能达到预期效果,以技术对抗技术的路径收效甚微。因而,有必要通过制度“加码”,增强反制力度,实现数据透明度提升的目标。
四、迈向透明:预训练数据信息应当披露
模型开发者之所以倾向于信息保留,主要是对信息披露可能产生的经济成本心存疑虑。实际上,信息公开给社会各利益相关者带来的经济利益,总体上高于开发者可能承受的不利益,通过适当的权利义务配置,还能进一步减轻这种不利益。社会运行不是真空,必须考虑成本,而获取信息的经济成本在不同主体之间存在分配差距,“生产信息费用昂贵,一个个人却有能力比另一个获得较为廉价的信息”,由于模型开发者是收集信息更有利的一方,从经济效率的角度考虑,提升数据透明度最有效的方式,是向模型开发者课以针对预训练数据的信息披露义务。这项义务的正当性来源至少包含三重维度,分别是对模型开发者具有合规推定效力,对用户和社会公众产生赋权作用,并能激励数据公共资源开发从而促进公共利益。

(一)肯认合规推定效力

开发者规避风险的意图无可厚非,从行业发展的角度,也不能仅仅因为大模型可能开启新的风险,就对模型研发设置过于苛刻的合规成本,否则将会抑制创新。但与此同时,提升数据透明度也至关重要。决策者需要在此两方利益之间进行权衡。为了打消开发者的顾虑,需要对权利义务妥善配置,即在开发者因信息披露而受有经济不利益之虞时,以某种形式对其作出补偿。通过适当的权利配置,可以赋予开发者的这种利益补偿具体表现为:肯认将履行信息披露义务作为模型训练数据合规的外观,即一旦开发者就预训练数据的相关信息进行了披露,就可以推定其数据处理行为具有合法性,除非有相反证据推翻。
此种推定是合乎逻辑的,其内涵包含两重面向。在实体法意义上,信息披露意味着训练数据的构成向社会公开,继而将接受公众监督,这无疑隐含了一个前提,即训练数据来源合法、不侵犯他人合法权益,并在一定程度上满足结构多元、没有不合理的偏见与歧视的要求。在程序法意义上,根据个人信息保护法第69条,处理个人信息引发侵权责任,适用过错推定归责原则,此时,履行披露义务可作为否定过错的一项指标,即假设模型输出的内容泄露了个人信息,如果模型开发者履行了信息披露义务并能对相关算法逻辑作出合理解释,就应认为其对造成损害没有过错;如果服务提供者能证明模型的合法来源,且提供服务过程没有其他违法行为,也应认定其无过错。从而将过错的证明责任回转至由损害赔偿请求权人承担。类似地,著作权法第59条就侵犯作品复制权,对未直接实施复制行为的主体规定了“合法授权”“合法来源”的免责事由。由此,如果使用由第三方提供的数据当中包含受保护的作品,模型开发者、服务提供者也可援引“数据来源合法”的理由免于承担责任,而履行信息披露义务即可初步证明数据来源合法的事实。从实体和程序两方面对开发者利益作妥善安排,可在一定程度上抵消经济不利益的影响。当然,信息披露受禁反言原则的约束,合规推定仅在披露行为符合诚实信用原则的前提下有效,如果模型开发者就其预训练数据有关信息的说法前后不一,当其不能证明话语变更是正当的,就要推翻合规的假定,令其承受可能的不利益。
此外,信息披露看似在增设义务,增加开发者的合规成本,但这是一种孤立的、片面的理解。个人信息保护法第24条赋予个人在特定情形下享有“算法解释权”。算法是模型价值形成的核心,并且很可能构成商业秘密,开发者尚且需要就其向用户作出说明,根据“举重以明轻”的体系解释方法,对预训练数据相关信息进行披露,本来就是开发者就自动化决策过程进行解释的应有之义,事实上并不会导致合规成本的不当增加。并且,预训练数据集可能含有众多个人信息,向信息主体逐一单独告知并不现实,信息披露作为一种集中的、统一的告知行为,可使开发者取得个人信息处理的合法性基础,从而避免侵犯个人信息的法律风险,在经济上、效率上都是可取的。

(二)发挥制度赋权作用

用户或其他利益相关者针对开发者信息保留采取的反制措施,目的是提升模型透明度,性质上属于信息和技术弱势方为权益免受侵害而采取的自助行为。当技术赋能/赋权失效,政策应当向弱势方(权益易受侵害方)适当倾斜,以示公平。
1.矫正信息失灵




在经济学上,交易信息不对等时,信息弱势方无法作出有效判断,其意思表示真实性可能受到影响,容易引发不公平和低效率,此即信息失灵。就交易方式而言,从农业经济到工商业经济,随着大生产、大销售,定型化、反复性交易普及,商品及服务的专业和复杂程度日益加深,为了减少交易成本、便利交易,格式合同日益增多,而消费者对商品及服务的了解和认知愈益不足,因而信息不对称在消费者和经营者之间广泛存在。民商法许多制度都在尽力扭转信息弱势方的地位,提高其经济地位与缔约能力,确保实现意思自治、平等保护的私法精神。就信息内容而言,交易对象专业性越强,信息不对称就越严重,例如信息披露机制多见于金融法律规制中,这固然有维护金融秩序稳定的考量,同时也反映出信息不对称在金融消费领域尤为突出。
生成式人工智能服务关系中,服务提供者和用户之间同样存在信息不对称。人工智能是一种基于复杂系统的技术手段,驾驭人工智能需要高度专业化的信息技术知识和技能,相较于传统商品,“消费者”(用户)在获取和掌握人工智能相关知识方面“新的不平等”更加隐蔽且后果严重。模型开发者和服务提供者具有显著的信息优势地位,遑论其与用户之间还存在技术鸿沟。基于此,用户作为信息和技术弱势方享有知情权。这是由于:首先,特殊的横向关系(例如委托人和代理人、公司和董事之间)可能引发私法上的信义义务,其实质是“在两个行为主体之间信息与控制力不对称的情况下,要求强者平等对待弱势方利益”。用户与模型开发者、服务提供者之间就存在这种特殊的横向关系。人工智能的技术原理对大多数用户而言是陌生的,专业解读也难以达到普遍理解的效果,此时,信息共享可以为用户明智决策提供条件。其次,在信息不透明、沟通无效的情况下,用户和服务提供者之间很难建立信任,而履行信义义务(进行信息披露)正是信任构建的基础。最后,用户知情权请求权能的实现,即用户请求告知相关信息,高度依赖模型开发者、服务提供者的行为自觉。通常,合同双方可以通过平等协商对此进行约定,但是模型开发者、服务提供者相对于用户的技术和信息优势可能使这种协商实质不平等,对预训练数据最低限度的信息披露在一定程度上抹平了这种不平等。
在更广泛层面,要求模型开发者面向全社会公开预训练数据相关信息,系赋予社会公众知情权,其正当性和必要性有待进一步论证。公众知情权一般属于公法调整范畴,模型开发者就其内部信息向社会公开,是私主体承担公法义务。理论上,私主体通过提供公共产品参与到公共事务中,与政府合作治理,从而承担公法义务。对模型开发者而言,此种公法义务的主要来源是基于模型(尤其是基础模型)作为新型数字基础设施,具有公共产品属性。实践中,生成式人工智能正在成为赋能型的“平台技术”,这里的“平台”强调的是技术通用性,基于这种属性,模型开发者通过对技术的控制有能力实施社会控制,从而在事实上又具有了法律意义的“平台”身份。同在技术支持链上的服务提供者也具有“平台”身份,这一点可以从《办法》第14条推导出来,该条要求生成式人工智能服务提供者对用户行为进行审查,并授予服务提供者一定的处罚权。在数字时代,“平台具有自身运营的管理权和政府转加的公法审查权,形成了日益庞大的、具有某种公权特征的私权力”。当模型提供者事实上被视为平台企业,行使“准行政权”“准司法权”,则承担相应的公法义务也就顺理成章了。
宪法学者巴尔金教授指出,“由于信息不对称,人们特别容易受到数字公司的影响,必须确保数字公司不会背叛市场信任或者实施操纵”。一方面,人工智能技术本身极具风险,并受到社会高度关注。从风险公平分配的角度出发,根据企业道德责任之成立和归责条件,开发者理应承担社会责任,回应公众知情权需求。另一方面,大模型之“大”意味着模型的参数规模、训练数据体量和算力值巨大,通常只有智力、财力充足的大型开发团队才能满足这些条件。按照“责任铁律”理论,企业在社会上的影响力和权力越大,其所应承担的社会责任也越大。接受社会监督也是企业社会责任的应有之义。
2.矫正损益失衡




人工智能生成的内容(AIGC)属于网络信息内容,存在侵权风险。考察传统的责任理论会发现,法律对行为人因疏忽、鲁莽、不作为所造成的消极后果往往持负面评价,即要求承担法律责任。相比之下,法律效果正面评价一般只针对积极作为。有学者将法律效果评价的此种倾向性差异总结为“损益失衡效应”。“益”即法律效果的积极评价,“损”为法律效果的消极评价。生成式人工智能的使用提高了“益”的门槛,但因“损”的标准保持不变,这种失衡效应被进一步放大了。具体而言,如果因AIGC产生侵权责任,即便用户对该输出没有作用或者作用轻微,仍有可能因风险自负承担责任。相反,人们普遍认为,模型输出过程并未承载足够的人类劳动和技能,因而AIGC往往难以在法律上受保护。例如,美国版权局认为由Midjourney生成的图像不受版权法保护,并拒绝对其版权登记,《自然》《科学》等权威期刊也禁止将ChatGPT标示为作者。实际上,现阶段对于AIGc收益和损害归属的认定困难重重。
就AIGc所得收益而言,存在的争议是,在模型及其开发者和用户之间,收益应当归属于谁。目前主流观点排斥人工智能本身成为创作者,对于AIGc是否构成作品、是否受版权法保护也尚未达成共识。即便搁置版权法的上述争议,只要大模型仍作为生产力工具,被用于完成创造性工作,则AIGc的收益归属就有讨论的必要。模型是效率工具,而其能力又大大超越了传统办公软件的辅助属性,已经部分甚至完全代替了人类劳动,例如ChatGPT的文本生成功能可以直接生成论文。AIGc在本质上被认为来自被“喂养”的大量训练文本,因此模型生成的学术论文,哪怕经得起学术不端检测,也不是真正的“研究成果”。然而要防止用户将AIGc据为己有的失信行为,目前恐怕只能依靠其自我道德约束,或者使用效果有限的检测工具——现有的检测技术容易出错,并且无法检测出人机合作完成的内容。如果预训练数据足够透明,至少在检测环节能更有针对性,有助于提高对模型生成和人类创作内容的辨认精度。
此外,若预训练数据中包含受版权保护的内容,该文本的权利人又能否对生成内容主张收益?至少在道德上,权利人主张获得补偿是正当的,但是如果预训练数据集的构成完全保密,那么权利人提出经济补偿的主张将缺乏事实依据支撑。此外,从利益分配的角度,应当对权利人作出经济补偿的主体有可能不是模型开发者而是数据集生产者。如果数据不透明,权利人根本无从得知数据集生产者的身份,也就只能向模型开发者要求补偿,在这之后,开发者可能要继续向数据集生产者追偿;反之,权利人就能直接向数据集生产者提出请求。因而开发者的披露行为其实也为自身脱离追责链条创造了条件。
就AIGC造成的损害而言,缺乏模型预训练数据构成的相关信息,就难以判断生成不当内容的“罪魁祸首”,无法在模型开发者、服务提供者和使用者之间准确界定和分配责任,这将阻碍生成式人工智能的商业化部署和应用,并且无益于对模型利用进行监管的正确转向。首先,主张用户对AIGC准确性负责的前提,是就模型如何正确使用、AIGC如何正确对待等问题,用户至少能够掌握足够的知识,否则会造成对用户不公平的局面。其次,企业在决定应用AI之前往往会通过尽职调查对模型形成充分了解,例如训练数据构成、模型架构、模型如何根据相关标准运行等。因开发者的信息保留,尽调报告可能遗漏某些重要信息,但即便如此,相关人员仍有可能因失职而承担责任。如此一来,企业管理者部署AI的意愿会受打击。最后,大模型“极大地增加了技术滥用风险”,例如受到用户指令“有害、危险、极端的语言激活,可能输出危害安全、秩序和个人隐私的内容”,为此,仅面向技术开发者的监管是不够的,会使开发者过于小心翼翼并在技术上对用户行为过度约束。通过数据透明有助于实现正确的责任分配,从而稳定开发者和用户的行为预期。

(三)激励数据公共资源开发

从公共利益出发,预训练数据的信息公开,既能够作为可用数据集经济正外部性溢出的补偿,又可以激励数据公共资源持续开发,对社会技术发展整体利好。
其一,作为经济正外部性的补偿机制。优质数据资源,尤其是非营利性的公共数据资源开发,会产生经济正外部性。模型开发者往往不是直接的数据生产者。尤其是利用公共数据集进行模型训练时,因公共数据资源多为无偿使用,价格机制调节失灵,数据生产者很难分享模型应用产生的收益。经济学理论中,外部性导致资源配置错位,要消除这一影响,就要设法创造一个模拟的市场,使价格机制重新发挥作用,即实现“外部性内在化”。正外部性因产生利益外溢而存在补偿问题,倘若没有公共部门介入,纯粹由市场调整,那么对于产生正外部性的经济行为,以营利为目的的精明商人很可能缺乏继续从事的动机。反映在数据资源开发场合,公共资源(例如维基百科)生产者一时兴起的“社会责任感”或许不足以支撑他们长期从事数据生产,如果得不到经济上的正向反馈,久而久之,数据生产者可能难以为继,优质数据资源将面临质量衰退甚至资源枯竭的境地。有研究估算,高质量语言数据将在2026年之前耗尽。倘若要对数据生产者的劳动和投入作出合理补偿,前提就是训练所使用数据资源的信息公开。
其二,激励数据公共资源持续开发。一方面,创作者不愿意“人类作品的思想表达成为‘数据工厂’的原料”,可能因此停止在公共领域发布或者共享其作品,长此以往,优质的数据公共资源将逐步减少。另一方面,如果模型训练所依赖的数据来源已使模型性能足够优秀,甚至可以在功能上替代搜索引擎,人们将习惯于通过聊天机器人直接获取信息内容而不再访问原始来源网站。吊诡的是,传统上,这些来源网站的盈利模式是累计访问量以兑现广告收入,访问量减少可能导致其无以为继,新的训练资源也将越来越少,复使得未来的AI开发成为无本之木、无源之水。这种现象被称为“重用悖论”。AI开发不是孤立行为,人类为开放数字生态所作出的贡献应当得到肯定,激励缺位或者错位都不利于数据资源的可持续开发。况且从对价值形成的贡献角度而言,产业链上的利益相关者无法与模型开发者共享收益也是不公平的。相反,通过训练数据信息公开,可以统计数据库被用于模型训练的频率,这一频率的高低清楚反映了市场需求,长远来看,将对数据资源尤其是数据公共资源的针对性开发起到指引作用。
结语
早在2018年,人工智能专家Timnit Gebru就提出“数据集的数据表”概念,虽然这项努力尚未得到立法者认可,但为技术监管目标指出了正确方向。通常,计算机软件无论多么简单或者复杂,都应附有描述其操作特性、测试结果、推荐用途等信息的文档。正是在此意义上,本文主张大模型开发者就预训练数据的相关信息通过标准化的记录和流程主动公开,这些信息内容至少包括所使用数据集的组成、大小、来源等。如果模型开发者同时是数据集创建者,则还应当补充此数据集的创建动机、数据收集过程以及推荐用途。
进一步而言,在数据透明的基础上,未来愿景是,生成式人工智能研发者能够为其源代码、架构、工具、基准、最佳实践等建立通用且开放的标准化注册表,在研究社区内共享,为产业和学术研究的有效合作提供平台,从而构建对公众透明、负责任的可信人工智能模型和系统。
往期精彩回顾江东华|法规竞合视角下的“猫药案”分析——对适用生产、销售伪劣产品罪的否定
秦思楠|数字平台经营者“准公主体”身份的规范进路
陈怡玮|日本数字社会形成基本法述评
目录|《上海法学研究》2023总第9卷
陈伟 向珉希|生成式人工智能背景下犯罪主观评价的异变与应对
许丽|ChatGPT技术嵌入平台消费歧视的公私之治


上海市法学会官网

http://www.sls.org.cn


继续滑动看下一个
上海市法学会 东方法学
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存