网络首发 | AIGC介入知识生产下学术出版信任机制的重构研究
网络首发时间
2023-07-03
网络首发地址
https://kns.cnki.net/kcms2/detail/42.1085.G2.20230630.1112.002.html
Photo by Anastasia Zhenina on Unsplash. |
王鹏涛 徐润婕
南京大学信息管理学院,南京,210023
目的 | 意义 | 探究以ChatGPT为代表的人工智能生成内容(AIGC)技术介入知识生产活动下的信任机制重构问题,以确保AIGC参与形成的学术出版物继续得到学术共同体信任,促进学术出版领域人工智能应用的场景化落地。 | |
研究设计 | 方法 | 从学术知识生产周期视角分析AIGC技术与知识生产的耦合性,识别由AIGC 技术介入引发的信任危机,在此基础上探索学术出版信任机制理论模型与实践路径。 | |
结论 | 发现 | AIGC技术介入下的学术出版信任建设需要技术信任、人际信任和制度信任三维协同,以“ 责任链”范式调动技术研发者、科研人员、出版机构、行业协会、政府机构等主体共同参与。 | |
创新 | 价值 | 面临新一代人工智能技术浪潮,探讨学术出版信任机制演进方向与建设主体的具体工作,为推动学术出版界维护良性运作的生态体系,迅速把握人工智能技术红利以实现产业升级提供理论与实践指导。 | |
关键词 | 人工智能生成内容(AIGC);ChatGPT;知识生产;学术出版;信任机制 |
由美国人工智能实验室OpenAI研发的生成型预训练聊天机器人ChatGPT(Chat Generative Pretrained Transformer)于2022年底蓬勃兴起,被视为继2016 年出现的AlphaGo之后又一项重大的人工智能技术创新。ChatGPT是人工智能生成内容(Artificial Intelligence Generated Content, AIGC)技术的产品形态之一,本质上是基于神经网络的自然语言处理(Natural Language Processing, NLP)模型,相较于前人工智能产品拥有更丰富的知识储备和更高超的语言交互能力,在文本生成、图像生成、代码开发等内容生产领域表现出色,一定程度上能媲美人类智能。毫无疑问,从事知识生产与传播活动的出版业将不可避免地被卷入这场洪流,尤其AIGC技术将以创作者身份介入学术知识生产活动,科研人员不再是唯一的学术知识创造者。技术本身及其参与内容生产过程中的诸多不确定性因素的加入致使学术出版新场景超出既有信任机制的调控范围,伺机泛滥的非理性行为威胁着公平公正的学术秩序,严重损害其对学术共同体的约束与激励效能,极可能引发更大范围且更深层次的学术混乱,良性运作的学术生态随时面临崩塌风险。为推动学术出版智能化变革成功落地,除广泛布局AIGC技术介入的场景之外,更需要及时筑牢行业重塑的基石,即保证AIGC技术介入知识生产活动后的学术出版物继续得到学术共同体的信任。
1 研究缘起: AIGC技术与学术知识生产的耦合性 |
AIGC技术凭借强大的内容创作本领在学术知识生产活动中大有可为,本研究基于学术知识生产周期视角剖析AIGC技术介入的具体场景,以验证二者的耦合性。
1.1 AIGC技术辅助开展文献搜集与整理工作
据美国科学基金会(National Science Foundation, NSF)统计,科研人员查找和消化科技资源的时间在全部科研时间中占比高达51%,受科研人员生理条件、语言能力与科研工具等的限制,他们在科技资源获取与分析的准确性、完整性与及时性等方面面临严峻考验。AIGC技术或将取代重复性工作,大幅提升科研效能。一方面,它根据用户发出的指令跨语言和跨数据库地检索相关文献,将最大范围内的代表性文献进行汇总和整理后呈现在用户面前。另一方面,基于海量关联的文献数据,AIGC技术可以捕捉文本序列中的依赖关系,进一步理解和分析文本内容,根据任务要求自动生成简洁且连贯的文本摘要、文献综述或研究大纲,为下游科研任务提供充分支持。
1.2 AIGC技术献力数据分析并催生科学智能
万物互联情境下的大数据已然成为科学研究与真实世界之间的拟态环境,科研人员试图通过挖掘海量数据背后隐藏的规律来揭示事物间的复杂关系,数据密集型科研范式已经来临。AIGC技术擅长快速完成数据建模、分析与可视化,识别人类难以察觉的趋势并作出精准预测,有效拓展科研人员在“数据洪流”下的研究能力。不仅如此,AIGC将催生科学研究第五范式——科学智能范式(AI for Science)。机器不再满足于科研辅助角色,而是以“智能科学家”身份完成对科学问题的提出、论证以及结果整合与呈现全过程,尤其为自然科学研究带来颠覆性变革。
1.3 AIGC技术参与研究推理与内容续写
AIGC技术的启发性内容生成能力对人文社科影响深远。在知识推理上,AIGC技术能够模拟人脑思维方式并持续优化“思维”能力,通过思维链(Chain-of- Thought, CoT)完成一系列复杂推理任务。人们只需提供推理的前提和目的,它就能生产单词与单词之间逻辑一致的文本内容,高度还原客观知识本身。在知识表达上,AIGC技术能够基于推理过程连贯地表达学术观点,通过解读人类模块化撰稿的各种特征,模仿不同科研人员内容创作的句子结构、表达习惯等进行续写,或根据不同期刊风格对论文进行改写和润色。
2 问题提出: AIGC技术介入学术知识生产活动 引发的信任危机 |
学术出版是由科研人员、编辑甚至智能机器共同参与的知识生产与传播活动,必然依赖“信任”驱动。当代社会系统理论的创始人Luhmann认为,信任是社会复杂性的简化机制,人们在面临复杂社会中各种行为后果的不确定性时,通过信任或不信任来简化行为选择过程,“信任”意味着人们能够意识到并接受不确定性带来的风险。而AIGC介入学术知识生产带来新的不确定性因素致使学术共同体信任风险增长或转向,干扰现有信任机制作用效度,因而人们通常选择持有“怀疑”或“不信任”的态度以规避风险。事实上,人们对一系列人工智能技术影响的认知并不乐观,世界顶级公关公司Edelman发布的2020年信任度调查报告显示,全球受访者中仅44%认为人工智能的影响是积极的。由于“信任”是风险性与收益性的统一体,学术共同体在放弃“信任”的同时也将失去诸多收益与机会,甚至导致行业因无法进行改造和升级而面临发展困境。鉴于此,学术出版界有必要审视因AIGC技术介入学术知识生产活动而产生的信任危机以明确信任机制重塑的方向。
2.1 AIGC介入学术知识生产活动的技术信任危机
AIGC具备算据、算法和算力三要素,它在算力上的突破无可厚非,但算据和算法上的局限性致使学术共同体对其结果的可靠性产生怀疑。
(1)由算据和算法引发的结果准确性、科学性和伦理性风险
AIGC训练数据的真实性与全面性直接决定内容生产结果的准确性,缺乏准确度的内容不足以成为“知识”。当大量未经审核的数据被“投喂”给AIGC算法,或其并未针对某一领域的数据进行训练时,它极有可能针对该领域的问题捏造出看似完整却无可信信源的回答。例如,现阶段ChatGPT的训练数据截至2021年,它暂不能为关于2022年及之后的问题提供精准答案。另一方面,AIGC的深度学习算法能够自动确定系统参数并实现动态运行,其内部运作流程是一个不可理解的“黑箱”,人类暂无法窥探、干预和验证内容生产过程,结果的科学性实难令学术共同体信服。
AIGC算据与算法的“人工物”属性,表明它将不可避免地继承人类有意或无意灌输的价值理念,进而可能形成对某群体或个人的算法偏见或算法歧视,其内容生产结果的客观性难以获得学术共同体认同。这些偏见一部分来源于算法设计者在模型开发阶段注入的主观意识和权力关系,另一部分来自涵盖落后社会观念、病毒性歧视 或范畴化的输入数据、学习数据和交互数据。
(2)人工智能的知识创造与创新能力存疑
相较于新闻、小说、视频脚本等,学术出版对内容创新性有更严格的要求。人类知识生产活动正是知识创新的过程,英国社会学家Gibbons提出人类知识生产的两种模式:一种是进行高度抽象化学术探讨的“洪堡模式”,另一种是致力于解决社会现实问题的“后洪堡模式”。二者都是基于对先验知识的理解并通过思考、直觉、联想、顿悟等多种逻辑和非逻辑方式进行的批判性创新,其发展方向受社会价值观指引,后者甚至强调知识要为实践服务以实现其价值。然而,AIGC内容生产是基于知识库和逻辑规则进行的“知识计算”,它难以参透知识深层次的因果性关系,缺乏扎根于实践环境对知识的多维理解,且极有可能脱离道德约束,生产结果的创新性、向善性与可应用性尚不可知。
2.2 人际层面AIGC技术介入导致的信任危机
(1)人机“准社会交往”关系中科研人员理性的流失
AIGC技术凭借类人化特性在学术知识生产中被视为超越单纯工具属性的“合作者”,科研人员极可能对其产生依恋并形成基于想象的人际关系,这在心理学界被称为“准社会交往”(Para-social Interaction, PSI)。这种关系一定程度上抑制科研人员理性的发挥,来自人和机器的“盲目意志与行为”具有可乘之机。一是科研人员可能过度依赖AIGC进行论文写作甚至逻辑分析,学术共同体不易从杂糅的内容中清楚地分辨各部分内容的真正创作者,从而对科研人员实际贡献度产生怀疑。二是由于AIGC暂不受伦理道德的约束,独立思考能力日益弱化的科研人员容易在不自知的情况下被诱导从事恶性行为。
(2)责任界限模糊致使各主体行为缺乏有效约束
传统学术出版活动中,科研人员作为单一的知识生产主体,是科研活动的主要贡献者和责任承担者。然而对于即将出现的“合作”局面,目前并没有明晰的归责方案。AIGC技术虽有近乎人类智能的内容生产本领,却没有物理实体属性,且不具备独立辨识和自控的能力,目前还未被认定为“作者”,更不能对自身行为负责。AIGC内容生产行为的实施是其研发者、使用者等多主体共同作用的结果,任意一方都不愿承担全部责任甚至可能相互推卸责任。若科研人员能够无限制地使用AIGC技术,又不用为行为后果负责,他们很可能纵容其帮助自己开展投机利己活动,严重危害学术出版的稳定健康发展。
2.3 制度视阈下AIGC技术介入激化的信任危机
传统学术交流局限于以会晤、信件等方式在“熟人”小团体内进行,学术共同体基于内部特定联系建立点对点信任。随着印刷媒介等因素推动学术出版规模扩张,学术交流拓展至“陌生人”群体,“差序格局”致使仅凭内部关系建立的信任难以为继,转而借助以制度为基础的外部关系巩固信任。制度信任是当前学术出版信任的支柱,但制度的先天缺陷与后天实施偏差使其原本就存在信任危机,并随AIGC介入而愈发尖锐。
(1)AIGC加剧学术出版中心化制度的权威消解
学术出版制度信任集中体现于同行评议这一“学术守门”制度,它在科研人员、编辑与评审专家之间建立信任,使其相信通过评议的学术成果是严谨且有意义的,但该制度的灵活性与专业性现已受到挑战。得益于AIGC,研究者不仅有精力创造更多具备时效性和突破性的成果,还得以在学科交叉和细分的非传统领域深化创新。然而同行评议更青睐保守研究,这在一定程度上遏制AIGC使用者对科研突破的追求;同时,精准识别能胜任创新领域审稿任务的“小同行”更加困难,评议实施主客体的适配性低将引发学术共同体对结果权威性的质疑。
(2)AIGC放大封闭性制度下的学术出版公平隐患
现行同行评议主要采用单一线性审稿模式,科研人员、编辑、评审专家等多方因信息不对称而不具备平衡的出版话语权,该弊端随AIGC介入而愈加凸显。科研人员利用AIGC开展研究,无形中加大评审专家对数据处理和操作细节的理解与评判难度,且评审过程并不透明,科研人员因不能知悉和监督评议过程而处于被动地位,评审偏差、主观偏见、权力寻租等现象极可能肆意滋长。由于制度信任结构要求学术共同体让渡部分自由和权力,当中心化制度的干涉程度高并且无法针对AIGC介入行为有效发挥信任保障职能时,就会造成学术共同体制度信任的缺失。
3 理论向度: AIGC技术介入下 学术出版信任机制的构建维度 |
AIGC正在革新学术知识生产活动,根植于前知识生产范式的学术出版信任面临重重危机,学术出版界呼唤新的信任机制登场。新的学术出版信任应以何为置信基础?本文基于“摩尔定律”和张权的观点认为,技术的更新迭代在一定程度上实现对困境的自我突破,以技术进步为基础置予信任成为新技术背景下学术出版信任机制重构的突破口。再者,技术发展与其所处的社会系统紧密相连,并且实质上反映“人”的思维和行动,技术自身并不能消弭由其引发的所有不确定性,学术出版界必然要从社会系统与人类的本质属性出发实现对风险的防控。因此,本文将建构技术信任、制度信任与人际信任三维协同的学术出版信任机制体系。
3.1 基础层:AIGC介入下学术出版技术信任
Davis提出的技术接受模型(Technology Acceptance Model, TAM)将感知有用性和感知易用性视为用户接受新技术的决定性因素,适用于分析互联网技术的用户接受程度。与之不同,人工智能技术愈发智能化、自动化与个性化,一定程度上消解传统互联网技术面临的易用性问题,但也致使新的不确定性产生,最为典型的是由机器能动性增强引发的一系列伦理问题。基于此,Choung等提出人工智能信任的两个关键维度:功能性信任和类人性信任。AIGC介入下的学术出版技术信任同样包含这双重维度。
具体来看,功能性信任是指AIGC技术在学术出版领域的可用性、帮助性、可靠性与可知性等。可用性指技术能够切实提升知识生产效率;帮助性则指的是算法做出的决策符合科研人员的真正需求,技术的帮助性会直接影响学术共同体对算法可用性的感知,使技术介入的知识成果与学术共同体期望一致;可靠性是指技术产品安全且稳定,能够在一段时间内无故障地运行;可知性是指算法能向用户解释决策过程和结果客观性的程度,即这个结果是为何及如何被算法提供的,由此提升学术共同体对技术的熟悉程度,并增强其对自动化的人工智能技术的可控性。类人性信任则是指AIGC算法应被赋予社会道德与学术伦理等相关特性,如隐私保护、学术诚信与避免偏见等。
3.2 保障层:AIGC技术信任与学术出版制度信任的融合
面临AIGC带来的产业变革,学术出版环境在一段时间内表现出的不稳定性使学术共同体对自身的认同连续性及所处环境的恒常性丧失信心,强烈的不安全感使其对智能技术产生排斥反应。技术引发的所有不确定性并不能被技术及其有关的“人”完美化解,必须依靠“其他不依赖于人格因素的建立信任的方式”。规范化与模式化的外在性制度使各方行为具有更大的可预测性,强化学术共同体的“本体安全感”,保障技术信任的有效实施。
Zucker将制度信任划分为第三方认证和由第三者保存附带条件委付盖印的契约两种形式,第一种形式用许可证、执照、规范性文件等方式来认定可信任行为,第二种形式通常在商业活动中为交易双方提供获得预期结果的保证。基于此,McKnight等提出制度信任的结构保证和情境规范两个维度,前者涵盖由Zucker提出的两种制度信任形式,后者则是通过惯例、习惯、规则等方式有效防范风险。随后,Pavlou等提出促进条件维度,即关于过程和结果的共同标准、价值追求等内在规范性机制。在学术出版领域,制度信任同样包含结构保证、情境规范和促进条件三个维度,表现为同行评议、出版合同、学术诚信规范等具体形式。同时,治理型技术的嵌入将最大限度克服制度信任存在的弊端,例如将区块链技术应用于同行评议,削弱非技术信任对人类主观意志的高度依赖,以客观信任系统规制各主体行为。由此,学术共同体逐步提升“本体性安全感”,进而接纳AIGC更广泛地参与到学术出版活动中。
3.3 核心层:AIGC技术信任与学术出版人际信任的融合
包括AIGC在内的一切技术都是人类为增强自身环境适应能力而创造的工具,不可避免地反映着人类特有的意识形态。换言之,技术承载着“那些设计、接收和维持技术的人的价值观与世界观、聪明与愚蠢、倾向与既得利益”。因此,AIGC技术信任从根本上来看是人对人的信任,是对AIGC技术设计者、开发者、运营者、使用者、监督者、管理者甚至潜在破坏者的信赖。制度信任本质上是硬性的“他律”,其根本目的是将外在约束内化为人类的“自律”意识,使技术信任、制度信任回归人际信任。
学术出版领域内科研人员、编辑、审稿专家等业务主体之间的人际信任由认知型信任和情感型信任构成,其间信任的形成有赖于各方在交互过程中捕获的特征信息,包括专业学识、科研能力、个体特征等。以AIGC为代表的一系列新兴技术正在构造一个学术共同体广泛关联与高频互动的线上虚拟空间,逐步瓦解传统信息流通过程中存在的时空局限与制度壁垒,个体之间得以实现更加流畅且透明的交流与互动。在技术信任与制度信任融合形成保障机制的基础上,学术共同体成员对AIGC技术及有关主体的认知从封闭走向开放,社会资本随之不断累积,“陌生人”之间产生更加主动且积极的信任态度与合作意识。
4 实践向度: AIGC技术介入下 学术出版信任机制的构建路径分析 |
4.1 目标范式与构建主体
基于外部性视角,AIGC技术本身及其有关主体行为的不确定性具有不同程度的负外部性,威胁学术共同体内其他主体的安全、稳定与健康发展。重构学术出版信任机制应最大程度降低学术共同体面临的负外部性风险。降低负外部性的有效途径是让外部性内部化,即通过制度安排使各主体行为产生的社会收益或社会成本内化为私人收益或私人成本,例如经济学家Coase提出“产权理论”,有效解决经济主体活动的外部不经济问题。学术出版领域可以通过类似于产权制度的“责任”安排形式将AIGC介入行为的外部性风险内部化,进而降低学术共同体面临的不确定性以重塑行业信任。在实践层面,欧盟政策委员会“地平线2020框架计划”提出“责任式创新”(Responsible Innovation, RI),其实质是在技术创新与社会建构过程中进行风险预测、过程评估与动态响应,融入责任要素以实现技术发展前后的风险分散,降低技术的潜在负外部性。该范式为建立AIGC技术介入下的学术出版信任机制提供有效指引。
学术出版信任机制需要多元主体协同构建。微观上,作为技术使用者的科研人员是AIGC嵌入知识生产过程的责任主体,但并不代表全部责任应该由科研人员单一主体承担,该过程的利益相关者均需为此行为负责。宏观上,学术出版信任机制本质上是学术出版不同环节主体价值支点的总和,学术共同体信任重塑是一项贯穿于知识生产与传播活动的系统工程,单纯依靠科研人员的努力无法建构全局性的信任格局。基于此,本文提出以“责任链”范式实现学术出版信任机制构建主体的关联与协同(见图1),其中包括AIGC技术研发者、科研人员、出版机构、内容聚合商、图书馆等。此外,各责任主体都是社会系统的重要组成部分,其间协调互动离不开立法机构、执法机构、司法机构、行业协会等治理性机构在秩序系统与规则体系层面发挥作用。
图1 学术出版信任机制构建的理论维度与实践维度 |
4.2 AIGC技术介入下学术出版信任机制的构建路径
(1)责任链上游:AIGC技术的研发、创新与维护
AIGC嵌入知识生产将学术出版责任链上游由科研人员的知识生产环节延伸至技术研发者的技术开发阶段。AIGC开展知识生产活动有赖于充分的语料支持,不断提升用于训练的语料规模和质量是算法模型优化的基础。学术出版机构等文献情报机构长期扮演知识资源集成者角色,积累海量经过严格审核的论文、专著、会议、专利、标准等高质量人类知识,并且已实现大量内容的数字化与结构化转型。技术研发者应与文献情报机构合作开展数据的规范性检验与算法训练,由此推出针对学术知识生产的专业版技术产品。AlphaFold算法基于美国Brookhaven国家实验室创建的蛋白质数据库(Protein Data Bank, PDB),实现在蛋白质结构预测中的巨大突破,是技术研发者利用文献情报资源的成功案例。
在确保技术产品从事知识生产的可用性与帮助性的基础上,技术研发者要协助学术共同体理解算法:机器在想什么,为什么这样想。直接公开算法源代码和参数的做法虽然实现算法透明化,但难以有效支持用户理解极其复杂的算法决策过程。使用可解释性AI(Explainable Artificial Intelligence, XAI)是向用户 解释算法输出结果与过程合理性的有效途径。在实践中,美国国防高级研究计划局(Defense Advanced Research Projects Agency, DARPA)于2016年启动XAI五年计划,致力于研发更完善的可解释算法模型,借助用户界面(UI)等人机交互技术为用户提供更加完备的算法解释方案。
为防止AIGC技术对学术共同体造成伤害,技术研发者首先要从算法开发源头杜绝偏见、歧视和侵权行为。在数据方面,采取重采样等技术手段消除数据偏见并尽可能稀释算法模型误用风险,切实保护用户隐私和信息安全,及时配置完整的隐私政策和用户协议;在技术方面,组织一批来自多领域、具备高素质与正确道德观的研发团队,并将零信任计算技术融入技术产品,实现数据计算全流程可追溯、可查询,从而避免主观因素干扰和人为操纵等造成的不公正现象。其次,通过人机回圈技术等手段保障学术共同体的最优决策权,即当算法遇到道德伦理等无法获得最优解的问题时,向科研人员寻求帮助以优化计算过程。科研人员并不是总能做出最公正的决定,技术研发者要在保护隐私的基础上认证用户身份,实时监测用户行为,确保算法使用行为可追责。最后,AIGC数据风险重在用户个人信息相关的通信内容泄露以及模型数据库的反向溯源,技术研发者应自觉承担软硬件安全维护义务,有针对性地制定安全风险防范与应对措施以抵御恶意软件、黑客等侵害。
技术研发者还应采取合理的干预措施来防止下游对AIGC技术的滥用,一种普遍的形式是使用数字水印。该工具使用密码学方法,将统计模式、代码嵌入单词甚至标点符号的拣选过程,服务于内容来源的识别与证明。目前,OpenAI已公开水印工具研发计划并且取得初步成功,未来将实现人类读者无法辨别却能经过系统检测的理想“水印”,基于服务器端的水印技术的推广还有赖于各大文本生成系统提供商通力合作。不可否认,完全杜绝AIGC技术滥用仍需借助其他措施。例如,2021年成立的内容来源和真实性联盟(Coalition for Content Provenance and Authenticity, C2PA)为常见的资产类型( 包括图像、视频、音频和文档)和格式制定统一的内容来源规范,出版机构、创作者和消费者等群体能够基于内容系统跟踪在线内容的起源和演变,由此进行内容的可信度验证。
(2)责任链中游:学术知识生产活动中AIGC技术的使用
科研人员在与AIGC技术交互的过程中引导其参与学术创作,直接影响知识产品质量与算法自主学习过程,理应成为责任链一员。学术出版界通常依靠传统惯例和荣誉制度等规范科研人员行为,而如今知识生产活动中人工智能技术的不合理使用也将被纳入科研失范范畴,科研人员使用AIGC技术的义务与责任边界应得到明确界定,以维护学术界的公信力。
科研人员的义务和责任不限于:在技术使用之前,充分评估技术与研究场景的适配性;在使用过程中,核实算据是否合乎道德和法律、清晰且可追溯,杜绝任何抄袭、造假等不端行为,以高度警惕心和判断力深入分析、解释和验证计算结果,并按照规范的格式在公开发表的成果中准确标明参考文献,充分披露使用的技术及其细节,包括可能存在的不足和偏差。科研机构作为科研人员行为查处的“第一责任主体”,应当对其进行教育、监督和违规惩处。如今,科学发展已进入以社会发展为价值导向的“后学院时代”,默顿范式下以求知为旨归的科学探索模式式微,“利益驱动”逐渐成为科研人员开展知识生产的重要动力之一,配套的内外部监督与治理机制成为学术共同体信任的必要手段。
(3)责任链下游:AIGC技术介入的学术知识生产成果的审核与传播
学术出版机构自成立之日起就被赋予知识生产与传播活动中的“把关”责任,学术共同体倾向于对经由学术出版机构审查的知识成果给予高度信任。然而,当前许多学术出版机构对人工智能技术参与知识生产持消极态度,例如国际权威期刊《科学》(Science)明确规定由ChatGPT(或其他人工智能工具)生成的文本、数字、图像或图形等不能在作品中使用。事实上, AIGC等人工智能技术应用于知识生产并非“百害而无一利”,单纯的“禁止使用”并不是学术界应对技术变革的长远之策,学术出版机构理应创新审核机制和传播方式以推进人机共生进程。
首先是审核环节由“事后审核”拓展为“事前审核+ 事后审核”。学术出版机构以往是在知识生产后开展对成果的评审,取得质量认证的知识产品成为后续研究的知识基础,因而传统学术知识生产实质上是在学术出版机构对流通性知识质量严格把控的基础上开展的。同样地,学术出版机构可以参与技术建构过程以打造更加完备的技术与数据基础。如此,学术出版机构能够协助技术的场景化改造以提升其知识生产专业度,并在互动过程中消除原本因技术工具超出干预范围而产生的恐惧和怀疑。其次,审核方式的技术化与协同化升级,尤其体现于“事后审核”阶段。学术出版机构有必要及时对接针对AIGC内容生产的甄别性技术,例如谷歌开发的用于检测并标记伪造或经篡改的数字内容的工具“Reality Defender”,使知识产品的“人类创作性检测”如同“重复率检测”一样普遍和精准。当然,技术暂时无法与人类的情感和价值判断能力匹敌,人类在审核过程中的决定性地位必须得到强化,未来的审核方式极可能朝“技术初审+ 专家复审+ 主编终审”的复合型审核演变。同时,出版机构有必要运用区块链技术将永久公开且不可篡改的审核记录添加至评审专家和编辑的个人信息身份池,以便对审核工作进行肯定和监督。此外,审核内容应由最终的文字成果溯源至实验阶段的原始数据或材料,借助智能工具对实验过程进行复现检查,从而确保科研人员对知识生产过程的高度掌控。
学术出版机构应积极发挥在学术共同体信任中的桥梁作用。与作者交互时,出版机构应对各种情况进行合理注意与必要提醒,在出版合同中尤其强调作者使用AIGC等智能技术应尽的责任和义务,比如参考文献核实义务、数据可重复性检测义务,并采取质询、警告、“拉黑”等策略处理不端行为。与读者交互时,出版机构应联合内容聚合商、图书馆等下游机构,通过单独的数据集合理公开知识生产的必要性数据,允许读者监督和反馈,并对人工智能参与的知识产品进行特别标注,保证读者对其中技术参与程度与具体工作的知晓权,帮助读者做出是否信任该成果的独立判断。
(4)责任链治理:法律、政策和行业规范的规制
源自学术共同体内外部环境的一系列治理机制同样重要,其目的是通过责难和惩罚等手段督促知识生产中的智能技术使用行为更具可信性。
第一,制定《人工智能法》以确保责任治理有法可依,厘清智能技术有关行为主体的权利与责任,以此建立精准问责机制与风险防控机制。人工智能技术产品应凭借其智能化程度而具备不同类型的法律身份,以ChatGPT为代表的AIGC技术产品能够进行一定程度的逻辑推理与意思表示,在硬件设备支持下对人类生活造成实际影响,但它无法为自身行为承担责任,因而确立其法律地位时,既需要打破“人”与“物”二元对立,又不能将其置于与自然人或法人同等的地位,而应界定为一种特殊的、有限的法律人格。财产是责任承担的基础,AIGC技术产品应当在设计者与开发者的帮助下拥有独立的银行账户和保险基金账户,获取一定比例的内容生产收益,当技术本身不稳定引发侵权行为需要赔偿时,优先使用技术产品自身拥有的财产。借鉴“公司法人人格否认制度”对股东滥用公司法人人格实施不正当行为追究无限责任的规定,采用“刺破人工智能面纱”原则对AIGC技术实际控制人的行为予以规范,即根据算法模型、训练素材和输入内容等在侵权行为中的作用比重划定各方责任。为应对潜在风险事件,《欧盟机器人民事法律规则》中推行的类似于机动车风险转移的人工智能强制责任保险制度和赔偿基金制度应得到进一步规范和推广,即要求AIGC技术产品在投入使用之前必须投保责任险,当保险人不具有赔偿能力时,由赔偿基金承担此任,以有效保障风险事件受害者的合法权益。
第二,从执法层面实行对学术出版领域AIGC技术有关主体的监惩联动机制。由工业和信息化部、国家发展和改革委员会、国家新闻出版署等部门牵头统一人工智能行业标准,以登记备案方式赋予AIGC技术产品唯一编号,绑定设计者与开发者等关键信息,从而呼应其特殊法律主体身份。同时,设立人工智能系统执法与监管机构,联合国家新闻出版署对AIGC知识生产活动进行监督。在不侵犯学术自由边界的前提下,合理运用罚款、暂停发表资格、限制学术活动等措施对不当行为实施主体进行警示。以数据安全领域为例,欧盟发布《通用数据保护法案》,并设立专门的数据保护机构作为监管机构,对OpenAI等企业具有天价处罚权以督促其满足数据合规要求,我国2023年组建的国家数据局也应发力推动数据的合规性、开放性和可利用性建设,协助监管机构履行职能。
第三,在司法层面完善涉及AIGC技术及其作品的案件审判机制,其关键在于法官在充分理解纠纷生成逻辑基础上进行价值衡量并作出公正判决。然而,技术与法律之间的专业壁垒致使法官难以准确把握纠纷逻辑,借鉴出版机构对学术作品的审查思路,司法机关可以在保障自身审判权的前提下,引入专业人才与专业技术优化审判体系与审判能力。《民事诉讼法》提出 “专家辅助人制度”,即由当事人申请、经法院准许,在特定领域有专门知识的人出庭辅助当事人对诉争案件 事实中的专业问题提出意见。该制度适用于由AIGC介入知识生产引发的案件处理,但必须提升可操作性。例如,经政府机构备案,相关行业协会联合建立专家 辅助人才库,筛选出精通出版、法律与人工智能技术知识的专家,承认其以辅助人身份出庭的资格;再如规范专家证言采信标准以评判专家意见可用性,将意见采纳率添加至专家信息库,以便对专家行为进行监督 和激励。司法机关自身应积极向智能司法转型,利用技术优势提升案件审理的客观性、公正性与效率性,确保各种纠纷能够得到有效解决。
第四,在学术出版行业层面成立伦理委员会,完善学术伦理的自治性规范机制。2019年我国成立新一代人工智能治理专业委员会,并于2021年发布《新一代人工智能伦理规范》,旨在解决与人工智能发展相伴而生的诸多伦理问题。如今智能技术对学术领域的冲击程度空前,学术出版界应在国家新闻出版署带头下建设行业领域的人工智能技术伦理委员会,加快明确针对AIGC技术的伦理准则,并推动学术共同体在频繁交互中持续提升亲密性和表现的可见性,以同行自治方式推进负责任的智能技术使用行为。
学术知识生产信任危机已成为全球性议题。早在2007年,美国和欧洲联合举办以“科研诚信:培育负责任的科学研究”为主题的世界性会议,旨在建立更加可信的全球性学术出版环境。以ChatGPT为代表的AIGC浪潮下,中国应积极拓展与各国的合作伙伴关系,协商打造高标准、国际化的法律、政策与行业规范,共同解决一些跨国界问题,推进人工智能技术最大程度增进全人类福祉。
5 结语 |
人工智能技术的价值不会停留于技术本身的动态优化,其核心在于为特定场景带来实实在在的改造和升级。本研究基于AIGC技术与学术知识生产的耦合性分析,针对AIGC介入知识生产活动引发的信任危机,从技术信任、人际信任和制度信任三维度重塑学术出版信任机制理论模型,围绕“责任链”探索技术研发者、科研人员、学术出版机构、行业协会、政府等主体参与信任机制构建的实践进路,以期学术出版业更加从容地面对智能变革风险,积极推进智能技术在学术出版各环节的有效应用。
本研究存在如下不足:一是仅着眼于学术知识生产环节,对智能技术介入知识成果发表、传播与评价等活动引发的信任问题关注不够;二是缺少对信任机制中各要素关系的实证分析,各主体实践路径的可行性与系统性有待进一步验证。因此,后续研究可以重点关注以下问题:一方面,深入学术出版各环节探究技术介入导致的信任风险与机制变迁,逐步建立智能时代全局性的学术出版信任体系。无论人工智能嵌入学术出版哪个环节,数据安全风险防范都应成为信任建设的首要任务,目前清华大学、腾讯研究院已开展相关研讨,将AIGC数据合规性建设提上日程。聚焦学术出版,研究者应把握学术出版数据合规性建构的模型框架,基于挑战与机遇的评估探索各主体参与数据合规建设的有效途径,尤其关注文献情报机构应如何开展数据管理、检测和事故处理等具体工作,为学术出版信任重建保驾护航。另一方面,持续跟踪学术出版信任建设动向,对技术、制度和人际层面的信任机制实施效果展开量化研究与实证分析,力图为政产学研各界共同打造全新的学术出版信任格局探寻更加完备的方案,迎接智能参与学术出版时代的到来。
*参考文献略,请详见原文。 |
END
版式设计
陆澜
制版编辑
王淳洋
关注公众知识状态 / 引领学科发展潮流 Focusing on the State of Public Knowledge Leading the Development Trends of the Discipline |
网络首发 | 基于扎根理论的数字反哺机制探析 ——以子代的视角网络首发 | 2023年信息资源管理学科发展战略研讨会纪要
网络首发 | 人工智能环境下的学术出版(Niels Peter Thomas 汤恩平)网络首发 | 社会技术系统范式下 AI 赋能的替代信息搜索:特征、理论框架与研究展望