查看原文
其他

罗艺 潘璐|ChatGPT4:现状、风险与法律回应

罗艺 潘璐 上海市法学会 东方法学
2024-10-09

罗艺
甘肃政法大学副教授、硕士生导师

潘璐

甘肃政法大学硕士研究生

要目

一、人工智能发展新阶段:ChatGPT4模型的理性辨识
二、ChatGPT4:科技发展与科技风险的现实反思
三、ChatGPT4可能引发的法律风险与秩序挑战
四、ChatGPT4潜在风险的法律回应

ChatGPT4的出现或将意味着人类社会正迈入强人工智能时代。ChatGPT4以对话的方式实现人机互动,具有高度类人性和广泛适用性,展现出比过去普通人工智能系统更明显的优势,有利于改革生产方式,推动经济、教育、医疗体系和劳动力市场等各个领域转型升级。但目前学界对ChatGPT4法律关系主体认定不清,ChatGPT4在预训练和使用的过程中存在较大的数据风险、学术伦理等方面的争议。“反技术主义”是不现实的,应当对新一代人工智能的发展秉持谨慎乐观的态度。在描述ChatGPT4的发展现状、阐释各国监管情况的基础上,尝试探析ChatGPT4可能造成的法律秩序风险,最后提出ChatGPT4的法律风险回应性对策。

2022年11月底,ChatGPT3.5横空出世,一经发布就在全球范围内受到广大网友的热烈讨论,席卷全球。上线第一周即拥有百万用户,在两个月内便收获过亿粉丝。ChatGPT4则是OpenAI公司在2023年3月推出的ChatGPT模型的最新版本,比ChatGPT3.5更加可靠、更具创造力,并且能够同时处理更细致的指令,在高级推理能力(Advanced Reasoning Capabilities)方面实现全新突破,是目前OpenAI公司最前沿的系统。OpenAI公司官网宣称,“由于ChatGPT4具备更广泛的常识和解决问题的能力,它可以更准确地解决难题。”ChatGPT4能够与用户共同完成创意和技术写作任务,能够识别图片,处理超过25000字的文本,学习用户的写作风格。在官方发布会的演示视频中,ChatGPT4可以根据一张稿纸图,在10秒内生成一个网站完整代码并制作出网站。根据官方实验表明,在美国BAR律师执照统考模拟中,ChatGPT4的排名挤进前10%,击败了90%的人类,而ChatGPT3.5的排名约为倒数10%;在研究生入学考试(GRE)口试中,ChatGPT4可达到前1%水平分位。在此背景下,其他高科技公司宣布开始或已经投入研究人工智能引擎或聊天机器人。2023年2月,OpenAI的投资商微软公司宣布新的必应聊天(Bing Chat)的重大亮点在于与ChatGPT4的集成,新必应聊天是目前免费使用ChatGPT4的唯一途径。在微软公司这种无形的重压之下,同月,谷歌承认正在研发ChatGPT4的竞争——一项名为“Bard”的对话式人工智能服务项目。2023年3月16日,国内首版类ChatGPT4产品文心一言(ERNIE Bot)发布,是基于ERNIE和PLATO系列模型研发的。由此可见,当前处于发展前端的各类科技公司都如火如荼地投资研发ChatGPT4人工智能。面对人工智能发展新阶段的代表ChatGPT4的表现,本着法律回应社会新技术发展审慎态度,应当理性思考人工智能发展新阶段面临的风险与对策。

一、人工智能发展新阶段:ChatGPT4模型的理性辨识

ChatGPT4模型:弱人工智能向强人工智能突变

1.人工智能发展的快速迭代:弱人工智能迈向强人工智能

20世纪90年代中期开始,机器学习和人工神经网络的研发工作加速推进,人工智能实现了巨大的突破。计算机深蓝、人形机器人Asimo、AlphaGo、人工智能Watson、微软小冰等人工智能迭代产品不断涌现,人工智能在交通、教育、金融等领域也展示出巨大的应用前景。随着人工智能技术不断取得突破,人类社会将逐渐迈入强人工智能阶段。强人工智能,即通用人工智能(Artificial General Intelligence,AGI),是指能够自我感知和理解外部世界,不断地自我学习新知识和实现自我升级的机器智能。在强人工智能阶段,智能机器、算法或系统将具备与人类一样的学习和理解知识的能力,能够像人一样具有思维并对复杂理念进行分析,进行思考、计划、自我学习以及通过过去的经验进行总结学习等,人工智能也就表现为在各个方面都能与人类媲美的机器智能。通用人工智能(AGI)是具有一般人类智慧,可以执行人类能够执行的任何智力任务的机器智能,其中就包含最近爆火的生成式人工智能(AIGC)。

关于ChatGPT4的行为,学界普遍认为已超越弱人工智能,但是否属于强人工智能仍未存在一个定论,主要存在以下两种观点:第一种观点认为ChatGPT属于强人工智能,或者说ChatGPT拉开了强人工智能时代的帷幕。“ChatGPT已经基本通过了图灵测试,其出现标志着人工智能具备超强的学习能力并且能够在大多领域中达到甚至超过人类的水平,无疑宣告了强人工智能技术时代的到来。”“在延长ChatGPT深度学习(Deep Learning)的时间和无限增多其训练数据的样本的基础上,ChatGPT4作为最新版本,已经具备图像识别、文本生成、文字生成图片以及文档自动编辑等多项功能,不断给社会带来巨大的冲击,暗示着强人工智能时代即将来临。”“ChatGPT具备能够实现与用户进行连续对话、承认自己的不足、质疑不正确的问题等高度类人化和拟人化的优势,体现了对过去许多产品的全新突破,因而ChatGPT具有人智化的特征。”第二,也有部分专家学者认为ChatGPT尚未达到强人工智能的标准,属于由弱人工智能向强人工智能过渡阶段的产品。“ChatGPT为代表的聊天机器人标志着人工智能已经从弱人工智能开始向强人工智能过渡,但本质上仍属于人类的工具。”“ChatGPT显现出强人工智能的影子”。

2.ChatGPT4:智能聊天抑或智慧搜索

ChatGPT的全称是“Chat Generative Pre-Trained Transformer”中文翻译为“生成型预训练变换模型”。作为典型的生成式人工智能(Artificial General Intelligence,缩写为AGI),ChatGPT是一种大型语言模型(Large Language Model,缩写为LLM),是一款由人工智能技术驱动的自然语言处理工具。ChatGPT连接大量语料库,通过预训练方法处理大模型序列数据,使其拥有语言理解和文本生成的能力,能够完成用户指令的任务。简单来讲,ChatGPT就是一种从大量数据中进行学习的机器系统,并对海量文本数据集进行训练后形成复杂和近似智能的文本内容。

实际上早在2018年,ChatGPT的研发公司OpenAI就公开发表文章对GPT做出了详细的介绍,在该文中“探索了一种无监督预训练和监督微调相结合的半监督方法来完成语言理解任务,通过在不同的无标签文本语料库上对语言模型进行生成式预训练,并对每个特定任务进行歧视性微调。”目前网络上对ChatGPT4讨论的主要议题是将其看作为一个提供24小时全天候待机服务的智能聊天机器人,但交流聊天并不是ChatGPT4的唯一功能。ChatGPT4可以根据用户的提问,通过自然语言进行回复,以对话的方式实现人机互动,包括但不限于文本生成、语言翻译、信息查询、编写程序代码、模拟写作等多项功能。也有学者认为ChatGPT4在本质上仍然属于搜索引擎,但我们需要认识到ChatGPT4与传统搜索引擎的不同点在于,ChatGPT4能够根据用户指令直接生成文本内容,满足用户需求,且每次搜索仅生成一个答案,即ChatGPT4自动排除了其他过渡性信息,直截了当为用户提供唯一答案,缩减了用户筛选、判断其他信息的过程。同时,ChatGPT4具备超强的学习功能,不仅能实现与人持续性交谈互动,而且能在此过程中不断成长学习,能够承认自身不足、识别简单的诱导性问题,这是与传统搜索引擎最大的区别。

ChatGPT4是OpenAI基于GPT3.5研发的ChatGPT的最新版本。当前,研发公司尚未公布ChatGPT4的参数,但根据已有数据,即“ChatGPT是拥有3000亿单词的语料库和1750亿参数的模型,有学者猜测ChatGPT4是一个拥有超过100万亿级别参数的大模型”,将会具备人类的思维能力,堪比人类大脑,甚至将在许多方面取代人类。ChatGPT4对模型结构、生成内容和方式等方面进行了优化提升,扩大其学习、训练数据的种类和范围,使训练数据和模型更加丰富、高级,增加图片输入模态,扩展了ChatGPT4的应用场景,展示出更加强大的能力。

ChatGPT4模型的典型特征
1.高度类人性

“自然语言处理”(NLP)作为ChatGPT4的训练模型,使其语言风格具备高度拟人化的效果,克服了以往普通人工智能语言机械化的缺点。不仅如此,在语言准确程度、用户意图有效捕捉等方面,ChatGPT4均实现了明显的提升。与此同时,当ChatGPT4的回答被用户指出存在缺陷时,它能够主动承认自身不足,根据用户需求进行更改和整理,也能识别简单错误信息和低级的诱导性指令,具备“举一反三”的能力。

2.广泛适用性

(1)时间维度:提高人类利用时间的效率

ChatGPT4具备生成文本、解答问题、翻译语言、撰写代码等超强功能,若将其运用到学习、工作、生活的各方面,将简化各项工作的复杂程序,极大提高人类利用时间的效率。例如在学习、研究方面,与过去互联网欠发达时代不同的是,处于信息时代的科研工作者可以利用类ChatGPT4等人工智能搜索引擎迅速查找、搜集电子化资料,这些资料能够在第一时间跨越时间和空间的限制,是以往纸质版书籍资料不可能具备的,彻底打消学者因掌握资料有限和查找困难而导致无法深入研究的顾虑。不仅如此,ChatGPT4对提高时间利用率还表现在它可以根据用户一天的工作强度,为用户提供精确的时间管理方案和工作计划安排,从而实现日常工作的效率最大化。同时,ChatGPT4能够在同一时间处理大量在线用户提出的问题和输入的指令。国外学者Kergaravat认为,“这种生成式AI的真正价值在于ChatGPT4可以同时处理大量用户的指令,能够同时操作助力更大的流量,并在这一过程中为用户的需求提供持续的、精确的回应,减少沟通错误的可能性。”

(2)空间维度:拓宽提供服务的行业范围

在经济领域,ChatGPT4有利于推动生产方式改革,提高生产效率。对于企业而言,可以利用ChatGPT4在有限资源上生产更多、更加精准的产品和服务,从而降低生产成本,增加企业利润,提高企业的核心竞争力,最终促进整个行业的良性发展。在教育领域,研究人员和其他人已经使用ChatGPT4来撰写论文和演讲,总结文献,修改论文,以及识别研究差距和编写计算机代码,包括统计分析。有学者认为这项技术很快便可以实现设计实验、撰写稿件、进行同行评审以及支持编辑决定接受或拒绝稿件的程度。在出版领域,基于ChatGPT4掌握大量自然语言及纠错功能,出版行业的校对工作者可以向ChatGPT4发出“标记并修改错别字”的指令,能够极大减轻工作压力,提高工作效率。在医疗领域,生成出院总结是ChatGPT4应用的潜在领域,出院总结基本是一个标准化的格式样本,医生可以在ChatGPT4中输入包含特定信息的摘要、需要详细说明和解释的概念和指导,便可在几秒钟内输出一个正式的出院总结。在人工智能研究领域,ChatGPT4横空出世必然引起类ChatGPT人工智能机器人的“研发热”,就像“鲶鱼效应”,前述论及的全球各大高科技公司已陆续推出相关竞争产品,以此种竞争的方式推动全球人工智能产业的发展。

二、ChatGPT4:科技发展与科技风险的现实反思

ChatGPT4:便利还是冒险

距离ChatGPT正式投入使用已经过去将近半年的时间,全球网友一味追捧的热情也逐渐冷却,开始从不同角度对ChatGPT4展开激烈的讨论。特斯拉公司创始人埃隆·马斯克由最初的颇为推崇,到现在认为“ChatGPT4好得过于可怕”,在社交媒体上公开表示“我们距离危险的强人工智能已经不远了”,同时联合生命未来研究所呼吁暂停强人工智能的训练。莱斯大学的统计学教授凯瑟琳·B·恩索尔对于ChatGP4T的最初反应是“这是一个巨大的资源”,并直接要求ChatGPT4进行基本到高级的统计编程,这为她节省了大量思考和手动输入的时间,但当她远离兴奋后便开始冷静思考如何管理ChatGPT4系统的不准确性和欺诈行为。

ChatGPT4:面临逐步趋严的风险监管

目前,多个国家对ChatGPT及OpenAI公司的态度并不“友好”。比如,西班牙的数据保护机构要求欧盟的隐私监管机构对ChatGPT4存在的隐私问题进行评估,还要求将ChatGPT4的相关问题纳入欧洲数据保护委员会下次全体会议的议程中,以便于在欧盟通用数据保护条例的框架下实施协调行动。法国国家信息自由委员会(CNIL)宣布对ChatGPT4提出5项指控,并展开调查。欧洲数据保护委员会(EDPB)宣布成立专门工作组,以促进该调查在欧洲地区的合作事宜。

ChatGPT4:潜在数据风险的法律回应

欧盟成员国对ChatGPT及对ChatGPT4颁布禁令或限制性使用条件的主要原因在于,ChatGPT和ChatGPT4GPT-4已经对本国公民的个人信息和隐私、国家秘密产生了威胁。欧盟通用数据保护条例(以下简称GDPR)第5条第1款第5项明确了对个人信息限期储存的规定,如果要长期或超期保存个人信息应当符合公共利益或科学研究目的,且必须以本条例所规定的合理技术进行储存。第17条明确了数据主体有权要求数据控制组织删除其掌握的个人数据,这一项权利被称为“删除权”或“被遗忘权”。我们必须警惕在运用类ChatGPT4人工智能系统时对行使被遗忘权带来的挑战。ChatGPT4在抓取大量数据的过程中学习其中携带的信息,其中不乏以合法或非法途径收集的个人信息。目前ChatGPT4在文本生成的输出阶段是否会使用他人个人信息以及采取何种方式使用的情况尚不明朗。当数据主体意识到自己的信息以不合理方式被收集、传播时,有权根据GDPR第17条的规定行使删除权,但现实的情况却是:个人信息在数据主体并不知情的情况下就已被非法收集和使用,并且在面对ChatGPT4这些具备高拟人性的人工智能系统时,我们需要意识到这些系统与人类的神经网络不同,它们不会像人类一样健忘,具备长期创建、存储、记忆和使用数据的持久性功能,能够从收集到的数据中以自然语言的方式创建响应,这便使删除个人信息的所有痕迹成为几乎不可能完成的任务。

2023年3月28日,欧盟数据保护委员会公开了《关于GDPR下的个人数据泄露通知的第9/2022号指南》(以下简称《指南》),对于“个人数据泄露、何时通知、通知的内容和时限”等方面进行了详细规定,为使用ChatGPT4过程中可能出现的个人信息泄露的风险提供了权利救济指南。该《指南》中提到EDPB认为通知监管机构可以使数据控制者得知受影响的个人是否需要通知的请求。向个人通报违规行为,能够让控制者自觉提供违规行为可能带来的一系列风险和后果,以及个人可以采取哪些措施来保障自己的权益免受潜在威胁的影响。如果控制者不向任何人或者监管机构报告违规行为,根据GDPR第83条的规定,可能会受到一定的制裁。

三、ChatGPT4可能引发的法律风险与秩序挑战

ChatGPT4导致的法律困境

1.ChatGPT4引发的著作权争议

关于ChatGPT4生成的内容是否应受著作权的保护、是否具备成为“作者”的条件是当前对于Chat-GPT4讨论热度最高的话题之一。

在现行著作权的法律关系中,享有著作权主体资格仅包含两种情形,一是通过智力创造活动而事实上成为作者的自然人,二是在法律拟制下被视为作者的法人。讨论类ChatGPT4等生成式人工智能是否能够获得著作权的主体资格问题,究其本质在于讨论人工智能是否享有法律主体地位,是否享有相关权利、承担一定义务和责任。Hodlen Thorp以《ChatGPT虽然有趣,但不是一个作者》为题,提出“AI程序不能成为作者”“只能是人类提出假设、设计实验和解释结果的工具”的观点。各类学术期刊必须将更新当前的许可和编辑政策提上日程,以指定包括ChatGPT4在内的任何其他AI工具生成的论文文本(除合法数据集合外)均不能在学术文章中使用,违反这些政策将构成学术不端行为,与肆意更改图像和抄袭现有作品并无区别。范进学对人工智能是否享有法律主体地位持积极态度,他提出面对未来人工智能的高速发展趋势,我们必须挣脱“人类中心主义”的禁锢,认真对待人工智能的法律拟制问题,赋予一定范围的法律主体资格。还有学者认为,“从人工智能本身不存在财产基础的角度出发,认为在无明确约定的情况下,将人工智能系统使用者视为著作权人相对合理。”

2.ChatGPT4导致数据风险加大

ChatGPT4通过在海量语料库中进行无监管学习,无差别地获取信息数据。目前,存在数据来源不明、内容缺失,生成内容的基础性数据可能涉及个人隐私、商业秘密或国家秘密等情形,以此为基础生成的内容可能存在信息泄露的风险,进而发生侵权隐患。同时,其生成内容是否准确无误、保持中立而不存在偏见,是否容易受到用户刻意的引导。不仅如此,ChatGPT的开发公司OpenAI和投资公司微软集团均为美国高科技公司,且ChatGPT学习和训练数据主要来源于英语语料库,这些都建立在西方意识形态之上。当前无法证明ChatGPT在抓取数据信息、生成文本内容时,能够完全不受西方资本主义价值观的影响,保持中立,得出无意识形态偏见的回应。这些都是ChatGPT技术投入使用后可能面临或已经出现的风险问题。

有学者认为“由于ChatGPT的智慧程度较高而使用门槛较低,可能会被用来进行信息欺诈”。有的学者认为“ChatGPT在与海量用户进行数据交互的过程中,会极大加快信息传播的效率和范围,而其中无法排除具有偏见性、误导性的信息,从而容易形成认知污染,为社会带来不稳定因素。”还有学者认为“ChatGPT等生成式AI产生的虚假信息会对公众造成严重误导,不法之徒可能会利用生成式AI的模型来从事违法犯罪行为”。有学者甚至认为“ChatGPT可能会对私权益带来全面冲击,ChatGPT等生成式AI对个人健康等专业问题存在知识信息的局限,反馈给用户的信息或建议可能会对个人健康相关的行为选择造成误导,产生影响个人健康权益的风险”。“在用户刻意诱导下,ChatGPT可能为不法分子提供违法犯罪思路的策划。”Eva A.M. van Dis等学者则认为“ChatGPT在训练过程中可能存在获取信息不全面以及无法区分正确或错误信息等情况,其生成内容的可信度存疑,导致用户可能被虚假或有偏见的回答误导”。

ChatGPT4带来的秩序冲击

1.ChatGPT4对学术伦理的冲击

ChatGPT4可以帮助学者完成海量资料的收集和整理等日常学习活动,例如文本生成和机器翻译,提高研究的效率和准确性。但也存在着一个明显的缺陷,即过度依赖ChatGPT4可能会增大学者的科研惰性,导致出现抄袭、版权争议等学术不端行为。同时,ChatGPT4是基于语料库的生成式对话模型,虽然能够根据指令的上下文进行对话、写作,但并不具备完全辨别虚假信息的能力。目前,仍存在轻信用户提供的资料的潜在漏洞,其生成内容的准确性和真实性往往大打折扣,以此为基础形成的学术科研成果的科学性存在较大争议。同时,现有论文抄袭检查系统以及人工审稿很难准确无误地辨别出ChatGPT4生成内容与自然人的原创内容。

在当前理论界和实务界中,对于ChatGPT4生成内容在学术论文中的可适用性存在正反两种观点。持正面观点的学者认为,完全禁止ChatGPT4的适用是不切实际的,认为出版社接受其为科学论文的“合著者”之前,需要有负责任的敏感性。《Nature》在最新编辑规则中提到关于科学论文中使用大型语言模型工具的原则,其一是不得将大型语言模型工具(如ChatGPT4)列为科学论文的作者,其二是若在论文中使用该类工具,作者应当在“方法”或“致谢”部分予以明确说明。学术期刊禁止将ChatGPT4列为作者,但却并不完全禁止作者在撰写科学论文时使用ChatGPT4等人工智能工具,只是应当以明显的方式注明使用情况。许多高等院校和学术机构都明确禁止在学术研究中使用ChatGPT4。

ChatGPT4带来劳动就业挑战

Davide Castelvecchi认为“尽管ChatGPT能够撰写出简短的计算机程序,但类ChatGPT人工智能只能执行相当有限的任务,人工智能无法实现设计出了解用户需求的大型软件工程项目,因此它们永远无法取代人类程序员。”然而,人工智能真的无法了解用户的需求吗?目前,大数据推荐系统已经可以根据用户的个人信息、搜索浏览和点赞的内容,自动为其进行个性化推荐,迎合用户的需求,满足用户的喜好,部分社交软件已经具备这项成熟的功能。这在某种意义上已经实现了脱离人类,但依旧能够了解人类需求的设想。ChatGPT4技术的成熟成为当前技术性失业的催化剂,伴随着深度学习的加持,ChatGPT4在自然语言的模仿、海量数据的存储、信息资源的学习与抓取、用户指令的分析处理、自我总结与纠错等多方面展现出过去弱人工智能无法比拟的强大优势,并且目前只需在OpenAI的官方网站上进行用户注册,即可免费使用ChatGPT,使用ChatGPT的成本远低于人类劳动力的用工成本。ChatGPT不仅能够“胜任”大量简单、重复的程序性工作,而且正向着更加智能和高端的领域进行深层次、广范围的替代。不久的将来,类ChatGPT-4人工智能大量涌入劳动力市场,直接导致越来越多的人面临失业问题,失业率骤升加剧社会风险和不稳定,同时现存劳动权法律关系亟待更新,劳动者的平等就业权、自由择业权和民主参与权面临挑战。不可否认的是,我们应当辩证地讨论ChatGPT4对就业的双重影响。一方面,人工智能不断更新劳动力市场结构,从而导致失业率攀升。在全球就业形势异常严峻的环境下,人类不仅要内部竞争,还要直面人工智能这一时刻都在进步的强大对手,这本就是一场不公平的比赛。另一方面,ChatGPT4能够加快推进人力资源结构优化,从劳动力市场需求这一末端出发、教育题材这一前端着手,有利于实现对尚未就业的青少年的知识技能和职业教育进行改革,培养符合市场需求的人才。同时,ChatGPT4等人工智能有效地帮助人们解决工作中繁琐、无意义的程序性任务,延长了人们的自由支配时间,从某种程度上能够创造出更多的社会财富,提高人们工作、生活的幸福感和满足感。

四、ChatGPT4潜在风险的法律回应

2023年4月11日,国家网信办就《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》)公开征求意见,提到提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,生成内容应当体现社会主义核心价值观、防止歧视性内容、不得利用算法等优势实施不公平竞争,保证内容的真实准确,禁止非法获取、披露、利用个人信息和隐私、商业秘密和国家秘密。

ChatGPT4的著作权的厘定

当前学界对于类ChatGPT4人工智能生成内容的知识产权权属争议,通说采取“两步走”的判断方式:第一,该生成内容是否属于“作品”;第二,如果该内容属于“作品”,那著作权应当归属哪一方?

1.ChatGPT内容是否属于作品

笔者认为类ChatGPT4人工智能生成的内容属于著作权法规定的作品。著作权法中“作品”的定义是:“文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果”。ChatGPT4等人工智能生成内容是否属于作品首先应当考察该内容是否具备“独创性”。人类创造作品是在不断学习已有知识的基础上实现,而ChatGPT4无差别地学习大量语料库,并在与用户交流的过程中不断更新自身知识储备,也可以视为一种“学习”过程,具有强烈的类人色彩,甚至在某些方面已远超人类“智力”。虽然当前类ChatGPT4人工智能生成内容仅仅是对现有资料的编辑,但仍然属于独立创作的过程。因此具备独创性,该生成内容应当视为“作品”。

2.ChatGPT4生成内容的著作权归属

在对该问题进行探讨时,我们需要意识到在这一过程中共涉及三个“主体”,分别是人工智能系统、人工智能研发者以及人工智能系统使用者,那么享有此类生成内容著作权的“主体”必将在其中产生。首先需要明确的是,学界对于“人工智能能否成为法律主体”这一议题存在广泛的探讨。持肯定说的学者普遍以强人工智能为研究对象,而忽视弱人工智能的法律主体地位。持否定说的学者大多坚持“人类中心主义”,着重强调法律主体的生物人属性,在某种程度上忽视了法律拟制主体的存在。笔者认为,对人工智能法律主体地位的认定应当摆脱人类中心主义的禁锢,虽然现阶段类ChatGPT4人工智能尚不具备法律主体地位,但对未来强人工智能成为类人机器人时,便需要赋予它们相应的法律主体地位。在承认ChatGPT4不具备法律主体地位的前提下,默认类ChatGPT4人工智能不能享有著作权。此时,该类人工智能生成内容的著作权究竟归属于系统研发者还是系统使用者,抑或是二者共同享有。目前学界也存在两种观点,例如有学者认为“人工智能代表所有者意志进行创作,生成内容的著作权也当然地归属于人工智能所有者享有”。有的学者则认为“使用者更加紧密地控制着人工智能的创作过程”。笔者认为,应当由ChatGPT4系统的使用者担任著作权人的身份。ChatGPT4通过与用户对话实现人机交互,ChatGPT4生成内容受到用户指令的要求和限制,所有人或者说是研发者与生成内容并无任何直接引起创作的关系,也不存在委托关系。

ChatGPT4的数据安全监管

目前学界对数据分类、分级的标准有不同观点,大抵包括数据主体、数据敏感性、数据来源和质量等等。有学者提到“要完善数据分类分级和利用制度,以此保证国家数据分流管理的科学性和数据流通的合法性,并根据数据的重要程度分为一般数据、公共数据、国家核心数据”。也有学者根据人工智能应用场景不同,提出“四级保护制度”“分别是针对国家秘密数据、重要产业数据、经济组织数据、一般用户数据”。实现对各种数据的分类、分级,才能保证国家安全监管机构对数据实施高效、科学的分流管理,进而保证数据合法流通。应当完善与数据安全法、个人信息保护法等法律配套的细则和解释规则。例如,逐步完善我国数据安全法第21条规定的“数据分类分级保护制度”。

针对可能存在的数据泄露风险,应当从法律、研发平台和个人三个角度进行全方位监管:

第一,法律应当充分发挥事前预防和事后救济功能。我国数据安全法第6条第4款规定了国家网信部门是统筹协调网络数据安全和监管工作的责任主体,应当对类ChatGPT4人工智能系统实施事前评估。事后救济主要体现在法律应当充分发挥其惩罚功能。数据泄露往往造成侵权后果,对违反法律规定的人工智能研发公司及其负责人进行约谈、追究责任,承担必要补救义务,最大限度降低损害后果。

第二,类ChatGPT4人工智能系统的研发公司应当主动公开类ChatGPT4系统学习和抓取的信息来源,遵守法律规定,承担保障数据安全的义务。

第三,进入数字时代,每个人都可以成为互联网中的“居民”。普通用户只需在OpenAI的官网进行注册,便可以免费成为对ChatGPT4发出指令的用户。对于普通用户而言,在使用类ChatGPT4人工智能系统时,应当增强法律意识,提高辨别虚假信息或违法内容的能力,不断培养自身数字素养,谨慎使用个人信息,保护个人隐私。当用户发现该类系统违法处理个人信息或隐私时,应当及时运用个人信息保护法等法律实现权利救济。

ChatGPT4涉及学术伦理的规制

众所周知,科技是一把双刃剑。笔者认为,完全拒绝类ChatGPT-4等AI工具在科研工作中的运用,无异于“反技术主义”,相反,我们应当对新兴科技产品的使用保持适当乐观的接受心态,不再逃避科技进步的现实状况,是更为合理的态度。高等院校等学术机构需要意识到绝对打击或排斥类ChatGPT4并不是合理、现实的行为,因此应当根据不同情况采取预防和解决手段。

首先,将类ChatGPT4等其他AI工具作为教学和研究的重点对象,精确甄别类ChatGPT在学术论文中的使用情况,对不遵守诚信原则的适用行为予以必要的打击和制止。建立健全高校科研诚信问责机制,加强对研究者进行关于类ChatGPT4对学术研究支持的培训,确保研究人员能负责任地合理使用AI技术,以减少任何影响学术诚信的风险。同时,可以对当前学术诚信制度进行评估,并以未来人工智能发展趋势为基础,对诚信制度作出必要的改革,以支持类ChatGPT4在学术研究中成为发挥有益功效的必要工具。同时,可以对ChatGPT4等其他人工智能的设定用户准用年龄、职业分类。以未成年人为例,未成年人正处于形成正确“三观”的关键时刻,因此应当严格限制他们使用ChatGPT4。由于未成年人缺乏甄别是非的能力且普遍不具备较高数字素养,当前ChatGPT生成内容仍然存在传播虚假信息、算法歧视和偏见等现象,未成年人容易受到这类信息的误导而步入歧途。因此,未成年人应当在学习中锻炼自己独立思考的能力,如果无条件地向未成年人放开ChatGPT的使用权限,可能会导致他们在完成学业任务的过程中,不经思考就直接向ChatGPT寻求“帮助”,无异于是一种抄袭和作弊。

ChatGPT4带来就业风险的公共政策保障

ChatGPT4等人工智能在替代现有岗位的同时,能够创造出更多高尖端产业的就业岗位,加快人才培养转型迫在眉睫。有学者通过比较研究政府对失业者直接救济、对失业者培训再就业和投资高等教育三种公共政策的政策效应,得出“直接救济会导致经济增长率下滑、培训再就业和投资高等教育的劳动收入份额均高于直接救济”的结论。有的学者认为“在人工智能时代可以通过完善劳动法相关条款、开征人工智能税来保护劳动者权益,补偿失业劳动者,同时创新人才培养机制,加快劳动力转型升级”。

面对ChatGPT4可能带来的就业危机,加快人才培养转型是必由之路。但这却是一项需要耗费大量时间和金钱的人力资源工程,因此应当由政府、企业和劳动者三者合力共同完成。

首先,政府应当完善现存教育体系,加大投资高等教育,为人工智能时代培养高技能劳动力。提高劳动者自身技能水平,不仅能防范未来岗位被人工智能所替代,有效预防社会高失业率,而且能够进一步提高人工智能产业研发水平,推动人工智能产业的向上发展。同时,政府应当加快建立健全社会保障体系,可以开征人工智能税来补贴失业人群,为失业人群提供福利和救济以保障他们的基本生活;健全再就业职业导向平台咨询服务,有针对性地为失业人群提供再就业信息,提高劳动力技能与市场需求的匹配程度。

其次,企业应当为劳动者提供内部培训机会,保障每一位劳动者能够熟练掌握相应职业技能。针对失业人群,政府应联合企业为失业人群提供再就业免费培训服务,不断拓展职业培训的范围和深度,保障他们能够高效利用时间实现自身技能转型升级。

最后,劳动者应当充分认识到技术性失业是劳动者自身知识技能与人工智能时代劳动力市场需求不匹配的结果。在面临人工智能的外在竞争和人类自身内部就业困难的压力下,劳动者需要不断学习、完善自身技能,提高竞争力,灵活就业,创新自媒体职业等新型就业方式。

往期精彩回顾

周灿|网络运营商数据监控行为的法律边界——以云存储服务商为例

邵子杰|突破与局限:非类型化数据不正当竞争行为的反不正当竞争法一般条款适用
温雅璐  程鹏|个人信息刑民交叉保护理念及方法的差异
李晓霞|数据合规视野下个人信息保护归责标准的重构
王伟强|视频贴片广告屏蔽行为的说理及展开
陈玲|技治主义视域下民事诉讼中大数据证据的适用与规范——基于289份民事判决书的实证分析


上海市法学会官网

http://www.sls.org.cn


继续滑动看下一个
上海市法学会 东方法学
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存