查看原文
其他

雷娜特·肖伯 张韬略 译|使用人工智能构成义务侵害?论使用生成式人工智能的注意义务

雷娜特·肖伯 上海市法学会 东方法学
2024-10-09

目前德国法和国际法律对部署和具体使用生成式人工智能的合法性问题缺乏明确的规定,但根据现行法的一般原则,仍可以确立生成式人工智能使用者的某些义务。根据个案情况,部署或使用人工智能有可能构成义务侵害,引发合同责任或非合同责任。由于人工智能技术的不确定性,使用生成式人工智能的具体注意义务的发展仍处于初级阶段。立法必须明确与人工智能提供者的信息义务密切相关的生成物监控的附加说明义务,以及与使用人工智能相关的信息义务。必须在权衡各方利益的基础上,将人工智能开发者和提供者的义务联系起来,才能确定使用者的具体注意义务。

自从ChatGPT开始普及之后,关于使用生成式人工智能(GAI)的法律问题就引起了广泛关注。它们影响到众多人群和诸多法律领域。尽管有关此类人工智能系统创造者的法律责任,人们已经有了较长时间的讨论,但关于生成式人工智能使用者的义务,仍有许多未解的问题。本文以德国国内法为基础,结合国际法律的发展,分析了部署和具体使用生成式人工智能的合法性问题,从而为该领域的注意义务奠定基础。
一、导言
最迟自2022年11月ChatGPT发布以来,使用能够创建新内容的生成式人工智能的问题几乎引爆了我们生活各个领域的广泛讨论。在此之前,市面上已经出现了若干使用生成式人工智能的应用程序,例如想一想图像生成器DALL-E或翻译程序DeepL,只是这类程序在早期引发的关注较少而已。只有在文本生成方面出现大量可能的应用,正如ChatGPT和其他程序所实现的,公众才产生了极大兴趣并大量使用起来;因此,这一领域的问题也是本文思考的出发点。人工智能技术的快速发展带来了许多新的法律问题,也对目前正在讨论的欧洲人工智能监管提案提出了考验,而且不仅仅是时间上的考验。而在任何新的具体法规生效之前,问题就是应当如何根据现行法对使用生成式人工智能的行为予以评估。由于这涉及许多不同的、难以分类的法律领域,因此本文将重点研究下述跨法律领域的问题:使用生成式人工智能是否构成义务侵害,以及如果构成,在何种条件下构成义务侵害,特别是使用生成式人工智能时所要求履行的注意义务。
尽管这些法律义务可能因法律领域的不同而各异,但还是可以确定一些共同的基本原则。下文将对这些共同的基本原则进行分析,希望可以为今后针对人工智能的特定注意义务之确立奠定基础。在下文展开的研究中,我们首先在第二部分第一节提出问题即使用人工智能何时会构成义务侵害,紧接着在该部分第二节分析了与使用人工智能的特定注意义务相关的第一组法律制度基本概念。由于义务侵害的概念不是德国法特有的概念,因此这一研究对国际法律政策也会有所帮助。也因为如此,在这里不讨论个别法规在国际私法层面的适用性问题。与此同时,这也为德国法上的过错责任奠定了重要的基础,因为责任之非难是以义务侵害为基础的。此外,尤其考虑到欧洲针对人工智能的新的监管方法,本文在第四部分得出结论之前,还将在第三部分分析针对使用生成式人工智能是否(以及在何种程度上)已经存在具体的注意义务。
二、使用人工智能构成义务侵害

(一)使用生成式人工智能的行为本身

首先,问题在于使用生成式人工智能的行为本身是否会构成义务侵害。这主要涉及合同法领域,但如果单纯部署人工智能将导致合法利益面临风险,或者如果这么做会出现法律禁止的情况,那么也会涉及非合同责任。
1.合同法




在合同法中,债务人如何履行给付义务是关键所在。明确禁止部署生成式人工智能的合同条款尤其是成文法律规定可能很少见,至少目前如此,因此这取决于人们对合同义务的解释。特别是当债务人有义务提供高度个性化的给付时,例如根据《德国民法典》第613条(直接或参照其他法律领域而适用),就会出现是否可以使用生成式人工智能履行给付的问题。如果按照本文的假设,人工智能不被视为人(也不被视为某些人曾建议但迄今未获接纳的“电子人”),那么我们就不应该从一开始就排除借助生成式人工智能来提供高度个性化的给付,只要该生成式人工智能的使用不取代人的服务本身,而仅仅是辅助性的(这当然会导致有关生成式人工智能使用方式的后续问题;详见本节末尾)。此外,只要法律没有禁止,人们自然可以使用生成式人工智能作为其履行合同给付的辅助手段。在某些情况下,如果符合相关领域合同给付的通常标准的话,使用生成式人工智能甚至可以成为一种合同义务。就此而言,在大多数技术领域,或多或少使用了简单人工智能的技术已经成为标准了,这点我们只要想想自动驾驶汽车就能明白。
如果允许合同债务人使用生成式人工智能,则必须审查其是否必须向合同相对方披露该事实。这种披露义务可能部分源于特别规定,但也可能部分源于《德国民法典》第241条第2款的附带义务。在后一种情况下,合同解释——以及将来相应的合同起草——在很大程度上又将是必需的。
如果我们不将人工智能视为任何类型的人,则《德国民法典》第278条(不仅针对过错,也适用于义务侵害)作为现行法就不适用,人工智能的使用可以完全归咎于使用者。因此,使用者仍对借助生成式人工智能的合同履行负有完整的责任(关于使用人工智能时的个人义务,见本文第二部分第二节)。然而,合同义务的具体内容可以因使用生成式人工智能而发生变化,而这也会影响到合同的给付和对待给付之间的关系。例如,如果制作广告文本是一项合同义务,而现在广告文本是由人工智能生成的,那么合同给付的重点就可以转移到提出准确的提示以及检查和改进生成的广告文本——而这两项工作又都可以在人工智能的帮助下完成。这时我们就可以追问,给付是否仍然等同于约定的对价,或者——特别是在与劳动成果相关的合同类型例如提供作品的合同——现在是否可以要求合同方每次给付更多或给付更快,或者是否应当减少报酬。在这方面,有关合同的履行障碍法为具体个案的解决方案提供了足够的法律工具。就此而言,在使用人工智能履行给付时,根据《德国民法典》第313条认定可能导致合同调整的“对契约基础的干扰”的门槛也应设置得相对较高点。由于这些问题无法一概而论,特别是在履行与劳动成果相关的合同给付方面,由于其性质可能会因使用人工智能而发生变化,因此估计会出现一些争议。打个比方,如果我们允许在考试中使用生成式人工智能,也会产生类似的问题(这点不在本文讨论范围内),因为可能会影响到我们对参与此类考试的考生的期望值,并相应地提高对考生的要求。
2.非合同责任




除合同领域外,如果人工智能的使用被禁止,或对他人受保护的合法权益构成危害,则可能构成需要承担法律责任的义务侵害。例如,如果人工智能的使用不符合目前生效的数据保护规定,或者(在非合同责任领域之外)如果考试规定禁止使用此类系统,就会出现禁止使用生成式(或其他)人工智能的情况。然而,由于缺乏明确的规定,这在考生使用人工智能方面目前主要是一个解释问题,例如在试卷作答的独立性方面,而针对考生的独立评估和最终个人评估通常是有规定的。然而,更常见的情况是,非合同责任并不适用于单纯使用生成式人工智能行为本身,而是与其使用方式有关,下文将进一步讨论这个问题。

(二)使用生成式人工智能的注意义务

关于使用生成式人工智能时的注意义务,合同法责任和非合同责任之间往往存在重叠,特别是可能导致非合同责任的行为义务之侵害,也可能同时构成侵犯《德国民法典》第241条第2款意义上的合同次要义务。在这方面,根据人工智能系统的类型和功能,可以审视是否构成基于法律要求所产生的不同类型的义务侵害,下文第1点至第4点仅讨论其中目前特别突出的几种。此外,还需要讨论在使用生成式人工智能时的一般行为义务,这点目前刚有端倪,仍需要经过长期的发展(参见下文第5点)。
只要人工智能生成的成果不是仅在内部使用,而是具有外部影响,那么现有的法律要求也可以为(生成式)人工智能的使用规定行为义务,即使这些法律要求没有明确提及人工智能。在使用人工智能产品时,除了必须遵守的一般安全标准,可能与之相关的还有数据保护规则、知识产权法(尤其是著作权法)、非合同责任的一般规则(例如《德国民法典》第823条第1款)或不公平交易法的规定——此处仅例举了几个重要的法律领域。值得注意的是,许多人工智能程序的编程也是为了——至少在一定程度上——满足某些最低标准,或者对程序使用者进行相应的指导。
1.数据保护法




在使用生成式人工智能时,必须遵守数据保护法的规定,例如欧盟《通用数据保护条例》(DSGVO)第22条关于完全自动决策的规定,当然也要遵守个人数据处理的一般原则,特别是《通用数据保护条例》第5条及以下各条的规定。
2.知识产权法特别是著作权法




使用生成式人工智能也可能侵犯知识产权。迄今为止,著作权法——包括《德国著作权法》第63条规定的作者署名权和邻接权保护法一直是人们必须考虑的核心问题。由于生成式人工智能通常可能使用受版权保护的材料进行训练(这种做法根据《德国著作权法》第44b条或通过集体许可可能是允许的),在其帮助下生成的内容也可能包含了受著作权保护的作品的部分内容。在进一步使用该生成内容的情况下,根据《德国著作权法》第15条及其后各条的规定,受该法规制的所有使用行为均应考虑在内。根据一般原则,著作权作品的使用者应对任何潜在的著作权侵权行为负责;即便人工智能具有原创内容也不改变这一点。侵权行为是否可被正常地识别出来,并不影响在该领域很常见的禁令或者排除妨碍的准法律责任的确立,相反,只有在涉及基于过错的损害赔偿请求时,侵权行为的可识别性才发挥作用。由于受著作权保护的作品很可能会被人工智能时不时修改(至少在ChatGPT和根据类似原则运行的人工智能系统中是这种情况),这里经常出现的问题是,如何区分《德国著作权法》第23条第1款第1句规定的原则上不允许的对受著作权保护作品的演绎行为(然而,由于《德国著作权法》第51a条规定的“模仿”门槛,在个别情况下仍可能是允许的)和第23条第1款第2句意义上的允许的演绎行为或改编行为。根据2021年修订的《德国著作权法》的新规定,后者要求与原作品保持外在距离;仅有最终衍生于内容的内在距离已不再足够。新法要求与所使用作品保持足够距离的这种标准是否可行,特别是为此需要多大程度的改动,仍有待观察。
在这种情况下,由于我们几乎不可能明确排除《德国著作权法》第23条第1款第1句的适用从而排除人工智能使用者侵权的可能性,因此《德国著作权法》第51a条有关“模仿”的著作权限制的解释,在将来可能就具有了重要意义。当然,这只适用于人工智能所使用的作品或其作者存在争议的情况,例如,指派给人工智能的任务是根据某一作家或艺术家的风格进行作品创作。不过,当人们使用生成式人工智能时,如果人工智能使用了某些数据,而人们在不知道数据来源的情况下接着采用了这些数据,就有可能出现无意识使用受著作权保护的内容的情况。在这种情况下,由于受保护的作品不在模仿意图之列,因此不适用《德国著作权法》第51a条。这是使用生成式人工智能的重大风险之一(对受保护作品的作者和人工智能的使用者都是如此,因为他们都没有意识到自己可能侵犯了他人的权利),人们在开发此类系统也即在选择数据和创建算法时,必须考虑到这一点,在进一步制定著作权法时可能也要考虑到这一点。在这一领域,无意识侵权的风险目前相对较高,这必然会影响到处理生成式人工智能的方式和方法,特别是对其进一步使用(包括可能的许可)以及其设计和运行模式产生影响。
3.关于非合同责任的一般规则




在关于非合同责任的一般规则中,《德国民法典》第823条第1款是最重要的,特别是关于一般人格权(例如在使用肖像——鉴于《德国美术和摄影作品著作权法》(KUG)第22条和第23条的规定——或者使用人格权的其他受保护要素诸如声音或姿势创作作品时)和实际对资产提供了某种程度的保护的企业权。不过,倘若人工智能生成的内容未经审查就使用了这些合法权益,能够认定使用生成式人工智构成无意识侵权的风险与著作权法相比还是要低得多。在审查过程中,必须注意规制上述侵权行为的一般原则,在非法性认定中应特别注意对相关基本权利的权衡。然而,使用人工智能生成物也可能损害到受《德国民法典》第823条第1款保护的其他合法权益,例如,如果当事人发布了不正确的说明,导致生产出对他人有危险的缺陷产品,或普遍导致了危险行为的实施。在这种情况下,《德国民法典》第823条第1款规定的出版者的产品责任——根据欧洲法院关于信息责任的判例法,但根据《德国产品责任法》(ProdHaftG)的规定较少出现这种情况——也可能被考虑在内。由此产生的问题是,出版者是否有义务以及在多大程度上有义务对人工智能生成物进行监控。这在很大程度上取决于使用者对人工智能功能缺陷的认识程度。我们将在后文第三部分第二节对注意义务的正当性进行总体审视时再讨论这个问题。
4.公平交易法




如果人工智能是在《德国反不正当竞争法》(UWG)第2条第1款第2项所指的商业活动中使用的,则必须审查在个案中是否构成不公平交易行为。这通常会涉及使用生成式人工智能(其本身并不被禁止)的透明度问题,无论是可能涉及《德国反不正当竞争法》第3a条的特殊标签规定的情况,还是涉及《德国反不正当竞争法》第5条及其后各条所规制的误导性广告宣传的情形。这里需要特别注意的问题是,如果当事人不披露使用生成式人工智能的事实可能导致《德国反不正当竞争法》第5a条规定的误导性广告的话,该当事人是否具有披露该事实的义务。在个别情况下,在商业活动中使用人工智能有可能构成《德国反不正当竞争法》第5a条第1款和第5b条意义上的重要信息,即使广告制作的特征和方式既与《德国反不正当竞争法》第5b条第1款第1项意义上的商品或服务的重要特征并不具有可比性,也与该条款提到的其他同样只适用于“提供”的情况不具有可比性。然而,假定除此以外(当然也不在《德国反不正当竞争法》第5b条规定的范围之内)我们还能想到什么其他的信息义务,那就是与使用人工智能有关的信息义务了。例如,在个性化广告的情况下,收件人可能会感兴趣,广告是由人工智能还是由人向其发送的,以及各自的信息发送程度,尤其因为这并不总是涉及触发欧盟《通用数据保护条例》(DSGVO)第22条有关告知义务的自动决策。在个别情况下,人工智能的某些使用形式已被《德国反不正当竞争法》的现有条款例如附件第23犮条或者《德国反不正当竞争法》第5b条第2款针对排名的信息义务的现行规定所涵盖。如果使用了操纵性的技术,《德国反不正当竞争法》第4a条也可能适用。不过,总体而言,这里仍存在一些法律上的不确定性,为解决这种不确定性,最好的办法可能是积极提供有关在商业活动中使用了人工智能的信息。
5.使用生成式人工智能的一般行为义务




在履行合同义务时也必须考虑上述规定和类似规定,尤其当违反上述规定会影响《德国民法典》第241条第2款规定的合同方的合法权益或导致所提供的服务存在法律缺陷时。
在合同环境下,使用生成式人工智能可能会产生更多的行为义务。例如,应当考虑消费者保护法规(例如特别的披露义务)和反歧视法的相关规定。此外,还产生了这样的问题:在使用生成式人工智能时存在哪些一般义务?确立针对人工智能的注意义务对进一步处理此类系统具有重要意义。对此,我们可以以处理技术辅助工具的一般原则为基础,然而还必须对其加以扩展或延伸。
举例来说,针对使用辅助工具的情况,一般都有操作失误责任,但在处理(特别是生成式)人工智能时,例如当涉及人们如何设计输入以达到最佳效果(“提示工程”)时,这些责任还有待界定。根据一般原则,照管失误责任已经比较接近这种场景——尽管照管和保养的必要性经常取决于制造商的预设标准。至于人们是否以及在多大程度上能够检查借助人工智能获得的结果是否违反法律或其准确性,这个问题就更难回答了。无论如何,如果人们使用不够成熟的人工智能,就必须对其生成物进行监控,但问题是,人工智能的使用者是否能够以及在多大程度上必须认识到人工智能(其技术设计经常处于发展状态)的成熟程度,以及在必要时是否能够知道它是如何工作的。我们还可以提出这样的问题:对于免费提供的程序——目前(仍然?)经常是这样——是否可以期望其达到某种最低限度的质量,或者进一步使用这些生成物是否不需要更严格的审查。特别明确的是,人工智能系统的使用者义务只能与这些系统的制造商和培训者的义务相关联。如果我们不想强加给使用者检查人工智能所有工作成果的一般义务,就必须让他们了解人工智能的某些工作原理和局限性。然而,如果像ChatGPT那样以笼统的方式进行说明(注明“ChatGPT产生的关于人物、地点或事实信息有可能是不准确的”),也即如果人们不想承担再次检查所有生成物的义务时,就很难从中推导出存在具体的使用者义务。这同样适用于我们已经三令五申的建议,例如针对ChatGPT在对话中提出的建议,如果涉及重要决定或健康、法律、金融和安全等主题时,还应咨询其他信息来源。
因此,有关人工智能如何工作的更详细的信息,是确立具体的使用者义务的前提条件。其中尤为重要的是有关训练数据的说明(例如ChatGPT对2021年之前的信息了解存在局限)或者其工作原理的说明。例如,ChatGPT的工作方式是根据概率而不是根据词义来组合词语,这意味着在缺乏进一步信息时无法轻易查明其给出的信息的来源,因此外部验证之所以起作用,就是因为ChatGPT的这种工作方式。而且,人工智能系统的开发越是依赖使用者的输入,检查系统生成物准确性的义务承担就可能越重,特别是还有这样的危险,即这些人工智能系统可能被有针对性地提供某些(不一定正确的)信息,例如通过机器人提供这类信息。
就侵犯著作权的风险而言,乍一看,似乎可以认为类似ChatGPT的人工智能的操作原理降低了这一风险,因为新的元素组合使生成结果与来源大相径庭。然而,仔细观察后,必须认识到,正确且有意义的词语组合在训练数据中出现的频率理应更高,因此与原始信息源的接近程度可能更高(从另一面看,这也有利于信息的准确性)。仅从这个例子就可以看出,即使根据生成式人工智能工作原理的已知要素,也很难推导出具体的使用者义务。到目前为止,我们关注的重点是在允许使用生成式人工智能的情况下使用者进行系统维护和必要时更新系统的义务,而履行这些义务又与使用者是否以及在多大程度上应当信任人工智能的生成物相关。随着可用的人工智能系统类型的多样化,可能还会出现仔细选择和测试所使用的人工智能的义务。此外,使用者还必须明确指出何时在使用生成式人工智能。这可能在很大程度上取决于个案的具体情况,特别是取决于这种使用是否已经成为服务标准的一部分。因此,即便在《德国反不正当竞争法》之外,目前在许多情况下告知使用人工智能仍应是适当的;交网络中的电信媒体提供者有义务使其自动化的事实可被识别,前提是为此目的使用的用户账户从外观上看是供自然人使用的”。但这种情况在将来可能会发生变化。而如果人工智能的使用有可能违反法律的,则无论如何都应当进行提示告知。
三、使用生成式人工智能的具体注意义务
鉴于生成式人工智能技术的新颖性和不确定性(特别是在可能的工作原理方面),使用生成式人工智能的具体注意义务的发展仍处于初级阶段。不过,现在已经很清楚,在某些情况下,使用人工智能可能是未经法律授权的,或者会出现侵犯合法权益的后果。因此,在处理人工智能的问题时,必须在权衡各方利益的基础上确定使用者的基本义务,而这只有与其他利益攸关方特别是人工智能应用程序的开发者和制造者的义务联系起来,才有可能做到。

(一)使用生成式人工智能的行为本身

关于“是否”可以使用生成式人工智能,存在明确的规定绝对是必不可少的。在某些情况下,法律规定会直接禁止使用,但迄今为止,一般只是间接禁止某些特定的行为方式,而不是专门针对生成式人工智能的使用。正在设计中的欧洲人工智能规则将改变这种情况。例如,计划中的《人工智能法》(KI-Verordnung)第5条禁止使用某些具有不可接受风险的人工智能系统;高风险系统只能在该法第8条及以下规定的特定条件下使用,否则也被禁止使用。此外,该立法还建议人们在合同中规定在履行合同时是否允许使用人工智能,特别是在不打算使用或限制使用人工智能的情况下。

(二)使用生成式人工智能

如前所述,使用生成式人工智能的具体注意义务,只能根据该人工智能的制造者和提供者的义务并且与之相关联加以确定。在这方面,正在设计中的欧洲《人工智能法》的相关规定也会有所帮助。例如,针对使用高风险人工智能系统的前提要求,该法有关风险管理系统(第9条)、数据治理(第10条)、技术文档(第11条)和准确性(第15条)的规定,对本文所探究的主题可能尤为重要。在根据该法第13条向使用者提供的信息中,最重要的是关于人工智能的准确度、培训、验证和测试数据集的可预期标准,所需的维护和保养措施以及预期用途的信息。再者,第13条(b)(ii)(“可能对可预期的准确性、稳健性和网络安全水平产生影响的任何已知和明显可预见的情况”)很可能还要求提供关于人工智能系统运作的进一步信息。第14条规定的人类监督的预防措施也与生成式人工智能有关。
第29条有关使用者自身义务的规定则要简洁得多,而且还明确规定其他义务——包括国内法规定的义务——不受影响(第29条第2款)。在明确的标准化义务中,履行使用说明的义务(第29条第1款——在欧洲议会提出的修正案中得到了强化)、监控数据输入的义务(第29条第3款——该义务应还涉及遵守数据保护法规等)、根据使用说明进行风险监控的义务(第29条第4款)以及——根据欧洲议会提出的修正案——人类监督的义务(第29条第1款a项)和告知自然人使用高风险系统的义务(第29条第6款a项),对本文所探究的主题尤为重要。此外,使用者的义务可能来自相关人工智能的功能和在此背景下披露的信息,特别是上文提到的那些义务(尤其是监控结果的义务),其范围可以从披露的人工智能功能限制中推导出来(例如,ChatGPT对2021年之后发生的事件的掌握)。这种监管结构使得此类人工智能系统的高风险可以得到相对较好的控制。
对于明确旨在与自然人互动但未被归类为高风险系统的人工智能系统,其透明度要求的影响要小得多。就此而言,根据第52条第1款,一般必须告知使用者,其正在与人工智能进行交互,而根据第52条第3款,运营商一般必须对在这类人工智能帮助下所生成的“深度伪造”进行标注(欧洲议会提出的修正案对此内容进行了部分限制)。但是,如果一方面允许使用人工智能系统,另一方面又没有向使用者详细告知人工智能系统的工作原理或必要的维护和保养措施的,那么就不能指望使用者能够有效履行针对各自系统的特殊义务。如果我们不想一刀切地完全禁止使用人工智能生成物,那么在使用生成式人工智能的过程中就有可能出现违反法律的情况,立法者必须更有力地应对这种情况,特别是通过对这些人工智能系统的运作规定更广泛的信息义务。第一步是国家法院可以根据欧盟委员会关于人工智能非合同责任的提案第3条第1款至第4款的规定,下令披露相关的证据(这些证据很可能也与人工智能的工作原理有关),其结果是,根据该提案第3条第5款关于损害赔偿请求权的规定,在被告不遵守成员国法院上述证据披露命令的情况下,应当推定被告存在义务侵害,但被告有权反驳该推定。还应指出的是,根据欧盟委员会对《产品责任指令》的改革提案,该指令现在也明确涵盖了软件(提案第4条第1款),人工智能系统的制造者可以在更大程度上对侵犯消费者合法权益的行为承担责任,但仍然有一些与人工智能相关的责任除外条款(《产品责任指令》第7条c项和该指令改革草案第10条第1款c项结合改革草案第2节,以及《产品责任指令》第7条e款和改革草案第10条第1款e项)。
总体而言,如果我们对欧洲的提案进行总结,仍会发现存在一些监管空白,特别是针对生成式人工智能系统使用者的义务——这与制造者和提供者的义务相关,除非这些系统被普遍归类为高风险系统,然而这么做可能会走得太远,而且也会引发新的边界划分问题。如果我们要以有意义的方式使用未被归类为高风险系统的人工智能系统的生成物,就需要制造者或者提供者向使用者提供进一步的信息,而最好的办法可能是以立法确立相应的法律义务来确保这一点。由于这主要是一个信息义务的问题,因此似乎还是适度的,毕竟我们不应该过多地限制技术进步。使用者的注意义务与此相关,这从欧洲法律制度的一般原则中也可以概况出来。
结语
可以看出,在部署和进一步使用生成式人工智能方面,现行法已经存在一些义务,这些义务在欧洲人工智能监管提案中有一部分得到了细化——尽管主要是间接地规定了人工智能制造者和提供者的说明义务。虽说现有规则可以涵盖处理生成式人工智能的诸多方面是一件值得庆幸的事情,但我们仍有必要制定具体的法规,正如欧盟目前正在设计的法规。尽管欧洲的法规和监管建议并不都是主要针对民事法律,但正如本文所展示的,处理人工智能的基本义务同样可以从这些法规和建议中推衍出来。然而,随着时间的推移,有关注意义务的这些标准必须得到充实和进一步的发展,而且最好能为所有相关各方制定某种行为标准。合同的设计和起草在合同领域也发挥着重要作用,尤其是因为与立法相比,合同的设计和起草可以在其框架之内对现实做出更快、更灵活的反应。当然,平衡并消除任何与系统相关的不平衡,是立法者的职责所在。立法者为之还必须密切关注各种监管制度的一致性,因为针对不同参与者的法规之间的密切互动的重要意义,远不限于本文所探究的使用生成式人工智能的领域。
就本文所聚焦的问题而言,尽管现行法的明确规定相对较少,但在一般原则的帮助下,我们还是可以确立处理生成式人工智能问题的某些义务,这些义务可以(也应该)在以义务为基础并且可以在国际上适用的责任制度框架内得到进一步发展。生成式人工智能系统的运行和维护也能以一般规则为基础。特别重要的是,必须明确——与人工智能提供者的信息和信息义务密切相关的——人工智能生成物监控的附加说明义务,以及与使用人工智能相关的信息义务。在不久的将来,这些问题应该会成为人们特别关注的焦点;此外——超出本文主题的范围——著作权基本问题和标准也可能需要重新考量。

往期精彩回顾

李驰|政策语境中法治文化的理论内涵

胥国一 赵诗文|对精神损害赔偿功能的一个反思

赵丹|国际投资仲裁裁决的司法审查及中国企业应对——以新加坡司法实践为例

池梓源|国企改制后股份合作制企业性质刑事认定的困境及解决路径

王殷舟|刑事被害人精神损害赔偿:正当性证成与实现进路

目录|《上海法学研究》2024总第11卷


上海市法学会官网

http://www.sls.org.cn


继续滑动看下一个
上海市法学会 东方法学
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存