以ChatGPT为代表的生成式人工智能一方面作为当前新兴的科技潮流推动人们的生活发生重大变革,另一方面其所伴生的诸多法律风险亦不得不慎重对待。与诸多尚未发生的假想风险不同,个人信息保护困境已然成为现实。不同于著作权纠纷等偏向财产性的纠纷,个人信息保护问题更多侧重人身性。因生成式人工智能基本特性产生的影响、个人信息保护内部辩证关系遭受的冲击,二者在耦合后加剧生成式人工智能背景下个人信息保护的困境。据此,需要兼顾生成式人工智能的内部防范和外部约束,通过科技手段和法律手段的综合运用,破除生成式人工智能背景下个人信息保护的困境,促进生成式人工智能和个人信息保护的良性互动。
2022年末,ChatGPT几乎在一夜之间火爆全球,人们纷纷通过各种方式尝试与其沟通互动。甚至有学者认为以ChatGPT为代表的生成式人工智能是一次新的工业革命。在人们与ChatGPT的一问一答中,后者所具备的连续对话能力和对问题精确、灵活地回应为人们所震惊。作为生成式人工智能的一种,ChatGPT是基于算法、模型、规则生成文本、图片、声音、视频、代码等内容形成的新技术产物,是一个无监督或部分监督的机器学习框架。OpenAI公司对ChatGPT进行大量的训练和计算,通过不断迭代成功地使其成为生成式人工智能目前最为成功的存在。而在ChatGPT为人们所称赞的同时,其可能带来的各式风险也被学者和实务界人士敏锐发觉。在社会层面,生成式人工智能对各行各业带来全新的挑战,小到日常学习办公的方式,大到人类与人工智能的关系,社会生活的方方面面都受到突如其来的冲击。聚焦法律层面,数据泄露、算法歧视、伦理问题、技术垄断、责任能力等问题已为学界关注并讨论。但上述诸多技术风险目前大都停留在猜想和假设阶段,尚未实际存在。与此相比,以ChatGPT为代表的生成式人工智能对于个人信息保护的挑战却已然存在,并产生现实纠纷。因此,如何在生成式人工智能日益发展的环境下保障个人信息,平衡科技和个人信息保护间的关系,是整个学界需要及时直面和应对的挑战。生成式人工智能与个人信息保护看似是两个层面的不同问题,即生成式人工智能主要是通过信息搜集以形成“答案”,属于一项数字技术;而个人信息保护讨论的是自然人对其个人信息是否享有权利的问题。但是,个人信息保护的本质便是为了制约数字时代如影相随的“数据权力”,而生成式人工智能所展示的“数据权力”将其与个人信息保护紧密联结。因此,我们不仅需要把握二者的特性,还需要将二者进行串联分析,以期形成全面的问题分析路径。生成式人工智能之所以能够在短时间内为世人所接受和认可,最主要的原因便是其所展现的独特属性。这些特性使得生成式人工智能相较于传统AI模型显得更加“智慧”,传统AI更多侧重对于存储信息库中信息的检索,无法实现所谓的“自生成模式”,亦无法深度自主反馈学习。但是,在生成式人工智能具备传统AI所不具备特性的同时,也潜藏着对于个人信息的危险暗流。ChatGPT作为生成式人工智能的代表,能够充分反映出生成式人工智能当前所具备的特点。其中,最为直观地便是操作简单,容易上手。即使是老年人也可以通过语音的方式与生成式人工智能进行对话沟通,无论使用者是否具备专业的计算机知识,其所希望得到的大多数信息都能够通过简单问答方式获取,极度便利几乎没有任何门槛。生成式人工智能具备的便捷性是通过在大量数据的基础上由计算机学习和模拟生成的,ChatGPT生成信息主要依赖其所掌握的庞大数据库。也正因ChatGPT的出现,使得原本难以为普通人寻得的数据在ChatGPT的使用者这里可以轻易获及,几乎不需要付出任何时间成本。如Guy Harrison所言:因为ChatGPT,使得我们终于可能接近至任何人通过简单地询问人类语言的信息便可查询数据库的地步。但是,也正是如此,原本网络上星罗棋布的个人信息亦会变得更加便于获取。这部分个人信息原本可能隐藏在不同网站的“边边角角”,还带有很多“伪装”,原本需要付出极大的时间成本和技术支持才能获及,但是生成式人工智能却能快速定位并加以筛选。因此,从个人信息被不当获得的成本和便利性上看,生成式人工智能的便利性使得个人信息保护所面临的挑战更加艰巨。传统AI模型虽然能够快速找到相关网页和信息,但是信息本身十分凌乱,只实现粗略筛选功能,从整体来看并不高效。而OpenAI官方将ChatGPT的生成机制分为四个阶段,其中ChatGPT的生成机理中很重要的一步就是强化学习算法针对奖励模型优化策略。无论是多么复杂的问题,生成式人工智能都能在短时间内形成一个不完美但有效的答案。面对一个具体的问题,生成式人工智能能够在浩如烟海的资料库中以极短时间找到具有强相关性的信息,并且进行答案的生成和逻辑梳理。如此高效的信息处理能力令人在感慨人工智能发展的同时,也引发一些不得不面对和思考的问题。只要是与问题强相关性的信息就会被搜集、整理和生成,如此高效形成的“答案”是否也意味着缺乏对信息可利用性和敏感性的分析?需要区分的是:找到信息和生成、利用信息存在很大的差别。另一个问题是生成式人工智能有多大概率能否保障所生成的个人信息之后的使用、储存、传输被有效监管?因为生成式人工智能的内容只要出现,便能够直接为提问者获悉,其中并没有留下空白地带。对于个人信息保护而言,如果缺乏一个严密的“筛子”,不能完全筛查出回答中涉及个人信息的内容,在很大程度上个人信息就存在被漏洞泄露的风险和隐患,而且无法补救。高效需要以质量和稳妥为前提,配套保护没有跟上,单纯的快或许并不是一件好事。生成式人工智能对于一个问题往往会给出多个要点,并且每个要点之间还能体现出不同的面向。也就是说生成式人工智能能够对一个问题进行全方位、多角度的分析,某种程度上很像高中文科生作答时将自己能想到的各种因素全部列出,但生成式人工智能显然更加全面且专业。这种全面的结论依靠的信息显然不是简单一个数据库所能满足的,往往一个问题需要参考引用数不清的数据来源,将不同数据进行整合分析。结论的全面性也就意味着涉及更多的数据,或许其中很多数据单独没有价值、不可识别,但整合后便属于需要被保护的敏感数据,整合后的数据是否可以为他人所知、是否会涉及侵权他人的人身财产权益不无疑问。而对与个人信息有关的内容,通过生成式人工智能的信息整合和分析功能,也会使得原本分散、个性化不明确的个人信息生成全面具体的个人信息。而且对于需要被利用得如此庞大又模糊的个人信息,OpenAI公司其并没有为个人提供检查公司是否存储其个人信息或要求删除其个人信息的程序,可能已经涉嫌违反通用数据保护条例。除此以外,生成式人工智能还能对个人数据进行二次深度加工,通过组合分析不同类型的个人数据来充分挖掘出其潜在价值。即使很多个人数据与提问者所涉猎问题的联系并不紧密,生成式人工智能的算法也会收集这类个人数据来辅助验证,并通过知识蒸馏来进行深度学习并凝练结论。在这个过程中,使用验证个人信息的这一行为不会因为没有生成相关结果或尚未导致个人信息泄露就具备了合理性。简言之,对个人信息的使用、访问本身就涉嫌构成不当侵权,即并不以出现损害结果为要件。基于ChatGPT类技术的架构分析可以发现,生成式人工智能知识的习得与生成无法保证绝对正确,在本质上当前大多生成式人工智能仍然是联结学派的范式。与此同时“算法黑箱”的问题也已经被很多学者所关注。生成式人工智能所形成的答案不精确本身并不具有可指摘性,即使是Ope⁃nAI公司自己也承认ChatGPT有时会创造性地给出似是而非、不准确或者荒谬的回答。但是,如果生成式人工智能给出的回答涉及具体个人信息领域,直接产生的一个问题是:创造性生成内容的错误可能会导致某个民事主体的名誉权等受到不当侵害。即使是对很多未被直接泄露的私密信息,生成式人工智能也可以在不断学习、分析的过程中通过大数据算法自行推断,推断的结论自然存在误差的可能性。在实践中,如果错误地将A主体的新闻识别为B主体的信息,或者对于同名同姓的主体发生错误识别,所给出的回答直接会导致侵犯人格权的后果。退一步讲,即使技术能够达到非常精确的程度,不会出现错误,正确地推断出他人的个人信息,亦不具备正当性。因此,如果涉及个人信息,生成式人工智能因其创造性或可造成的不良后果必须为学界所重视。个人信息之所以近年来备受人们的重视,一方面是因为经济社会发展后,人们愈加重视深层次的权益,个人信息是一个多元价值的集合体,包含了信息主体的人格尊严和自由价值、商业价值和公共管理价值。另一方面也是因为个人信息自身所拥有的独特属性,其同时囊括个体与群体;其保护法益兼具公益与私益。对于个人信息保护而言,其所表现的一个重要特征在于内部的辩证关系,当前很多关于个人信息的研究实质是建立在“相对分离—绝对统一”“主观判断—客观标准”和“信息流通—信息保护”三组关系之上。而这些辩证关系也在生成式人工智能背景下受到猛烈冲击,使得个人信息保护面临与传统不大相似的困境。当前个人信息保护涉及最多的便是数字技术领域,几乎每一个手机APP都涉及个人信息的获取和使用问题。有学者发现人们通常使用的十款APP(除理财产品APP外)不仅会搜集个人信息,还允许略过阅读协议直接同意。虽然很多个人信息是应用程序通常都会搜集的(如性别、年龄、号码等),但是不同种类的APP侧重搜集的个人信息却存在差异。每个主体的个人信息都被零零散散地分布、共享在不同种类、不同公司的APP上。虽然这些个人信息杂乱无章,但是个人信息却最终都绝对统一,即所有的个人信息最终都可以归属于一个主体。原本分散的个人信息虽然也存在着被泄露的风险,但是在很多情况下泄露的都只是某一类个人信息或者某个特定化场景下的个人信息,所有信息均被同一时间泄露的概率不大。与此不同,在生成式人工智能背景下,再分散凌乱的信息一旦具有可获及性,ChatGPT等生成式人工智能都能迅速捕捉并进行最大程度的分析和组合。生成式人工智能会使得原本个人信息“分散”的特点变得模糊,个人信息是否被统一只是选择问题,而享有选择权的主体可以是使用生成式人工智能的任何人。当普通民事主体的大部分个人信息都为他人知悉,该主体也就在社会上丧失了神秘性,能够为他人所轻易分析和引导。进而甚至还会完全丧失独立性,因为其所有自以为的自我决策实质上都可能是他人和外在刻意引导的结果。生成式人工智能对个人信息相对分离的破坏是传统AI所不能达到的,破坏个人信息相对分离导致的结果,不仅是对个人权益的侵害,也是对社会公共秩序的破坏。就个人信息而言,或许可以总结为两个核心问题,即什么是个人信息以及个人信息的使用范围和程度。前者原本是一个事实层面的问题,个人信息的判断可能随着时间的变化而变化。个人信息一开始被视为纯粹私人的“物品”和“领域”,后来社会本位的观点就逐步兴起。无论如何,在特定时期背景下个人信息的内容和范围是存在客观标准的,只有是或不是的判断,不存在所谓的中间地带。后者则涉及价值判断问题,个人信息的使用范围和程度天然地有所不同,不同主体有不同的希望,有的希望定向推送广告和商品,有的连电话号码都不想授权他人获取。虽然法律可以给出规范层面的逻辑框架,但是具体在判断个人信息合理使用必须需要结合主观判断,也就是当前各种APP所需要的个体授权同一模式。有学者提出对“合理范围”的解读应从处理者规制视角回归到信息主体权益视角,“合理范围”应以公开时的“合理预期”为标准,合理预期的判断需综合主观标准和客观标准。价值判断本身就是法律思想史中最富有争议的议题,作为人之为人的特性,生成式人工智能并不能为其提供帮助或解决思路。有学者指出,生成式人工智能或许可能有助于类案裁判,但是无法基于实质正义之立场,维护普遍正义和个案正义的平衡。在这一组辩证关系中,就价值判断而言,生成式人工不仅不能为其提供帮助,还要预防其发出错误的提示进行误导,“无为”或许便是生成式人工智能所能作出的最大贡献。而生成式人工智能带来更直接的影响或许是对何为个人信息这一事实判断的冲击。原本在特定背景下范围清晰的个人信息,因生成式人工智能变得不再那般事实化,生成式人工智能所具有的超强算法和分析能力导致在考虑何为个人信息范畴的过程中需要加入很多价值判断考量。原本不构成个人信息的内容,可能会为生成式人工智能拼接、推导分析出隐含的信息,这便导致个人信息自身的边界变得不再清晰,甚至是否属于个人信息完全都不为人类自己所掌控。生成式人工智能使得个人信息的判断变得复杂,进而所有与之相关的问题都需要将这一前置条件作为思考的逻辑起点——构不构成个人信息。一些原本并不构成个人信息的内容,可能会因为生成式人工智能也需要被纳入个人信息的保护体系进行分析。而很多原本已经被解决的问题,如今也都会因为这一前提需要重新思考。凡是涉及个人信息的问题之所以不能被一刀切的保护,主要一个原因是因为对隐私权益必须进行场景化的理解,个人信息流通亦具有公共性价值。个人信息需要被保护,但是个人作为社会主体,参与社会生活分配,其所涉及的很多信息并不能被简单地专属性保护。个人信息不仅在社会层面需要流通利用(例如大数据决策),在个人层面也可以通过个人信息的流通以进行定向推送,定制分享所偏好和需求的物品。个人信息流通属于合理使用的范畴,而合理使用在当前社会任何层面都具有不可忽视的意义,其实质是对自然人享有个人信息方面的人格权益的限制,是对知情同意原则的法定豁免。但问题在于合理利用的边界究其为何?将个人信息应用到商业场景下是否一定就超过了合理边界?能否简单通过社会利益需求推导出个人信息被使用即合理?后两个问题的答案至少不是不证自明的。很多学者也在试图给出一些标准和界限,但是很难形成完全一致的意见。在此基础上,生成式人工智能还会将合理使用的边界进一步模糊,信息流通也将面临更大阻碍。例如,在没有生成式人工智能的时候,信息搜集流通只需要考虑搜集的必要性、使用的目的性、储存运输的安全性即可。但是,生成式人工智能的出现直接使得个人信息的储存运输安全性成本大大增加,搜集的必要性模糊,原本只能被用来实现特定目的的个人信息可能会被生成式人工智能推导出与原本搜集目的不相关的其他个人信息。在此过程中,如果将个人信息输入到生成式人工智能,则涉及的问题就会更多。生成式人工智能无疑加剧信息保护和信息流通之间的矛盾,生成式人工智能自身的风险可能使得个人信息合理使用的边界进一步模糊,在无法判断是否属于合理使用的情况下,更加经济的做法是不流通信息以防止风险的发生(除非为了利益自愿承担信息泄露风险)。整个逻辑路径可以总结为:生成式人工智能自身特性→导致信息流通风险增大→牺牲信息流通换取信息安全/牺牲信息安全换取信息流通。通过上述分析不难发现,生成式人工智能和个人信息保护之间并不是泾渭分明的两组范畴,二者实质上发生着相互耦合的纠葛。生成式人工智能的四点特性会导致个人信息保护造受到深层的冲击,个人信息保护内部固有的三组辩证关系也会为生成式人工智能所影响变得更加模糊。原本由个人信息保护法和民法典等规范对个人信息搜集、处理、使用等诸多环节的保护,都会随着生成式人工智能的发展变得出现裂痕。以ChatGPT为代表的生成式人工智能已然面临着严重的个人信息泄露问题,一方面,生成式人工智能的便捷、高效、全面、不精确性会使得个人信息源头端、个人信息分析端、个人信息组成端和个人信息生成端均面临内忧外患。另一方面,个人信息内部相对分离的破坏、个人信息内容客观标准的暧昧、信息流通和信息保护的矛盾,可能隐含的误导都将会使得个人信息保护在生成式人工智能背景不变的风雨飘摇。如果不加以防范和规制,个人信息将在生成式人工智能背景下变成任何人都可以获取利用的“财富”,所谓的个人信息保护只会沦为自欺欺人般的存在。为了规范生成式人工智能,学者们提出了很多方案和理论选择。其中最为典型的便是生成式人工智能治理元规则概念,从价值层面来看,这些元规则都符合人们的认知和普遍理念,对生成式人工智能整体规制发挥框架性效果。但是,生成式人工智能规制更需要的或许是具体措施的制定,元规则需要转化为具体规范群,才能产生实践意义。另一方面,对于生成式人工智能的规制,伦理先行这一价值很好地突出了以人为本和底线思维。但是,所谓的科技伦理原则亦正在遭受直面挑战,有学者指出,如以宽泛的法律价值为基本内容,科技伦理缺乏必要的可操作性,与一般的伦理规则并无本质区别。《生成式人工智能服务管理暂行办法》对生成式人工智能进行了界定,从合规义务和监管等层面提出了要求。这一管理暂行办法的第4条第4项针对个人信息作出了原则性规范,第7条、第9条、第11条和第19条从知情同意、提供者责任、保护义务和监督检查层面对个人信息进行了规范性依据。上述五个条文显然为生成式人工智能背景下的个人信息保护提供了规范路径和整体思路,但是或许更加重要的在于如何从实践层面上贯彻这些条文的规范意旨,使得个人信息保护能够在生成式人工智能背景下落到实处。虽然生成式人工智能的确需要通过法律从规范层面进行约束,但是法律从来都不是万能的,其只能调整社会生活的某一些领域和内容,所以规范层面的个人信息保护或许只是一个面向。欧盟委员会在《可信AI的伦理指南草案》中指出,需要对人工智能技术的开发和应用全过程进行持续性评估,要从技术方法和非技术方法两个层面入手。规范生成式人工智能下的个人信息保护很大程度上采取同样的逻辑,不能仅靠法律规范,更不能仅靠几个原则性规范,更重要的是要从内部技术和外部监管两个层面着手相互促进,以期实现综合治理目的。技术问题的治理应该首先立足于有效的技术手段,如一项新兴技术引发的社会问题能够依靠技术手段予以内部优化,那么治理路径应该以技术为先。正如与生成式人工智能面临类似问题的算法,很重要的一点便是应该尝试着从对代码和算法结果的规制转向对代码和算法过程本身的规制,而技术本身便是对过程最直接和最高效的规制手段。对个人信息的使用和访问本身就涉嫌构成侵权,即并不以出现损害结果为侵害个人信息的要件,因此对于涉及个人信息(尤其是敏感个人信息)的数据应当通过加密和去标识化的方式进行管理。生成式人工智能无论是在训练过程中还是分析过程中原则上都应当无法对个人信息数据进行识别和读取。但从目前已知的信息看,ChatGPT所训练和访问的数据库并不能够保障不涉及其他数据库的个人信息,并且其还会获取、储存在使用过程中知悉的个人信息,也没有写明储存方式。在数据安全风险层面,评估范围应仅以算法模型与人工智能系统功能实现需要的数据集合为限。对于数据的加密处理是现代互联网背景下最基础的要求之一,但是当前很多数据都是以明文传输和储存在网络系统和大数据系统中。尤其云计算环境下,用户数据保存在云端,而保存在云端的数据副本常常未经过加密存储。个人信息保护法第51条也要求个人信息处理者必须采取密码技术和去标识化等方式保障个人信息安全。无论是生成式人工智能背后的主体还是其他信息化网络主体,都需要加强加密储存信息的能力。对个人信息加密储存在技术上并不存在难以克服的障碍,而计划对已加密的个人信息不当获取却需要十分高超的技术和一定的成本,在逻辑上能够通过加密去标识化这一较小投入避免个人信息泄露的风险。生成式人工智能因其不仅是自身个人信息库的获取、储存方,也是其他个人信息库的使用方,亟待需要对其运行过程中涉及两大类个人信息通过加密、去标识化的方式妥善保存。通过对个人信息的加密储存,已然能够在很大程度上减少生成式人工智能对个人信息的可获及性,也能够预防生成式人工智能自身导致的个人信息泄露问题。但是现实中存在很多看似无关紧要的个人信息未得到妥善保存或者已然被互联网所公开。基于此,生成式人工智能在获取、分析、识别、形成答案的过程中应通过技术手段防止同一主体的不同个人信息被过度集中。例如,如果提问者的一个问题生成式人工智能需要结合同一个主体的多项个人信息形成结论,应通过技术手段使其无法同时使用同一主体的数个不同的个人信息。一旦同一主体的多个个人信息进入到分析阶段便自动产生程序错误,无法生成有效回答。这种方式能够在最大程度上防止生成式人工智能搜索信息便捷性和全面性所带来的弊端。同一主体多个信息的互斥看似需要强大的技术手段为保障,实质上只需要在获取答案的过程中识别出涉及个人信息的内容,通过信息主体识别的方式进行分析,如果某些个人信息共同指向一个主体,便需要产生互斥效果。对于生成式人工智能的结果一旦生成公开,便已然无可挽回。因此,对于生成结果前的强筛查应该作为技术层面的最后一道阀门。OpenAI公司专门训练了一个对有害内容进行过滤的AI模型(即过滤模型),来识别有害的用户输入和模型输出(即违反其使用政策的内容),从而实现对模型的输入数据和输出数据的管控。此种过滤模型也可以应用于个人信息保护领域。生成式人工智能还具备根据已知信息推断未知信息的能力,即使将信息源头进行封锁也不能完全避免个人信息被推导生成,外加生成式人工智能还存在着结果非精确性的特点,因而最后的筛查环节便显得格外必要。非精确性固然在技术上无法避免,但是关于个人信息的保护却有章可循,即一旦系统发现可能生成的结果涉嫌某个主体的个人信息,或出现有关个人信息的敏感词在技术层面很容易审视并拦截过滤。同时,如果针对同一主体询问的信息或者被询问的信息多次存在拦截情形,此项信息应被着重审查和监管。对于生成式人工智能外部监管而言,学者提出的监管沙盒理论或许缺乏其适用的空间。首先生成式人工智能本身完全不同于金融的强监管、经许可的基层框架,无法通过部分许可测试的方式推进。更主要的是生成式人工智能适用范围早已无法控制,即使是官方尚未开放的地区,也鲜少人从未使用。因此在生成式人工智能的背景下,欲通过外部限制的方式保障个人信息,需要聚焦于知情同意,通过对隐私权和个人信息保护的并举,最终回到生成式人工智能的责任问题。知情同意机制是个人信息保护制度的基石,其理论基础在于个人信息自决权。不仅对于个人信息的搜集需要受到知情同意原则的限制和规范,对于个人信息的使用、二次加工、公开等都需要经过权利人针对性的知情同意。学者提出的个人信息处理三重授权原则也强调平台收集和向第三方分享须充分告知并经用户授权,第三方获取和利用前述数据既要平台授权也要用户再次明确授权。生成式人工智能作为原本知情同意主体外的第三方,在并不享有任何豁免事由的前提下,一旦涉及某个主体的个人信息,基于合同的相对性原理,在逻辑上都需要经过权利人单独的知情同意。对知情同意并不能做简单化、机械化、概括化理解,要从告知方式的合理性、决定的选择性、同意的有效性等方面结合具体场景加以判断。以ChatGPT为代表的生成式人工智能在绝大多数情形中并未完成任何个人信息领域的知情同意,有学者指出ChatGPT在通用数据保护条例下存在四个问题,其中之一便是在用于训练ChatGPT的大量数据中,收集人们的个人信息“没有法律依据”。在未经知情同意的情况下生成式人工智能对个人信息任何针对性的活动都不被法律允许,严重者则会涉及民事赔偿、行政处罚,甚至是侵犯公民个人的刑事犯罪。因此生成式人工智能必须要贯彻知情同意原则,个人信息“回应型治理框架”值得借鉴。对于生成式人工智能不仅需要清晰化告知使用生成式人工智能过程中会被搜集和使用个人信息,还需要对其训练和使用过程中涉及的原数据库信息获得知情同意,对于未经知情同意的个人信息并不具备豁免同意的空间。面对大数据技术正使个人信息与非个人信息的二元区分逐渐失去意义这一困境,隐私权的讨论就显得十分必要。一方面,个人信息的本质也是隐私权分离出的内容,我国民法典和个人信息保护法采纳了个人信息与隐私权界分的保护策略。另一方面,有学者也关注到隐私权从个人本位向社会理论的转变。在生成式人工智能背景下不仅需要关注个人信息保护问题,还需要重新思考隐私权和个人信息的密切关系。民法典对于侵害隐私权的免责事由要求“权利人明确同意”,而对于个人信息处理的免责事由要求“同意”,立法区别表明对隐私信息的收集必须是明示。根据举轻以明重原则,生成式人工智能背景下对于个人信息的保护暗含了对于隐私权的保护内容。即使个人信息的客观标准为生成式人工智能所“价值判断”化,隐私权也能够提供一个有效的红线,即隐私的核心特征在于自然人对于涉及自身内容的非公开性意愿,保护的是自然人的自主决定自由。同时,隐私权作为一个由来已久的概念相对个人信息在很大层面上更具有共识性和包容性,对于一些可能并不属于个人信息的内容,也能够通过私密性这一要件为隐私权所涵射进行保护。隐私权的介入不仅能够为个人信息保护提供客观化的依据,还能够合理扩充权益保护范围。面对生成式人工智能对个人信息造成的冲击,也许聚焦个人信息保护本身不能够提供有效的路径和保障,那么便可以借助隐私权的方式应对个人信息自身所无法克服的困境。在技术中立的背景下,算法往往由于价值缺失、设计缺陷或信任危机而产生严重的算法风险,但是,生成式人工智能的可归责性、归责主体、归责原则等问题一直也是讨论的热点。《生成式人工智能暂行管理办法》中规定的责任主体是“提供者”,提供者在诸多核心要素方面充当着“把关人”和决定者的角色。传统的网络侵权往往存在两方主体(网络服务提供者和受害人)或三方主体(增加网络用户),生成式人工智能则会涉及多重主体。生成式人工智能服务提供者并非搜索链接服务提供者。有学者从人类意志特征、行为能力和拟制主体三个层面论述了生成式人工智能责任能力的现实基础。从实现层面而言,根据“代理说”,应由生成式人工智能系统所属主体和个人信息保管主体在发生个人信息泄露或侵权的情形下,根据各自相应过错承担按份责任。至于使用者是否需要承担责任需要进行讨论:首先,使用者和个人信息权益者之间有一道界限,即生成式人工智能,生成式人工智能不是传统意义上的工具,因此应由生成式人工智能系统所属主体和个人信息保管主体(二者可能发生重合)作为直接侵权者对外承担责任。其次,故意通过生成式人工智能获取他人个人信息属于风险的最初缔造者,在生成式人工智能系统所属主体和个人信息保管主体承担责任后可向使用者进行追偿。再次,对于过失侵权他人个人信息权益需要区分重大过失还是普通轻过失,重大过失需要承担相应的责任,即可被按照一定比例追偿,而普通轻过失则无须承担责任。对于生成式人工智能自身在对话过程中所获知的个人信息需要被妥善储存。但据ChatGPT的隐私政策显示,ChatGPT会记录使用者在其中键入的所有内容。可能会对消息、上传的任何文件以及提供的任何反馈中收集个人信息。所以国家层面需要通过严格的责任倒逼生成式人工智能开发端、个人信息保护端均承担起各自本应肩负的个人信息保护责任和使命。生成式人工智能的出现着实令每一个人都眼前一亮,人工智能的发展早已远远超出十年前科幻小说的预测。时至当下,我们已迈向快速发展的新时代,生成式人工智能已然成为大的趋势,我国科技企业也应当担负起重大的历史使命,参与更为公平合理的国际数字规则体系建构。但不能只是技术在发展,主体意识也需要驱动,我们要加强保护每个主体所应享有个人信息的权益。诚然,过于超前地规划立法方案和建构规制路径,可能会阻碍人工智能技术的创新,但是过于滞后的保障也会使得人之为人的主体权益被践踏。在生成式人工智能背景下保障个人信息不是为了限制技术,而是为了让技术只是技术。