查看原文
其他

学研|樊博:ChatGPT的风险初识及治理对策

文章来源:樊博.ChatGPT的风险初识及治理对策[J].学海,2023(02):58-63.


摘要

ChatGPT以通用人工智能的高科技姿态横空问世后,引起社会各领域的广泛关注与讨论。作为一种人工智能技术驱动的自然语言处理工具,ChatGPT通过与人的交互式对话,不断学习与理解人类的语言,向社会各界提供了解决问题的新选择,日益成为科技创新、产业升级和生产力提升的重要驱动力。然而,ChatGPT也面临如数据泄露、伦理偏见、隐私保护等问题,引发了关于ChatGPT在社会以及数字政府领域中应用的忧虑。随着ChatGPT在各个领域中的应用程度不断加深,其潜在风险点的识别也变得越来越重要,对它的治理对策也会随着层出不穷的问题而不断变化。


关键词:ChatGPT;人工智能;风险;治理对策


随着自然语言处理、深度学习、语音识别和模式识别在人工智能领域的优化和提升,ChatGPT进入了人们的视野。作为新一代人工智能技术,ChatGPT在文字翻译、文案撰写以及音视频创作等方面具有较强的优势,在政府、企业以及医疗、教育等领域和行业具有广阔的应用前景。党的二十大报告指出人工智能在推进治理水平提升方面的重要性,强调其在建设网络强国、数字中国以及提升生产力上的引擎作用。ChatGPT的应用为数字政府、社会各行业的转型与发展提供了必要的契机与技术支撑。然而,其潜在的隐患一直是学界和业界共同关注的焦点。因此,明确ChatGPT在各领域中的应用价值,识别其潜在的风险点,并针对性地完善风险应对策略将尤为重要。


 ChatGPT在多领域中的应用:功能与价值 


(一)社会领域不同场景下ChatGPT的功能与价值

ChatGPT可以通过学习和理解人类的语言来进行对话,在社会应用中越来越多地显示出解决通用问题的能力,其价值尤其体现在教育与学术研究、文学与艺术及电子商务的应用场景中。


在教育与学术研究中,ChatGPT可以提高信息获取效率,节约时间成本。据一项调查显示,截至2023年1月,美国多数大学生都用过ChatGPT做作业。学生可以通过ChatGPT实现咨询问题的快速应答,撰写电子邮件、编写可运行的程序代码,甚至可以通过美国执业医师资格等对人类难度较高的专业考试。ChatGPT也可以帮助学生与研究人员高效地处理和分析数据,更加迅速有效地实现专业领域知识信息的获取。在学术研究中,ChatGPT已具备相当高超的写作能力,可以撰写论文甚至迅速生成研究报告,大大降低了学术研究的时间成本。


在文学与艺术创作中,ChatGPT基于强大的信息搜索与信息整合能力,可以为使用者提供丰富的知识信息,增强其对不同领域、背景主题的理解,进而提升使用者的创造能力。个人通过使用ChatGPT可以进行文学、艺术等领域的创作,具体包括创作音乐、电影剧本、诗歌、歌词、小说等。近期,在美国最大电子书平台亚马逊上,悄悄刮起了一阵“AI写作书籍”的热潮:不少业余作家利用ChatGPT在几个小时内就能完成一本几十页的电子书。ChatGPT为文学与艺术创作者提供灵感与参考,促进文学与艺术作品的产生。


在电子商务应用中,ChatGPT可以增强用户体验、提升产品质量、辅助企业战略决策。首先,由于ChatGPT不具备人类的情绪,可以被用来打造成虚拟客服进行全天候服务,并理智且冷静地与顾客沟通。同时,ChatGPT可以根据消费者的需求信息,不断在全天候交流中积累素材库,更为精准地了解客户的消费需求、消费偏好以及消费行为,从而增强用户体验。其次,ChatGPT可以通过输入的产品信息、展示的用户需求以及利用特定产品信息对图片、视频的智能生成与处理,辅助产品设计,提升产品质量。最后,消费者的消费体验随着ChatGPT可信度的提升而增强,ChatGPT会通过与用户互动,了解用户性格、消费习惯、喜好等,从而推荐最佳产品,有助于企业作出更加精准的产品定位和市场部署。


(二)数字政府领域不同场景下ChatGPT的功能与价值

ChatGPT超强的人机交互、语言理解、计算机编程等能力,为数字政府建设带来了全新的发展契机。在数字政府建设中ChatGPT可以增强政民互动、提高政务供给和处理效率、辅助政府决策。


在政民互动场景中,ChatGPT有助于为公民、企业等公众提供优质的服务,促进公众与政府良性互动,进而提升数字政府的管理效率和建设水平。随着大数据时代的到来,虽然数字政府的电子政务服务能力、互联网+政务服务能力在不断地提升,但是无论是通过搜索引擎获取政府办事入口,还是拨打政务热线寻求帮助,又或是在政府网站或政务App查询信息,人们的服务体验往往都不尽如人意。ChatGPT所承载的强大语言理解和生成能力,将会给政民互动带来全方位的深层次冲击,使政民互动体验得到实质性改善。人们从哪里获取信息,怎么找政府办事,这些老大难问题将迎刃而解,公众或企业就此可以轻装前进,轻松自如地和政府打交道。


在政务供给和处理场景中,ChatGPT的价值与效率密不可分。目前,财政状况、组织目标、人员素质等因素导致各个政府部门所提供的服务相互割裂,公共服务的供给和需求之间没有实现精准而高效的契合。ChatGPT为政府运用数字技术打破传统服务供给模式的壁垒提供了可能,可以高效便捷地为公众提供“一网通办”“最多跑一次”等一系列相关服务;并且基于ChatGPT而开发的公共服务响应系统,能够为个人和企业建立数字账户,基于人们的需要来提醒、部署和调度相关部门所提供的服务。此外,从政府运行和政务处理来看,ChatGPT具有强大的信息搜索和加工合成能力,可以快速生成公职人员所需相关文书,使其更加轻松高效地履职。


在政府决策场景中,ChatGPT可以让政府的政策决策更加科学。不少政府决策涉及海量数据的汇聚和决策算法的优化,但目前很多政府部门还缺乏这些能力。ChatGPT使基于大数据的政府智能决策成为可能,并加速政府决策的智能化发展。向ChatGPT提供决策相关的各类数据,并界定决策的预期目标和限定条件,就可以获得多种可供选择的政策方案。虽然ChatGPT的创造力不被看好,但是它在信息加工重组方面的能力超群,有可能提出决策者未曾想到的政策方案,并为政策创新带来契机。

ChatGPT在多领域中应用的风险识别


ChatGPT为人类社会带来了诸多便利,但在不同领域中的应用也面临着潜在的风险问题。在社会应用中存在的风险主要表现在以下三个方面:


(一)错误与虚假信息冲击人类价值体系

ChatGPT可能产生错误或虚假信息,冲击人类的价值体系。人工智能算法的依赖性与虚假信息的迷惑性均会影响社会认知及其发展的多样性。比如,错误信息一旦出现在学术研究成果中,会对非专业人士起到极大的误导作用,将严重影响科学研究的严谨性,导致未来该领域相关政策制定缺乏合理性。此外,在信息化时代,智能算法根据使用者的喜好为其塑造特定的信息环境,进而固化使用者思维,并以“积极”或“消极”的方式影响使用者的认知。对于企业,提供迎合用户需求的产品和服务,必然会加剧其对用户选择性的信息传递,致使“信息茧房”的形成。用户一旦桎梏于错误的或者虚假的信息之中,将会扰乱其价值体系,进而造成认知固化甚至形成偏见。


(二)责任主体模糊挑战知识产权、数据合规与信息保护

首先,ChatGPT在本质上仍不能规避数据挖掘带来的知识产权侵权问题,相关授权是否充分依旧存疑。ChatGPT在帮助使用者更为便捷地获取知识资源的同时,也可能会引发抄袭、剽窃等行为,加剧知识产权侵权风险。出于对作品质量的考量,ChatGPT甚至被列入作者署名,但显然其无法对学术成果的真实性与完整性负责。其次,数据合规风险。ChatGPT收集的训练数据可能包含个人信息、第三方文字作品以及从具有禁止第三方爬取数据条款的网站收集的数据。当使用了不合规的数据信息时,使用者将面临侵犯他人信息权益的窘境。最后,信息泄露风险。OpenAI的使用条款并未对用户可能输入ChatGPT的机密信息提供任何保护,用户可能不知情、不自觉地录入个人、企业有关的机密信息,信息泄露可能致使其违反保密规定。


(三)数字鸿沟冲击组织架构,加剧社会不平等

ChatGPT同样可能引发关于公平、公正的问题。ChatGPT的“类人性”特征,可能导致单一重复型的工作岗位被人工智能所代替,这种替代性加剧了精英阶层与普通民众之间不平等,同时,不少人也将面临失业的风险,现有的组织架构受到冲击。此外,ChatGPT作为新兴技术,在此平台上对话的很多是年轻的、更愿表达的人群,但沉默人群可能因为不参与或缺乏参与渠道而被ChatGPT的学习训练过程忽视。例如,对于使用ChatGPT完成作业与自己独立完成作业的学生来说,二者已然处于不公平的竞争环境中。


在数字政府建设中应用ChatGPT存在的风险点将从以下四个方面识别:


(一)投资具有一定不可预估性,挑战政府财力

人工智能算力是ChatGPT在数字政府建设中得以应用与发展的关键。当前全国有20多个城市在推动人工智能计算中心建设,比如鹏程云脑II、武汉人工智能计算中心、中原人工智能计算中心等,主要研究提升人工智能算力。据了解,鹏程云脑初期投入约有12亿,武汉人工智能计算中心投资也有10多亿。以ChatGPT为代表的AI大模型训练在提升算力方面给政府提出了更高的要求。有数据显示,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要78个投资规模30亿、算力500P的数据中心才能支撑运行。巨大的投资无疑为政府财力带来了巨大挑战。


(二)信息的真实性辨别难度加大,挑战政府公信力

ChatGPT的出现,无疑将推动政府与公众之间的关系发生改变,从政府网站、政务新媒体到政务聊天机器人,公众获取信息的门槛似乎越来越低,但人们对信息的辨别能力与选择门槛则面临巨大挑战。应当注意到,如果ChatGPT依靠已有语料的训练,将不规范的信息内容发布在政府网站、政务新媒体等平台上,则可能为用户提供糟糕的答案,从而形成对政府权威性的反噬。ChatGPT的“专业性”影响受众的判断能力,势必会助推虚假信息的传播,在一定程度上降低主流媒体发布信息的公正性与权威性,久而久之,政府的公信力将受到挑战。


(三)冲击政府组织结构、业务流程和人员安排

在ChatGPT的冲击下,政务大厅、政务热线、检查执法部门等都可能逐步减少人员聘用,并持续降低组织规模。未来政府的规模可能会更小,机构设置更少,组织结构则更扁平。此外,目前的政府行政管理领域内任何工作的开展都是与组织流程、资源配置、考核体系密切相关的,任何工作都是需要以牵头人、负责人来实现责任的闭环。ChatGPT可以成为一种创新应用,但如果回答错误则可能影响公众的切身利益,那么我们又该如何来划分责任?这种责任体系的建设势必将对原有的组织运行流程和协同体系产生重要影响。


(四)技术瓶颈挑战信息安全风险

ChatGPT是由美国OpenAI公司开发的,这可能会带来技术垄断的问题。即使该公司愿意与中国政府达成合作,但中国始终会面临技术上“卡脖子”的难题,从而进一步加剧科技发展现有的不平等,引发技术霸权。与此同时,ChatGPT降低了网络攻击的门槛,易被黑客侵袭,导致用户隐私泄露,网络安全风险不可避免。政府文件被盗取、信息被泄露的风险加大,政府信息安全得不到保障。如在政务数据开放过程中,攻击者能够依托深度学习、数据挖掘、爬虫等先进技术从分散的数据中挖掘出数据集之间的联系,完成信息拼图,再度识别政务开放数据信息,以及加工和集成非隐私数据信息,从而追溯用户的个人隐私,引发严重的个人隐私和国家安全信息泄露问题。


 ChatGPT在多领域中应用的风险防范对策


针对社会领域中应用ChatGPT存在的风险,本文从以下三个方面提出风险防范对策:


(一)明确ChatGPT的应用边界,完善数据保护法律法规,增强数字素养

在外部规范方面,政府要发挥在政策引导、规则制定、行业监管方面的主导作用,从外部规范的角度为ChatGPT制定伦理标准以及算法伦理的审查制度。首先,需从法律层面尽快建立人工智能法治体系,明确ChatGPT在社会应用中的范围与边界,制定、完善、健全数据收集、存储、使用相关的法律法规,推进数据的分类分级,并规定不同种类数据的保护级别和措施。其次,在内容保护上,保证使用者对数据收集、存储、使用的透明度,并研究出台数据权利保护相关的司法解释和指导性案例,以提升数据权利保护。最后,增强对ChatGPT安全、合规使用的宣传与培训,让使用者意识到人工智能技术的局限性与潜在的法律风险,提升数字素养。


(二)内外并举,提高数据质量与增强个人伦理意识

政府要明确AI算法推荐的伦理准则,确立使用ChatGPT时所需的价值理念与行为规范,进而完善伦理治理相关的框架体系。在训练与维护成本可控范围内,提升数据质量,增强模型对于特定领域专业知识的学习、理解能力,由此输出更为可靠、更具适应性的文本内容,以减少伦理风险隐患。政府可以通过培训与教育普及措施,强化个体的自我规制能力,使个体准确把握自身的职业操守,承担伦理职责。同时,也需帮助个体提升对虚假信息的辨识能力,进而有效抵御潜在的伦理风险。


(三)调整组织架构,强化组织适应性

首先,通过组织整合,增加各部门间的沟通协作,在ChatGPT应用环境下强化组织结构的适应性。其次,面对人工智能可能导致的企业裁员,相关部门应进一步完善《劳动合同法》,从而降低劳动者失业风险,特别是对重大技术革新进行界定、提高技术性经济裁员的经济补偿金、单列技术性经济裁员的条款。同时政府也可以运用税收政策来防范失业风险以及社会风险,并做好失业人员的培训工作,使其掌握人工智能背景下的劳动技能,从而实现再就业。


针对数字政府领域中应用ChatGPT存在的风险,本文从以下四个方面提出风险防范对策:


(一)呼吁多元协作,共建ChatGPT

在ChatGPT应用和发展的过程中,政府可寻求与企业以及其他社会组织协作,进而寻求一种“资源互补、信任互赠、责任共担、治理有效”的多元主体参与的协同治理模式。政府应侧重发挥其公共性、权威性、主导性优势,在法律和战略层面发挥重要作用。企业应利用丰厚的财政资源以及强大的技术能力为应用和进一步发展ChatGPT保驾护航,并妥善化解技术引致的各类难题。公民和社会组织等关键的社会力量更易接触并发现ChatGPT使用中的问题,进而在社会层面发挥关键作用。


(二)明确责任制度安排,多元主体共担风险治理责任

首先,塑造一个健康网络环境的前提是落实主体责任制,秉持谁生成、谁生产、谁负责的理念,ChatGPT的开发者、平台供应商、政府等多元主体共同承担风险。ChatGPT的开发者应对其可能生成的虚假信息负责,平台供应商应对ChatGPT生成的文本内容进行严格把关,以防止虚假信息的扩散,政府等官方机构应当加大监管力度,健全不实言论传播管控相关的法律法规,同时明确对不实言论提供者的惩罚措施,为ChatGPT的健康、良性使用保驾护航。其次,完善ChatGPT生成内容鉴别与处置机制。研究机构可以加大对ChatGPT输出检测器的投资,开发新的检测工具增强对ChatGPT生成的虚假内容的识别,同时也强化对模型训练的监督。


(三)强化内部规约,增加数据源的透明度,提升模型的可靠性

首先,对模型训练数据集的选择进行优化。各相关部门可以通过强化模型内部约束,使用正则化和交叉验证等技术减少过拟合,增强模型的抗攻击性,进而防止隐私数据泄漏。其次,ChatGPT模型需要庞大的语料,各相关部门可以利用海量训练数据集对模型进行优化并予以监测,同时对模型中已知的偏差、内容输出所用的数据集来源保持透明,而增加透明度与可靠性可以降低由此带给使用者的不确定性。最后,ChatGPT模型对标注员的综合素质具有很高的要求,因此,应加强开源人工智能技术的开发和实施,加大专业人才的培养,从人才与技术两个角度强化ChatGPT在应用中的先进性、公开性、安全性。


(四)明确ChatGPT的使用范围,建立ChatGPT标准规范

首先,政府可以制定相关法规和政策,规范ChatGPT在政府应用中的范围和边界,包括对ChatGPT的数据来源、使用场景、应用领域、隐私保护等进行明确的规定和要求。其次,政府可以成立专门的技术审查机构或委员会,对ChatGPT技术进行审查,包括对其算法、数据集、模型训练等方面进行审核,确保其符合国家相关法规和政策的要求。再次,政府可以制定ChatGPT应用的标准和认证机制,对ChatGPT的各项性能指标进行检测和评估,确保ChatGPT的质量和安全性能达到国家标准。在技术监管中,政府定期审核现有的数据隐私和安全措施,以识别和解决任何潜在的缺陷并及时加以改进。最后,政府可以对ChatGPT技术的违规行为进行监管和处罚,例如对非法获取、使用、泄露用户数据的行为进行惩罚,以保障公众的合法权益和利益。(参考文献略)


作者简介

樊博,上海交通大学国际与公共事务学院长聘教授、博士生导师,上海交通大学应急管理学院执行院长,“数字政府40人论坛”创始成员之一。


往期推荐



2023第一届数字政府40人论坛在京顺利召开
发言集锦 | 2023年第一届数字政府40人论坛
优研推荐 | 公共部门中的AI治理、技术革命与国家信息能力建构、大数政治、技术隐性控制与部门纵向扩权

点击关注更多最新数字治理相关信息👇

本期编辑:Jasmine
继续滑动看下一个
数据与治理
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存