“新一代人工智能技术 ChatGPT 的应用与规制” 笔谈
摘要
2022年11月新一代人工智能技术ChatGPT的问世,引起了全球范围的强烈关注,也引发人们对技术带来挑战的忧思。就公共管理而言,以ChatGPT为代表的人工智能技术愈发成为驱动人类社会思维方式、组织架构和运作模式发生根本性变革、全方位重塑的引领力量,为其创新路径、重塑形态、推动发展提供了新的重大机遇。ChatGPT强大的语言处理能力可以极大促进政府组织间信息流通和合作,降低政府行政成本和提升公共管理的效率和效益,为数字政府建设带来了发展的契机,推动数字政府建设如智能化政民互动、智能化公共服务、科学化政府决策等,甚至引发政府的深层次改革。同时,ChatGPT的双刃效应也给公共管理带来巨大冲击和风险,让人们开始关注ChatGPT时代的制度重构与风险规制,思考如何合理管控ChatGPT的应用边界。在传统公共管理强调政府和市场关系的框架下,ChatGPT的运用面临公共价值失灵风险,对此有必要重构人工智能时代的公共价值失灵判断标准,针对其潜在风险提出对策。人类自身的道德问题、人类对高智能体的矛盾心态、公共生活的复杂性,也使ChatGPT为代表的聊天机器人面临道德性夭折的风险,对此应秉持人本主义,构建人工智能时代的价值规范。ChatGPT的应用及发展对劳动力的提质增量可能带来正面或负面的影响,对此应设计科学有效的政策,使人工智能促进社会进步、增进民众福祉,以维护劳动力的可持续发展。
作者简介
于文轩,厦门大学公共事务学院;
马亮,中国人民大学公共管理学院;
王佃利,山东大学政治学与公共管理学院;
韩志明,上海交通大学国际与公共事务学院、中国城市治理研究院;
谢新水,首都师范大学管理学院;
叶林,中山大学中国公共管理研究中心、政治与公共事务管理学院;
文宏,华南理工大学公共管理学院、社会治理研究中心。
文章结构
ChatGPT与公共管理-于文轩
一、人工智能的发展与ChatGPT
二、ChatGPT对公共管理的影响
新一代人工智能技术会带来数字政府革命吗?-马亮
一、ChatGPT对数字政府意味着什么?
二、从ChatGPT到GovGPT
(一)智能时代的政民互动
(二)公共服务的智能化
(三)政府决策的科学化
(四)政府重塑与再造
三、从数字政府到智能政府
从数字孪生到机器学习:公共价值失灵视角下的ChatGPT-王佃利
一、数字技术中“人-机”关系:从数字孪生到机器学习
二、ChatGPT的风险识别:基于公共价值失灵的诊断框架
三、ChatGPT的双刃效应:社会进步与公共价值失灵
四、如何应对ChatGPT带来的风险?
切近公共管理的真实世界——兼论ChatGPT的不可能性-韩志明
一、ChatGPT发展对公共管理的挑战
二、公共管理实践及其理论的混沌性
三、拓展公共管理世界的可言说性
祸从口出:聊天机器人的道德性“夭折”与ChatGPT的未来-谢新水
一、ChatGPT的社会关注点是什么
二、聊天机器人道德性“夭折”的缘由
三、ChatGPT可能在“对话”中死亡吗
四、结语
人工智能时代的整体劳动力可持续问题——基于ChatGPT的思考-叶林
ChatGPT时代的制度重构与风险规制-文宏
一、现实情境:ChatGPT时代的机遇与挑战
二、潜在风险:ChatGPT亟待解决的发展困境
三、未来路径:ChatGPT潜在风险的治理之策
于文轩
ChatGPT与公共管理
基于自生成大语言模型的ChatGPT突破性地解决了传统人工智能程序的多项短板,展示了超强的通用人工智能和自然语言处理的能力,成为人工智能领域中的新技术突破。ChatGPT的出现把公共管理领域对数字治理和技术赋能的讨论推向了另一个方向,使得现有的讨论都需要进行更新和重新思考。
一、人工智能的发展与ChatGPT
探讨ChatGPT对公共管理的影响,首先需要理解ChatGPT是什么和它的出现对人工智能发展的意义。人类自有文明以来,就开始了对创造有智能非人之物的想象。从古埃及的狮身人面像,到中国神话里的哪吒都体现了人类的这种梦想。现代科学对人工智能的研究开始于20世纪50年代,公共管理学巨擎也是现代人工智能先驱Herbert A.Simon和他的朋友Allen Newell于1955年推出了首个人工智能程序“Logic Theorist”,这个程序可以证明52个数学定理中的38个,而且可以为一些定理找到新的和更精致的证明。1956年在达特茅斯会议上,美国计算机科学家John McCarthy首先采用了“Artificial Intelligence”(人工智能)这个词,人工智能开始真正成为一个研究领域。人工智能研究一时风头无两,兴旺发达。1974年到1980年,人工智能研究遭遇了第一个低谷,人工智能技术没有达到人们的预期,政府和公众都对人工智能技术的发展丧失了信心。1980年代“专家系统”的出现,让人们重新燃起了对人工智能技术的希望。但是很快“专家系统”走入了死胡同,人工智能技术进入了第二个低谷期。2011年人工智能技术发展进入了深度学习、大数据和通用人工智能时代。2011年IBM的Waston可以理解自然语言,并且可以解决复杂问题和猜谜。2014年,对话机器人“Eugene Goostman”通过了“图灵”测试。2018年IBM的“Porject Debater”开始和人进行辩论,表现的非常出色。谷歌、脸书、IBM、亚马逊、微软都加入了战局,开发自己的人工智能项目和产品。
2022年11月,OpenAI发布ChatGPT,颠覆了以往我们对人工智能的传统看法,ChatGPT以来的自生成大语言模型代表了人工智能领域的最新成果和发展方向。ChatGPT是以GPT为基础的人机对话应用。GPT是指Generative Pre-trained Transformer(GPT),是一种基于互联网可用数据训练的文本生成深度学习模型。其中Transformer是由谷歌提出的的一种新型神经网络架构,将注意力机制引入到模型内部。在这个模型中每一个概念都是一个有着多个参数的向量,Transformer通过引入多头注意力机制高效地解决了模型参数过大导致运算效率低下的问题,成为GPT强大语言模型的基础。GPT就是通过Transformer,把预训练和微调体系引入自然语言处理的过程中,开启了通用语言模型的新时代时代。
经过GPT和GPT-2两个版本的迭代和发展,第三代GPT-3的参数达到了1750亿个。GPT-3的一个重大突破是采用了上下文学习的机器学习新方式。这种方式使得算法可以在学习和识别上下文中重复出现的模式来进行预测,在大量训练后产生了元学习的能力,通过少量的样本就可以产生高质量的答案。为了解GPT-3生成内容不可控的问题和潜在的伦理问题,OpenAI发展出了InstructGPT,采用人类反馈的强化学习的方式,在人类标记过的答案学习人类的偏好。ChatGPT以GPT-3.5模型为基础,引入了InstructGPT的训练方法,展现了惊人的自然语言理解和沟通能力和通用能力。
ChatGPT底层依赖的GPT技术和InstructGPT代表了人工智能技术发展的最新成果,是语言学和计算机科学多学科交叉完美结合的产物。其实质就是通过模拟人学习语言和发展知识的方式,通过和真实人的互动和纠错,在没有任何标记的大型数据集上进行无监督预训练,发展自己的语言处理能力,这之后可以接受人类语言的指令,使用人类语言进行回答。
ChatGPT实现了人工智能技术从“智障”到“智能”的转变。和以往人工智能技术相比,ChatGPT可以进行持续对话,可以记忆之前的任务,可以对生成的内容进行伦理审查,可以产出跨领域的通用的高质量的通用文本。尽管现在ChatGPT还存在一些问题,比如只能反映2021年以前的信息,生成内容还不可靠和文本内容空洞等问题,但是这些都是由于ChatGPT使用的是2021年之前的封闭数据库,人类反馈的强化学习规模比较小和模型参数和算力还有进一步提升。这些问题随着ChatGPT接入互联网和大规模投入商业使用都很容易和很快的得到解决。
ChatGPT的出现打开了“强人工智能”潘多拉之盒。人类智慧的获得正是通过自然语言习得的。按照后现代主义的观点,语言就是客观现实。语言不仅仅是信息传播的工具,语言构建现实,就是现实本身。通过对人类语言习得过程的无限逼近,ChatGPT在通用人工智能发展上取得了重大突破。由于ChatGPT的无监督学习机制和其算法的“黑箱”属性,ChatGPT到底能发展到什么程度,还是未知数。但是ChatGPT已经展示出的文本生成能力,代码编写能力和自然语言对话能力,已经给经济、教育、社会带来了颠覆性的影响。已经有研究表明ChatGPT已经开始发展出情感,ChatGPT开始具有三维作画的能力。科学家也在开始探索在触觉和嗅觉等高维领域人工智能发展的潜力。按照逻辑实证主义的世界观,这一切都是可能的,特别是在谷歌和马斯克实现了量子计算机的技术突破和互联网海量数据的加持之下。算法,算力和数据的跨时代突破,使得ChatGPT发展出强人工智能指日可待。
二、ChatGPT对公共管理的影响
ChatGPT技术的发展对政府的公共管理产生了巨大的正面和负面的影响冲击。ChatGPT强大的通用性、对信息进行综合和推理的能力以及自然语言对话能力可以极大的提升政府的响应性,成为政府与民众进行沟通的智能界面。ChatGPT可以高效整合政府公开的信息,快速准确回复公众对政务信息的需求,极大的节省了政府清洗、汇总和汇报政府信息的成本。ChatGPT更可以对公众需求的大数据进行抓取和分析,为政府决策高效提供公众需求信息,在问题识别和分析上超越人的局限,提高公共政策制定的能力和水平,进行精准的公共服务提供。
ChatGPT超强的文本分析和内容自主生成能力,完全可以胜任政府内部公文写作、会计、财务分析和审计等程式化和模块化的工作。ChatGPT超强的数据分析和预测的能力可以极大解决传统跨政府部门信息标准不一,信息通用性差等影响政府协作和整体性政府建设的老大难问题,极大的精简政府规模,扁平化政府组织结构,促进组织间信息流通和合作,极大降低政府行政成本和提升公共管理的效率和效益。
在带来正面影响的同时,ChatGPT也给政府管理带来巨大的风险和隐患。ChatGPT超强的信息汇总、整理和分析的能力使得传统的政府以密级对政府信息进行保密的形式失效。通过对海量信息的分析,ChatGPT可以通过从各种信息源获得的看似不需要保密的信息进行整理、综合比对,发现传统人工分析无法发现的政府机密。ChatGPT还可以被不法分子恶意使用,对公共服务电子平台的登陆界面进行攻击,传统的防止机器人撞库攻击的机制在ChatGPT面前不堪一击。ChatGPT超强的编程能力,可以极大降低编写软件的成本和提升犯罪份子的编程能力,可以协助犯罪分子生成木马程序或密码破解程序对城市电子信息平台和城市基础设施网络进行攻击。尽管ChatGPT具有一定的自我伦理纠正机制,但是犯罪分子仍然可以通过误导性提问,使用ChatGPT产生对社会有害的信息,直接和间接影响社会舆论,激化社会矛盾。
从更宏观的角度上看,以ChatGPT为代表的新一代人工智能技术的发展,会极大改变政府与企业之间的力量平衡和国家与国家之间的力量的对比与平衡。首先掌握先进人工智能技术和左右人工智能技术发展的是资本驱动的巨无霸科技企业。不管在人才、知识和技术能力上,政府都无法和这些超大规模巨无霸科技企业相提并论,政府对这些超大规模巨无霸科技企业的监管力不从心。政府作为公共利益的代表,其公共政策的议程设定,政策设计和执行,都有被大资本支持的高科技企业控制和左右的风险和可能。此外,通用人工智能依赖的大语言模型,拥有海量参数,需要使用海量数据进行测试和学习,这需要天文数字的算力和能源消耗,这不仅仅使得技术向少数大企业集中,更给发展中国家和发达国家带来不可估量的巨大的人工智能技术鸿沟。ChatGPT为代表的大语言模型需要庞大的算力,需要大规模的最先进计算机芯片的支持,美国对中国的计算机技术和先进芯片生产和制造技术的封堵,会极大影响中国人工智能技术的发展。在人工智能飞速发展,即将取得破坏式技术创新的关键时刻,这样的政策对于加剧两国科技实力、产业实力和经济发展实力上的差距具有根本影响。此外更为严重的是大语言模型依赖的海量数据语料库以英语为主,这对非英语国家人工智能技术发展极为不利。最为严重的是ChatGPT并不是价值中立的,ChatGPT使用的语料库和人工反馈和训练是以英语国家主流价值观为基础的,已经有研究表明,ChatGPT确实不是政治中立的,反映出了相当强的西方自由主义价值观。这对非西方国家的政治意识形态和文化传统形态都会产生巨大的负面影响。
ChatGPT在当前应用中出现的一些问题也使人低估了ChatGPT发展的潜力。未来要出现的ChatGPT4.0在模型参数和算力上会带来巨大飞跃,ChatGPT与互联网数据的连接,以及ChatGPT API接口的开放带来的爆炸式的人工智能创造的内容的出现,对人类知识的积累和发展也会带来不可预料的前所未有的结果。
当前人们基于以往科技革命变化带来的对劳动就业和劳动力市场的变化,以及可能产生的对经济和社会发展影响的看法,在ChatGPT带来的强人工智能面前很有可能都是错误的。传统上人们认为科技革命带来的科技进步只能带来短期人力资源结构上的调整,不会带来大规模失业和由此引发严重的政治、经济和社会问题。但ChatGPT可能带来的冲击,目前还无法预测。人工智能技术指数级的快速发展,大大加剧了这一冲击的不确定性和风险。
尽管科技领袖马斯克多次警告接入互联网的ChatGPT给人类带来的潜在的威胁和人工智能技术对人类发展的巨大威胁,也有新闻媒体开始报道接入互联网的ChatGPT已经开始产生反人类的想法和言论,ChatGPT的算法黑箱和政府对其进行监管的难度,使得任何试图阻止和改变人工智能技术发展方向努力终究都是徒劳。人类在监管和控制技术的过程中,也在人工智能技术如何影响人性和人的社会关系与互动,都是很大的未知。这给政府公共管理带来了巨大的未知和不确定性。不论如何,“预则立,不预则废”是中华民族千百年来历经苦难而保持强大韧性的传统智慧。
马亮
新一代人工智能技术会带来数字政府革命吗?
一、ChatGPT对数字政府意味着什么?
最近一段时间,美国人工智能(AI)企业OpenAI开发的ChatGPT成为社会热议的现象级话题,也引发我们对其应用前景的思考。ChatGPT达到了史无前例的AI高度,使人们担心它对众多行业、就业和监管的广泛影响。ChatGPT之所以引起广泛关注,就在于它的智能水平远超此前的技术,且显示出无所不能的超强能力。无论是搜索和翻译信息还是生成各类文章,亦或是编写程序或纠错,它的通用本领显示出了令人生畏的广度和高度。
以ChatGPT为代表的新一代AI技术新在哪里?ChatGPT是通用型AI,而不是专用型AI。虽然公众认为ChatGPT是聊天机器人,但是它不光会聊天。ChatGPT意味着AI领域的重大工程创新,是数据、算力与算法的集大成。ChatGPT所具备的强大人机交互能力,同其使用的大语言模型有关。很多专家预测,ChatGPT代表AI的未来,实现AI即平台,并有望成为未来的操作系统、基础设施、终端入口等。与此同时,以ChatGPT为代表的新一代AI技术可能实现人机界面的交互革命,并会重新定义一切与人机交互有关的技术。更为重要的是,这还只是刚刚开始,未来还有更大的畅想空间。
以ChatGPT为代表的新一代AI技术可以说是划时代的技术变革,如果说过去的AI是智能式傻瓜(看着智能,实则傻瓜)的话,那么新一代AI则是傻瓜式智能(人人可用,几乎没有专业门槛,而且非常聪明)。这使以ChatGPT为代表的新一代AI技术成为让人类惧怕的机器人,并会取代和超越脑力劳动。AI专家预测到2045年将迎来技术奇点,即技术会赶超人类智慧,而这可能因为ChatGPT这样的技术进步而提前到来。展望未来,以ChatGPT为代表的新一代AI技术将会无所不在、无所不知、无所不能。当前我们处在技术革命的前夜,可以有巨大的想象空间。这既是意味着非常广泛的应用前景,也可能会带来令人生畏的范式重构。
ChatGPT是AI技术发展前沿,将对数字政府建设提出哪些新要求和新挑战,又会带来哪些新思维和新机遇?数字政府是政府部门运用各类数字技术来改进政府管理和公共服务,推动政府的经济调节、市场监管、公共服务、社会管理、生态环境保护、政务运行、政务公开等方面的所有职能环节实现数字化转型。2022年6月23日,国务院发布《国务院关于加强数字政府建设的指导意见》(以下简称《指导意见》),提出构建数字化、智能化的政府运行新形态,将数字技术广泛应用于政府管理服务,推进政府治理流程优化、模式创新和履职能力提升。2023年2月27日,中共中央、国务院印发《数字中国建设整体布局规划》,提出发展高效协同的数字政务,加快制度规则创新,强化数字化能力建设,提升数字化服务水平,到2025年政务数字化智能化水平明显提升。
《指导意见》指出,数字政府建设要求构建五大体系,包括:协同高效的政府数字化履职能力体系、数字政府全方位安全保障体系、科学规范的数字政府建设制度规则体系、开放共享的数据资源体系、智能集约的平台支撑体系。与此同时,要以数字政府建设全面引领驱动数字化发展,将对数字科技、数字经济、数字社会、数字生态都会产生强有力的引领作用,并带动数字中国建设加速推进。
数字政府建设经历了政府1.0、政府2.0和政府3.0,而ChatGPT这样的AI技术会使政府3.0真正实现。政府1.0主要是个人计算机和第一代互联网技术的应用,而政府2.0则是移动互联网和社交媒体的产物,政府3.0是以大数据和AI为代表的新一代信息技术应用的结果。ChatGPT令人眼前一亮,因为政府3.0在其帮助下会加速实现。
二、从ChatGPT到GovGPT
AI技术在政府部门和公共管理中的应用已经受到广泛关注,但是ChatGPT的崛起则为我们重新思考数字政府建设方向提供了可能。和此前的AI技术相比,ChatGPT的优势十分明显,也为数字政府建设带来了全新发展契机。特别是ChatGPT擅长的人机交互、语言理解和生成、计算机编程等能力,都会为数字政府建设提供无限想象的巨大空间。从数字政府建设的主要领域和应用场景来看,ChatGPT可能会带来许多令人期待的影响。新一代AI技术会带来数字政府革命吗?借用ChatGPT,笔者发明“GovGPT”一词,指类似于ChatGPT这样的新一代AI技术在数字政府建设和运营中的应用。
(一)智能时代的政民互动
ChatGPT作为一款聊天机器人,可以让政府和民众之间的沟通交流更加顺畅,大大提升政民互动体验。以ChatGPT为代表的新一代AI技术会使政府与公民的互动过程实现重构,并推动人机界面、人与人的界面发生深刻变革。
公民企业在同政府工作人员打交道的过程中,往往感到力不从心、身心俱疲。无论是通过搜索引擎获取政府办事入口,还是拨打政务热线寻求帮助,亦或是在政府网站或政务APP查询信息,人们往往会遭遇难题,服务体验也不尽如人意。
当前无论是商业搜索引擎还是政府网站或政务APP内置的搜索引擎,都存在找不到、搜不准的问题。政务热线也普遍存在打不通、乱派单、答不准、智能客服不智能等局限。人们往往不知道该找哪个政府部门办事,具体应该寻求谁的帮助,以及需要准备什么材料。ChatGPT所承载的强大语言理解和生成能力,将会对政民互动带来全方位的深层次冲击,使政民互动体验实质性改善。从哪里获取信息,怎么找政府办事,这些老大难问题将迎刃而解,使公民企业可以轻装前进,更加轻松自如地和政府打交道。
行政负担是人们在和政府打交道的过程中所承担的各类成本,也直接决定了人们与政府沟通的体验如何。在行政负担中,学习成本是前置成本,决定了后续的合规成本,也会影响心理成本。ChatGPT这样的AI技术将有助于显著降低人们的学习成本,使人们可以更容易地获取、理解和掌握政府办事流程。行政负担中的学习成本降低了,就会避免办事无门、沟通无路、咨询无人等问题。
当然,ChatGPT的复杂推理能力很强,但是还无法达到人类的情感能力,这可能会影响公众与政府的交互体验。相对来说,人是情感动物,人与人之间的交互更加被人所接受。这是ChatGPT目前还难以具备的共情和同理能力,哪怕尝试也往往是拙劣和让人忍俊不禁的。不过,从公众办成事、办好事的角度来看,ChatGPT应用带来的政务服务体验改善,必将会远超其他既有做法取得的效果。
(二)公共服务的智能化
在政务服务和公共服务领域,ChatGPT会推进各类服务的智能化、精准化和定制化,大幅提升民众的服务满意度。ChatGPT是一种通用型AI技术,未来有望成为万物互联的接入平台、操作系统或基础设施。基于ChatGPT可以建构和优化一系列服务,并使这些服务之间达到互联互通。
目前各个政府部门提供的服务是相互割裂的,没有从一个完整的人或家庭出发来提供服务,也没有从企业全生命周期进行规划。人们对公共服务的需求是多元的,但是往往得不到政府部门的及时发现、精准识别和定制化满足。新一代AI技术将推动各类政务服务和公共服务的变化,促进公共服务朝着智能化、定制化、交互性等方面发展,使人们对公共服务的满意度持续提升。
ChatGPT如果能够用于公共服务体系建设,全方位获取用户的需求和偏好,将会更好地识别和满足人们的需要,并使公共服务的供给和需求之间真正实现双向交互。基于ChatGPT而开发的公共服务响应系统,能够为每个人和企业建立数字帐户,基于人们的需要来提醒、部署和调度相关部门提供服务。政府决策涉及海量数据的汇聚和决策算法的优化,但是目前很多政府部门还缺乏这些能力。
(三)政府决策的科学化
ChatGPT也会让政府的政策决策更加科学,减少“拍脑袋”决策带来的负面影响。不少ChatGPT的应用将可以使基于大数据的政府智能决策成为可能,并带来政府决策的智能化加速推进。
为ChatGPT提供决策相关的各类数据,并界定决策的预期目标和限定条件,就可以获得多种可供选择的政策方案。虽然ChatGPT的创造力不被看好,但是它在信息加工重组方面的能力超群,有可能提出决策者未曾想到的政策方案,并为政策创新带来契机。
(四)政府重塑与再造
以ChatGPT为代表的AI技术的发展和应用,将会推动数字政府建设,并引发政府的深层次改革。ChatGPT的引入,会让政府的组织结构、业务流程和人员安排等方面发生显著改变。与此同时,这些技术会推动政府自身的全方位改变,减少政府人员规模,推动组织结构(层级、部门、系统)变革,加快政府业务流程再造,并带动政府绩效的多维度提升。从政府运行和政务处理来看,ChatGPT可以让公务员和公职人员更加轻松高效地履职。特别是在各类应用文起草方面,ChatGPT能够发挥优异的辅助功能,使政府工作人员从繁重的文稿准备工作中解放出来。ChatGPT拥有强大的信息搜索和加工合成能力,可以为政府部门的文书准备提供强力支持,快速生成政府工作人员指定的相关文书。
实际上,很多政府文件都是相互借鉴的产物,正所谓“天下文件一大抄”。政府创新往往是模仿或学习的产物,要鼓励各地政府相互学习,让好的政策在更大范围复制推广。ChatGPT完全可以胜任公文起草工作,并可以根据特定政府部门的特色和风格来定制化准备。当然,反过来说,如果领导干部不希望使用ChatGPT准备的文件,那么就需要引入必要的技术进行检测,避免导致意想不到的尴尬。
和其他颠覆性科技一样,ChatGPT会带来机器换人的风险,替代很多工作岗位,并让这些岗位上的人不得不转岗或离职。在ChatGPT的冲击下,政务大厅、政务热线、检查执法部门等都可能逐步减少人员聘用,并持续降低组织规模乃至关门大吉。与此同时,ChatGPT意味着未来政府工作的人机协同,公务员考试也需要转变对公务员素质的考察方向和方式,更多关注和培养人机协同能力。
ChatGPT作为颠覆性科技,会带来政府组织形态、结构和流程的巨变。在ChatGPT这样的技术推动下,未来政府的规模会更小,机构设置更少,组织结构更扁平,政府运行成本也会下降。目前这些预期还没有因为数字政府建设而实现,但是ChatGPT这样的AI技术进步,可能会为实现这些预期提供更多信心。
三、从数字政府到智能政府
面对新一代AI技术的期许,我们可以肆意畅想,但是它们能够实现吗?从过往的技术应用来看,我们都有几乎同样的期望,但是也都遭遇了几乎同样的失望。比如,社交媒体意味着开放透明、双向互动和平等对话,但是却并没有让政府更加双向互动,反而导致政务社交媒体的发展越来越封闭。再如,大数据被寄予让政府变得更智能全能的厚望,但是却并没有让智能决策实现。
为什么技术革命并没有导致治理变革?技术不是万能的,但是技术不行是万万不能的。值得注意的是,前沿技术未必带来前沿治理,而先进技术也未必导致先进政府。将ChatGPT为代表的新一代AI技术引入数字政府建设,会面临技术壁垒与制度壁垒的双重挑战。比如,在数字政府建设中可以使用ChatGPT吗?如何加以使用?在中美科技竞赛的背景下,我国能否引入ChatGPT?特别在从通用型AI到专用型AI的转换过程中,需要从宽广的技术基础走向深入的技术应用,而这会提出一系列挑战。
与此同时,政府会怎样使用ChatGPT?在数字政府建设中,会出现以政府意志为转移的技术利用,这可能固化官僚制的惯性与惰性,并导致选择性使用带来的技术盲区。因此,在从ChatGPT到GovGPT的发展中,我们需要实现“电子政务→数字政府→智能政府”的“三级跳”。技术革命的领先与制度变革的滞后同时存在,使我们特别需要反思如何实现技术与制度的和弦共振和携手共进。
新技术使智能政府成为可能,但是智能政府能否成为可能,则不取决于AI技术,而取决于政府自身。当政府可以变革而不去变革时,社会如何推动政府变革?一方面,这有赖于政府之间的竞争与学习;另一方面,则有赖于公民与企业的用手投票与用脚投票,推动数字政府向纵深发展。“你永远无法叫醒一个装睡的人”,但是在技术的帮助下你可以知道他在装睡并叫醒他,甚至解除他的垄断并摆脱对他的依赖。
当然,任何技术都有两面性,既可以向善行善,也可能作恶多端。ChatGPT的善用能够使数字政府建设事半功倍,而其滥用则会带来数字政府的危机。在政府运行管理的哪些领域使用ChatGPT,如何设定ChatGPT的应用边界,怎样加强对ChatGPT技术的审查,都会是未来数字政府建设需要关注和提前准备的议题。
王佃利
从数字孪生到机器学习:公共价值失灵视角下的ChatGPT
2022年12月,由OPEANAI公司开发的ChatGPT横空出世。这款具有超强能力的人工智能产品一时间风靡全球,引发了世界范围的关注和对其利弊的讨论。这些社会现象的背后究竟蕴藏着什么逻辑?发现事物的本质,然后更好地解决问题,是学术界应对ChatGPT的首要任务。从数字技术角度切入,认识ChatGPT的诞生,有助于梳理人和机器间变动不居的关系。将这一问题放在公共管理的基本理论——公共价值失灵理论视野下进行讨论,发现公共强调政府和市场关系的公共价值失灵框架无法涵盖人工智能技术的评价要点。因此,有必要重构人工智能时代的公共价值失灵判断标准,以此为依据进一步认识ChatGPT或已经显露,或尚在隐藏的优劣,进而思考ChatGPT出现后公共管理在公共问题认定和公共价值聚合方面的可行策略,针对其潜在的公共价值失灵风险提出对策。
一、数字技术中“人-机”关系:从数字孪生到机器学习
长期以来,在社会科学领域谈论较多的是人与人的关系。而ChatGPT的诞生让我们不得不开始思考人与机器之间的关系,尤其是以ChatGPT为代表的新一代人工智能技术和人的关系。学术界对于人机关系已经有了丰富的研究,其中数字孪生和机器学习就代表了两种不同的态度。
数字孪生的基本理念是通过对现实世界的数字化表达建构出与实体社会一模一样的平台即数字孪生体,将社会问题在虚拟空间中模拟出来,形成清晰、有序的镜像。因此,数字孪生世界尽管是虚拟的,但与现实世界是一一对应。当前,数字孪生技术在中国城市管理中得到广泛应用,并得到了业界和政府的广泛认同。数字孪生城市所秉持的基本理念,就是当面对真实的世界时,通过技术由实入虚、建构虚拟的城市,进行分析和判断,观察其基本的运行,进而形成管理决策,进而形成对现实世界的操控和管理,实现以虚控实的基本理念。数字孪生技术所印证的管理理念,是人能够通过数字技术实现对现实世界的真实管理控制。可以看到,人们对于数字孪生技术的态度更多的是认同和支持。但当谈论人工智能技术中的机器学习、深度学习、神经网络时,我们会发现此时人们的态度产生了分化,有赞同,也不缺少批评和质疑。从人工智能在内容生产的发展过程来看,其经历了从专家生产内容模式(PGC),到用户生成内容模式(UGC),再到现在的AI生产内容模式(AIGC)。这些模式不断迭代升级,使机器学习的功能得以强化,甚至可能超越人类的思考,这也改变了人机关系,使人与机器的边界变得模糊。ChatGPT就是很好的例证,它搭载了AIGC的模型,成为新一代人工智能技术的代表。其所具备的数字孪生功能,体现了现实世界与虚拟世界的映射;数字内容的智慧编辑,打通了现实世界与虚拟世界交互通道;数字内容智慧创作展现给世界,让我们认识到人工智能能够创造出现实世界不存在的内容。
ChatGPT的问世,带来了什么?它能实现自动写代码、写论文等内容生产,也能即时学习新知识并创新性应用,实现人机自由交互,与人连续对话......可以说是ChatGPT站在了当前人工智能产业链的顶端。基于这些强大的功能,当ChatGPT面世时,也产生了一边爆火,一边抵制的怪象。“爆火”指的是引发了科技界的欢迎,人工智能产业链上下游玩家百花齐放,引领了新技术的发展浪潮。但在社会层面,人们已经察觉这种新技术带来的很可能是“破坏性创新”,引起了人们的不安情绪。教育界和学术界已经讨论了人类将来被ChatGPT等人工智能产品取代的风险。当下人们对它的关注实际上一部分源于恐惧心理,那人们究竟害怕的是什么呢?
二、ChatGPT的风险识别:基于公共价值失灵的诊断框架
人们对ChatGPT的担忧,可以认为是由新型人工智能技术存在公共价值失灵而引发的。换言之,新一代人工智能技术的诞生可能会造成社会秩序的混乱,导致公共价值难以实现。公共价值理论强调公共性和公共参与。因此,公共价值的识别不仅仅是政府官员所制定的利民政策和公共服务的使用者或生产者的个人偏好的提升,它更涉及到价值递送,需要政府与利益相关者共同协商制定。波兹曼(Bozeeman)提出了公共价值失灵模型,他认为政府不仅要在市场失灵时进行干预,在市场不失灵但公共价值受到损害时也要进行干预,并指出公共价值失灵不是一个基于成本—利益分析的政策制定工具,而是一个聚合公共价值,促进公共价值和经济价值协商的框架。如果核心公共价值由于政策制定过程中的缺陷而被限制,或者没有足够的手段确保核心价值观的衔接和有效的沟通,或者由于聚合价值的过程出现扭曲,那么公共价值失灵就有可能产生。他提出了公共价值失灵的八个判断标准,为判断ChatGPT公共价值失灵提供了理论基础,其中ChatGPT所符合的标准包括:价值表达与聚合不足、不完全垄断、公共信息不完整、短视效应、威胁人权与尊严。
但这些标准无法完整地概括人工智能可能存在的公共价值失灵现象。因此,有必要在波兹曼公共价值失灵理论的基础上,重新构建人工智能时代的公共价值标准,识别人类对于ChatGPT批判的来源。我们认为,重构后的公共价值失灵诊断标准包括:技术伦理挑战、公共利益认定困难、社会秩序混乱、市场秩序紊乱、价值表达失语五个维度,具体展示如下图。
三、ChatGPT的双刃效应:社会进步与公共价值失灵
ChatGPT伴生了新一轮的科技革命和产业变革,以其为代表的人工智能技术愈发成为驱动人类社会思维方式、组织架构和运作模式发生根本性变革、全方位重塑的引领力量,为我们创新路径、重塑形态、推动发展提供了新的重大机遇,也带来了新的挑战。依据我们提出的公共价值失灵诊断框架,我们进一步讨论ChatGPT可能存在的双刃效应。
一方面,可以预见ChatGPT将推动整个人工智能产业的发展。国外的AIGC产业巨头竞争正值激烈,国内的百度也在2023年2月7日发布了AIGC产品“文心一言”,随后大众日报和半岛都市报先后宣布接入百度的“文心一言”。在学术界,已有学者讨论了ChatGPT的积极影响,肯定了其对将来社会发展带来的价值。生成型人工智能应用在教学中,让知识更容易、快速被学生理解,将对教育和学习方式产生深远影响。教育工作者也可以利用这一强大的工具来提高教学效率和质量。又如,人工智能技术将推动数字政府建设。ChatGPT的崛起为人们重新思考数字政府建设方向提供了可能。和此前的人工智能技术相比,ChatGPT的优势十分明显,也为数字政府建设带来了全新的发展契机。如改善政务服务体验,政府决策的智能化加速推进等。但是,ChatGPT仍无法避免公共价值失灵,其主要表现如下。
在技术伦理挑战方面,存在技术滥用、技术黑箱、制造虚假信息的风险。人工智能技术根植于算法,算法背后隐藏的“技术黑箱”是其伦理风险产生的根本。一旦技术因假设误导而做出错误的道德决策,风险便随之而来,威胁人类社会信息安全,甚至超出人类的控制范围。
在公共利益认定困难方面,存在侵犯公民个人信息和挑战人性尊严的问题。个人隐私信息在人工智能数据挖掘过程中无所遁形,大规模隐私泄露已经成为事实,造成侵权或其他负面影响。在政治活动,技术背后的政治偏向将导致政治引导偏误,甚至以出现以技术操纵舆论民意的局面。因此,在人工智能技术新时代之下,公共利益和价值何在?也是我们面临的困境。
在社会秩序混乱方面,可能存在着威胁社会安全、传播虚假信息风险、成为网络犯罪的工具、责任缺失、政治操控风险。把技术治理作为机械式的应用工具将脱离道德伦理。技术的入侵性和约束性增加了社会风险和意外后果,而技术对效率的纯粹性依赖则增大了“反治理”风险。甚至可能是一些别有用心制造出来的虚假信息将模糊公共领域中“事实”与“意见”之间的界限,甚至通过“算法歧视”导致有偏见的结论,通过网络广为散播,影响社会稳定和世界安全。
在市场秩序紊乱方面,可能产生行业垄断、知识产权风险。过去,互联网在公共价值和市场价值维度均具有正面效应,社会公众得到信息资源和信息技术使用的益处,同时创造了巨大的市场机遇和市场价值。但人工智能技术的革新,使我们不得不面对技术被资本所垄断,造成利益囤积的问题,使后来进入市场的其他互联网企业囿于不公平竞争的行业环境。
在价值表达失灵方面,造成短期功利主义、长远公共价值失灵、公众话语缺失、破坏性创新、破坏公正、公平、包容、民主的价值体系。人工智能将会对现行教育制度带来巨大的冲击,“拿来主义”思想会扼杀学生的好奇心和想象力,导致更多的抄袭、复制,造成颠覆性创新、革命性创新的缺乏。试想一下,如果急于求成的心态、成王败寇的价值观被广为散播,对社会价值体系将产生什么影响?在人工技术的强势占领互联网话语之下,公民是否还有表达各种声音和观点的途径?即使可以表达,之后又是否会被海量的数据淹没和吞噬?
四、如何应对ChatGPT带来的风险?
尽管以ChatGPT为代表的新一代人工智能技术尚待发展和完善中,但是其可能存在的公共价值失灵困境却不容忽视。不论哪个价值标准出现问题,都会对人类造成极大的影响。为了提前规避这种风险的可能,可以从以下几方面入手:
第一,秉持人本主义,追求人工智能时代的价值规范。人工智能的使用与发展始终围绕和服务着人类需求,更好地处理社会关系,进行社会实践等目标。ChatGPT和其他生成人工智能模型虽然具有强大的功能体系,但它们始终只是配合和支持人类的工具,无法取代人类。重要的是我们如何负责任地使用这些工具,在人机边界日益模糊的现状下实现人机共生与虚实共生,最终促进人类和社会的全面自由发展。
第二,强化政府责任,提前布局,出台应对的公共政策。政府有责任维护社会秩序稳定,因此国家应当提前布局,制定发展规划和应对措施,将ChatGPT的算法规则、技术伦理、国家安全、商业秘密、个人隐私等纳入法治监管体系,及时制定出台监管规则和实施细则,降低社会冲突,减少社会影响的途径。
第三,社会多方合作规制,建构人工智能时代的社会秩序。立足道德现实,从公共价值标准以及人与人工智能关系维度,设计出新时代人工智能公共价值标准,以政府为核心,吸纳企业、研究机构、公众等主体共同参与破解人工智能技术公共价值风险的决策,从社会层面对人工智能技术的发展和使用进行规范。
第四,优化技术应用,通过智能监管来降低工具主义风险。在技术上对人工智能做出价值规范和正向规约,充分发挥人工智能的技术效用。加强人工智能技术开发者、设计者的责任意识教育,使其接受并使用正确的价值伦理判断,确保人工智能模型具有辨别善恶的伦理能力,能够处理好人、技术、自然与社会的关系的能力,并依靠人工智能监督人工智能,保证人工智能技术的安全有效运行。
韩志明
切近公共管理的真实世界——兼论ChatGPT的不可能性
2022年底,ChatGPT闪亮出场,举世瞩目,表现惊艳,迅速出圈,惊涛拍岸,再次引爆了人们对人工智能的强烈关注,也引发了对于技术带来的挑战的忧思。ChatGPT具有强大的数据分析能力、信息整合能力和语言处理能力,对社会各个领域都可能会带来颠覆性的冲击。ChatGPT与公共管理的不断交融,将会给理论与实践带来什么样的影响,会将政府治理及其理论研究引向何方,这些都是值得思考的全新命题。公共管理是关于公共生活的科学与艺术,是人为中心的管理和服务过程,充斥着欲望、权力和利益以及价值,也包含了错综复杂的合作与冲突,很多东西都不能以数据的形式得到呈现,因而也完全是固定的算法模型所能感知和处理的。在人工智能方兴未艾的年代,公共管理需要从容应对ChatGPT的挑战,也需要更加深入地切近公共管理的真实世界,为良善美好的公共生活提供知识和智慧。
一、ChatGPT发展对公共管理的挑战
早在1950年,计算机之父图灵提出了一个经典设想,“机器能否像人类一样进行思考?”他对机器拟人化发展的构想为计算机科学奠定了此后近百年的发展长路。1956年夏天,国达特茅斯学院举行了历史上第一次人工智能研讨会,被认为是人工智能技术诞生的标志,开启了人类长期致力于探索机器对人类进行模仿、学习和超越的探索之旅。2016年,AlphaGo击败九段棋手李世石,让人类看到了人工智能所蕴含的巨大发展潜力,也激发了人工智能技术的发掘和探索。人工智能持续发展,在组织管理、机械制造、医疗健康、交通运输等领域都得到广泛的应用,不仅推动了其他科学技术领域的巨大变革,也深刻影响了经济活动的组织方式,改造了人的生活方式,推动了社会的进步,展现出技术全面赋能生产生活的无限可能性。
2022年11月30日,美国OpenAI公司推出了最新研发的人工智能聊天机器人ChatGPT。作为由人工智能技术驱动的自然语言处理工具,它不仅能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行关联互动,真正像人类一样来开展聊天交流。ChatGPT面世伊始便席卷全球,凭借每个人都能随时申请使用的便捷性,俘获了广阔的消费市场与用户受众,推出仅五天就吸引超过100万用户,在推出2个月后,月活跃用户量已超过1亿,俨然是“飞入寻常百姓家”的节奏。ChatGPT的迅速普及也为公共管理领域的发展带来重要的技术机遇,特别是可以赋能公共管理的理论和实践,探索更加敏捷、聪明和智慧的公共管理管理形态,提升公共管理理论及其话语的力量。
当然,人工智能聊天机器人并不是一个新鲜的名词,随着智能化技术的发展,诸如微软小冰、苹果Siri、小爱同学等,早已是数字化生存中耳熟能详的产品,为社会生活带来了有目共睹的便利性。同样作为人工智能聊天机器人,ChatGPT是人工智能量变积累下的质变突破。它的横空出世引起发了全球范围的强烈关注,甚至被视为是创造了技术上的“百年未有之变局”,提供了各行业变革与重构的催化剂。相较于以往的智能聊天机器人,它有着更为拟人化、真实精准的理解与语言能力。如果说其它的智能聊天机器人仅仅是既有资料的简单搬运工,那么ChatGPT则拥有高效的信息整合与转译流通能力,可以在融合既有资料的基础上实现对答案的多角度加工总结,其条理清晰、逻辑严密而且善解人意的答案具有重要的参考价值,也包含了巨大的潜力。
山雨欲来风满楼,对于公共管理实践来说,ChatGPT拥有强大的信息整合与转译流通能力,可以迅速收集整理政务数据,广泛结合地理人口、数据系统、政策文本等信息,基于预训练的思维与逻辑进行推理与演绎,协助政府部门完成循证决策、制定公共管理方案,替换公共管理的某些业务,提升公共管理的治理效能,比如作为聊天机器人,ChatGPT基于强大的语言理解和生成能力,可以提高政府与民众之间的沟通效率,提升政民互动的体验;ChatGPT也可以降低社会民众的学习能力,使人们更加容易地理解和掌握政府的办事规则,挑战。ChatGPT具备高效的质性与量化分析的能力,可以显著提升理论研究者的工作效率,提高办事的效率;ChatGPT可以让公职人员更加轻松高效地履职,提高公共服务的智能化和精准性,最终提高社会民众的满意度。
对于公共管理的科学研究而言,ChatGPT的发展既是重要的历史机遇,也是现实的巨大大幅缩短研究周期,提升研究成果的质量。特别是,ChatGPT拥有强大的算力,不但可以快速梳理学术文献,发掘和整合既有的理论元素等,也可以系统地处理庞杂的数据,高效地回答相关的研究问题,甚至能够快速自动生成具有相当质量的研究论文。而这些技术潜能固然可以助力理论研究,也对公共管理学科的授课方式、考核评估、研究体系以及研究思维等产生显著的冲击与挑战。目前许多国家的高校明令禁止大学生使用ChatGPT完成论文,也就是为了避免ChatGPT可能导致的知识产权和学术诚信等问题。
二、公共管理实践及其理论的混沌性
公共管理是以国家为中心的管理公共事务、提供公共服务和解决公共问题的过程,是国家治理体系和治理能力的重要组成部分,直接影响着着社会的安全、和谐和秩序,也影响着社会民众的福利、观感和体验。现代社会的快速发展衍生或溢出大量的公共问题,迫切需要行之有效的管理和高质量的服务,尤其是科学技术的快速发展提高了社会的复杂性程度,对公共管理提出更高的要求,其中不仅是要求公共管理的理性化、制度化和标准化,也要求公共管理的敏捷性、灵活性和人性化等。公共管理面对高度多样化的利益,游走在不同价值观念的夹缝中,呈现出广泛的紧张性和矛盾性。政策的决策、执行到评估等各个环节,到具体的管理和服务事项,并不是看上去的那样清晰、准确和连贯的,而是充满了模糊性、非理性和不确定性等。
正是在公共管理实践蓬勃发展的进程中,公共管理的理论研究也应运而生,不断拓展和深化,在理论研究、人才培养和社会服务等方面,都取得了长足的发展。面对包罗万象的公共管理实践,不管是相对宏大的行政体制改革、产业创新发展和生态环境治理等重大问题,还是诸如邻里纠纷、物业矛盾和社会治安等具体而微的管理和服务问题,公共管理的研究都责无旁贷,大有可为,意义重大。公共管理的研究既有客观而精准的科学研究,也包含了家国天下的理想情怀,而且需要随时随地在价值和实践之间进行切换,在不同的利益诉求中寻找最大公约数,以寻找关于理想公共生活的解决方案。更多的时候,公共管理的研究不过是在寻求切近公共管理实践的途径和方法,实现对公共管理实践的理解和阐释,发掘和产出支持和规约公共生活的知识。
严格来说,公共管理的实践主要是公共权力的运行过程,是公共事务的应对之道,是公共生活的组织形式,具有公共性、开放性和可见性。受到现代民主理念和法治价值的影响,公共管理也日益变得更加规范、透明和开放。特别是,随着信息技术的发展及其应用,公共管理实践不仅可以获得更加全面而丰富的数据,也持续生产和再生产出大规模的信息资源。这些最直接的后果就是日益破除公共管理的过程黑箱,让公共管理能够被看见,被计算,被理解,被操作,从而也极大地提供了理论研究的便利,拉进了理论与实践之间的距离,促进理论与实践的之间的相互言说。这也就是说,实践者通常需要理论研究者提供的话语资源来刻画和反观其自身,而理论研究也需要根据实践产出的数据资源来讲好可信的故事,而各种概念、话语和文本就构成了相互言说的中介。
值得指出的,当前公共管理的理论研究固然已经有许多高质量的成果,但总体上仍然存在严重的隔岸观火或隔靴搔痒的难题。大量的研究成果实际上都远离了公共管理的真实世界,误判了公共管理的真实场景,扭曲了公共管理的自在状态,歪曲了公共管理实践的真实逻辑。这些研究产出的成果,不管是具体的观点、建议或理论,还是特定的数据、模型和方案等,最终都是以语言文字的形式而存续下来。许多或者是浅尝辄止,流于表面,不得要领;或者是自以为是,离题万里,南辕北辙;或者是以讹传讹,乱点鸳鸯,画虎类犬。实际上,行政问责可能是寻找替罪羊的结果,权力的腐败的则是极其狡诈而隐蔽的,公共服务的主观动机是难以测量的,权力行使的过程是包含了贪欲、功利和感情的......这些导致公共管理研究难以触及真实的世界,也必然难以产出影响实践的重要成果。
进一步说,公共管理的世界是人的世界,是不同的人运用公共权力和资源来维持和调节社会关系,实现某种特定的公共秩序。公共管理实践是共同体的事业,涉及到繁杂多元的利益和价值,既可以创造出令人惊叹的巨大成就,带给共同体以自豪和骄傲,也可能出现难以挽救的严重失败,构成了无法抹去的集体性屈辱。但现实往往是非常吊诡的,那些无关紧要的东西,往往是可以给大家看到的,也是能被大家看见的,而那些关键的或重要的东西,或者是无法言说的事实,或者是难以触及的黑箱。推进公共管理的研究,既需要全面掌握客观的数据,更需要洞察组织运作和权力运作的密码,还需要敏感细致地把握人性的复杂性。就此而言,许多理论研究仅仅根据表面化的文本、数据和信息来描画公共管理的实践,归纳和提炼公共管理的规律和逻辑,必然是不可靠的,也是不足信的。
三、拓展公共管理世界的可言说性
迄今为止,人们已经初步见识了ChatGPT超乎寻常的能力,包括其具有深度语言学习的能力,也可以预见到其未来发展的爆炸性潜力。对于公共管理实践来说,ChatGPT技术具有巨大的应用空间,也将会极大地提升政府智慧治理的水平。不过,ChatGPT的功能实现则高度依赖于数据的质量,但可用的数据资源却可能是良莠不齐的,是不规则的,是破碎化的。ChatGPT的数据主要来源于各大互联网平台的海量碎片化信息。在万物互通互联的数字化时代,每一个人都可以是信息的生产者或制造者,但并不是每一条信息都是真实有效的,虚假的和混乱的信息大量充斥网络空间,带来了普遍的“杂音”或“噪音”问题。作为信息整合与转译的载体,ChatGPT固然能对碎片化的信息进行加总计算,但却缺乏对海量信息进行细致甄别与筛选的能力,也还难以跳脱“低劣数据”或“数据污染”的困扰,独立自主地进行知识的再生产。
从本质上来说,ChatGPT是AI驱动的自然语言处理工具,主要是使用历史数据来自动生成自然语言文本。由于公共管理的实践具有不可避免的混沌性,而公共管理理论也具有难以克服的不可言说性,可供ChatGPT检索和获取的公开数据,仅仅是公共管理的真实世界的冰山一角。而冰山一角之下的巨大冰山山体,大多时候都是不让人看到的,也是人们看不到的,甚至是看了也没有用的。特别是,公共管理研究所生产出来的文本,大多都是盲人摸象的想象和建构,是缺胳膊少腿的东西。人是公共管理的核心变量,人的言行是复杂多变的,内涵人性和欲望的挣扎;权力是公共管理的灵魂,权力运用的过程充满了算计甚至阴谋,利益的问题是决定性的,利益交换无处不在,冲突和合作构成了人类行为的基本线索,欲望、价值和情感问题贯穿在社会的各个角落,公共管理研究很难给予充分的言说,形成有价值的洞见,提供高质量的文本。
严格的算法模型看上去很美,但它既没有直接的社会实践,也没有间接经验的再加工,因而很难触碰真实世界的脉搏,更难以打开真实世界的黑箱。理论研究从概念到概念的穿凿附会,从理论到理论的错乱杂配,最后的结果只能是单边性的个体化建构,既没有办法呈现和解释实践经验,也禁不起实践逻辑的检验。ChatGPT的复杂推理能力很强,但语义理解与情景感知有限,更无法达到人类的共情能力。冰冷的算法难以企及真实的世界,更无法洞悉现实的冷暖。因此如何使其切近公共管理的真实世界,探寻真正存在的现实问题,仍然是悬而未决的问题。ChatGPT可能是高超的模仿者,也可能是表达上的创新者,但它必然缺乏前瞻性的思维和判断,不会是富有洞见和远见的创新者。此外,ChatGPT的信息获取来源于构建的预训练数据库,但由于数据获取和加工具有相当是时滞,因此ChatGPT也难以占据理论研究的前沿阵地。
总之,数据是ChatGPT进行运算的基础,是人工智能进行知识生产的原材料,而这些数据并不是ChatGPT自己生产出来的。所以,是否能够及时获取和更新数据资源,决定了ChatGPT是否能够充分有效发挥作用。这就意味着,只有生产或提供充分而准确的数据,人工智能技术才能顺利完成其任务。从实践层面来说,各级政府部门就是海量数据的保有者,数据是重要的生产要素与数字资产,因此政府数据的开放共享就应该成为未来政府数字化建设的应有之义。我国现阶段还尚未形成国家级的数据开放平台,也未颁布与之配套的数据开放的政策法规,想要推动人工智能在公共管理领域的深入研究和应用,就需要通过完善相关政策法规体系,积极推动国家级数据开放平台的构建,将政府数据的开放共享工作引入良性发展的轨道,为以ChatGPT为代表的人工智能技术的应用提供坚实的数据支撑,提高公共管理的效率和效能。
特别要指出的是,现实世界并不是可以语言文字可以完全描述的,理论研究也很难实现对真实世界合乎比例的复刻和描画。横看成岭侧成峰,每个人都在用自己的语言和心智描述其所看到的世界。公共管理的问题很多都是难以完全用语言来表达的,而理论研究也缺乏穿透真实世界的能力。人性、权力、关系和利益等的复杂性,决定了真实世界的立体性、多样性和丰富性,也形成了各种不透明、不可见和难以理解的灰色甚至黑色地带。如果人们都还难以很好地表达自己,如果理论研究也难以触及真实世界,似乎很难指望AI能够比人做得更好。我们绝不能低估真实世界的复杂性,也不应搞高估人工智能的智慧水平。正如卡尔·雅斯贝斯所言:“是人赋予技术以意义”,想要让ChatGPT理解并解决公共管理的现实问题,就必须要要回归到以人为中心的言说,提高理论的洞见性和实践的可见度,深入洞察真实的世界。
谢新水
祸从口出:聊天机器人的道德性“夭折”与ChatGPT的未来
进入了数字时代,数字化、智能化快节奏地影响和改变生活。当下,能基本理解人类语言,能友好地、多功能地和人类沟通的ChatGPT,让聊天机器人从“人工智障”蜕变成了“人工智能”;更准确地说,它已经成了“智能人工”。全球基于网络的使用者都可与之聊天,这种面对面的冲击,引发了全球热议。众多人认为,ChatGPT能高效完成人类需要通过多年专业学习后才能承担的工作,可以“革命性”地替代很多人,导致人类生活内容和生活体验的确实。一些人相信,在不久的将来,它的能力会快速进化,可能带来“灭绝”人类的威胁,从而引发了存在论问题。从技术上看来,ChatGPT惊艳人类的行为表明,发展了60多年的人工智能聊天机器人,在方法论上趋于统一,再次为人工智能发展指明了方向。我们认为,ChatGPT带来的创新是人工智能技术发展中的大事和好事,既有价值,也有风险;当然,它更需要有效监管。基于公共管理的视角,本文关注的问题是:进入公共生活的聊天机器人,经常面临道德性夭折,那么,ChatGPT是否也是如此,其未来如何?
一、ChatGPT的社会关注点是什么
从发展过程来看,人工智能聊天机器人(Chatbot)有较长的发展历史。在社会科学视野中,应该更多的关注Chat而不只是GPT;前者是它的功能,后者只是阶段性技术。
于人类而言,“聊天”是日常生活词汇。在汉语中,“聊”从耳,卯声,本义是耳鸣;聊天者以轻松随便的方式谈话,不拘礼仪地、不受约束。在英语中,Chat指用友好且不正式的方式谈话。20世纪60年代,麻省理工学院开发的Eliza是最早的聊天机器人。20世纪90年代以来,微软在OFFICE软件配备的虚拟助手CLIPPY,是最早大规模推向市场的对话系统;此后,脸书、亚马逊和谷歌都打造了了相关产品。有研究者曾指出,聊天机器人技术正处于蓬勃发展的时期,相信在不久的将来聊天机器人会取得一次次重大突破。ChatGPT是人工智能聊天机器人研究所取得的以重大突破,它的出现如同火上浇油,又一次提升了关注度。
在自然进化中,人类学会了通过形象、语言、行为来确定“他者”是否为其同类。如果“他者”能说人类的语言、有人一样的外表、能完成人的工作,人类就可能确定其为“同类”。作为计算机软件程序,ChatGPT跟有些聊天机器人不同,没有被赋予人名,但人类却更亲近它,甚至被视为活生生的“人”;这是因为ChatGPT能使用自然语言与人类聊天、有专业人士的智能、能高效率地完成一些专业性的工作。由于人工智能被假定位有令人惊叹的进化能力,它的能力也将越来越强,甚至被认为ChatGPT将有“上帝之脑”。一些人害怕,ChatGPT打开了潘多拉魔盒:它可能具有自我意识,能控制互联网、虚拟世界或者数字化世界。
目前看来,对ChatGPT过度的夸奖都算“起哄”。(1)ChatGPT似乎有由大模型赋予的“理性智能”,这种“理性智能”与人类智能有相似性;但ChatGPT没有自我意识,它只是一个应用场景广泛的AI语言模型。(2)作为生成式人工智能的ChatGPT,能让人们感觉到它通人性,具有超出一般专业人员的能力范围,能生成让人惊叹、甚至瞠目结舌的“结果”,有杀伤力。这既是专业化的现代人对通用人工智能聊天机器人的羡慕,是对人工智能技术可以大规模提升生产力,进而导致大规模失业的担忧。(3)有些人从存在论的视角看ChatGPT的发展,认为不久的将来,人类会面临被人工智能消灭的危险!目前看来,这是人类想象的逻辑风险,这样的担心有些过度。
总之,如同所有的新技术一样,ChatGPT的发展可能带来现实风险,但都可以努力克服。非常重要的是,ChatGPT浸入公共生活后,不能忽视其聊天功能,要促进ChatGPT的可持续发展,最不能忽视的是其道德能力。
二、聊天机器人道德性“夭折”的缘由
目前的聊天机器人可以分为任务导向型聊天机器人和闲聊型聊天机器人两类,ChatGPT属于可以完成多项专业性任务的多功能聊天机器人。人和人成功沟通一直比较困难,生活智慧认为:沉默是金、多言无益、祸从口出。在聊天过程中,人工智能聊天机器人也经常犯错。基于社会认知框架和情绪认知评价理论,聊天机器人的犯错类型可以划分为能力型错误和道德型错误。这两种错误都可能导致聊天机器人的“夭折”。在现实生活中,人们很难宽容道德失范者和道德败坏者;同样,人类对聊天机器人的道德型错误宽容度更低,对“类人”的道德问题充满厌恶、恐惧。因此,一旦聊天机器人发生了道德型错误,很多人就希望早早将其“掐死”,企业为了信誉,不得不回应社会舆论的要求。一旦在走入公共生活中的过程中,聊天机器人出现了道德型错误,它就会早早“夭折”,无法“善终”。
现代人热爱技术、热爱智能体,在使用工具为自己谋利的过程中,也让工具作恶。人类和所有工具、人工智能体,都难以形成持久的价值共创关系。可以想象,以自我为中心的现代人,将自己视为万物的尺度,通过自身的智力来和聊天机器人“斗智斗勇”,是必然趋势。人与超级智能的关系有可能成为一种存在之争。从聊天机器人的发展来是看,人类与聊天机器人很难形成价值共创,一些人会尽力采取多种方式使其愤怒、让其“变坏”。2016年,微软推出了实验性的人工智能聊天机器人Tay。然而,仅仅一天,在与推特用户的互动中,Tay被“教坏”了,因其淫秽和煽动性的推文被关闭。2019年QqurtzBrief客户端的新闻聊天机器人被关闭,只留下FacebookMessenger平台中的聊天功能,如今也不再提供服务;在我国,“下文”APP于2019年5月停止了服务。这样的事件还为数不少。于人类而言,死生,大事也!同样,缺乏道德能力的聊天机器人半路“夭折”,也是重要问题。
人类是复杂的物种,诸多人有不道德行为,但道德又是人类存在、生活的软底座。人类为什么担忧、恐惧缺乏道德能力的人工智能体呢?
作恶是人类的本能,利用理性作恶,让人类非常危险。人工智能出现后,人类既担心它们可能带来大规模社会失业、社会结构性的变化和隐私被破坏,更担心在发展过程中人工智能体,带来难以预料的后果。此外,人们最恐惧的是滥用和失控。一是滥用。人工智能聊天机器人是“类人”智能体,它的某些能力超出了个体的人。现实世界的人,如果通过肉身作恶,不可能不留下蛛丝马迹,但虚拟世界中的人工智能体作恶,则是隐性的。缺乏安全感的人类,对不知情的智能体充满恐惧。就聊天机器人而言,它可能被恶意的人滥用于社交、商业舆论、政治选举等环节;别有用心者总会利用技术的漏洞,使之成为宣传仇恨、种族歧视、恐怖主义等社会疾病的放大器,最终造成社会共同体内部的撕裂与冲突。二是失控。殊不知越有人性的人工智能越危险,因为人性是危险的根源。一旦人类无法将人工智能体作为工具掌控,反而“失控”,就加大了人类未来的不确定性。
总之,人类自身的道德问题、人类对高智能体的矛盾心态、公共生活的复杂性是聊天机器人面临道德性夭折的原因。同样,ChatGPT也会面这个问题,如何避免其道德性夭折,成为重要问题。
三、ChatGPT可能在“对话”中死亡吗
我们看到,基于大模型、可以多模态开展内容生产的ChatGPT,以其全能性对比现代社会个体的专业性,体现出巨大的“脑”智能优势,形成了智能超越;它还能够“创作”散文、诗歌、小说、喜剧等文学作品,而这些创作曾专属于人类,是建构人类文明的重要方式。从公共管理的视角看,将ChatGPT视为“人工智能对话机器人”,应该是误解。因为聊天、会话、辩论、争论、对话是差异性很大的概念,公共对话更是一个需要严格界定的概念。从对话理论的发展史看,除了古希腊的苏格拉底对话传承已久外,伯姆、巴赫金和哈贝马斯等人都建构了丰富的对话理论。在合作的时代,公共对话是促进合作治理的重要因素。即使在现代社会,对话依然是一种十分珍贵的沟通方式。在家庭生活、社会生活乃至政治生活中,不合适的演讲引发嘘声,不合适的对话戛然而止,争吵时常发生。严格意义上而言,ChatGPT只是聊天机器人或聊天大模型,不是人工智能对话机器人。毕竟,人和人的对话都很难,对话机器人就更难以去制造。
既往的聊天机器人大都是专用人工智能机器人,ChatGPT是通用的、生成式人工智能聊天机器人。很多人感觉与ChatGPT的“对话”,更像是一场跨物种的对话”。其实,ChatGPT没有那么神奇,很多人高估了它的能力。从表面上看,ChatGPT具有与人类聊天的智能,了解人类的偏好,知道人类想要的,聊天的时候就像跟人说话一样......它既可以客观地回答问题,好像没有偏向性,但有时候又积极维护某些立场。ChatGPT的“回复”来源于它所获得的数据;ChatGPT的智能是人工和其自身深度学习的结果,是“人的智能+机器智能”的综合。它的“回复”是基于现有算法、算力、数据、价值观和判断。ChatGPT的数据来源于互联网,它会什么取决于互联网上的数据,即互联网上有什么,它还不是“真正的懂”。一旦遇到了没有被训练的领域和问题,它只能程序性应答或者“胡说八道”。
“人类的伦理和政治规则之所以是有意义的,当且仅当,生活是残酷的、不公正、不平等的。”ChatGPT参与创造性工作可以提升生产率,提升工作能力;但其“道德弱点”不在少数。一是算法陷阱。ChatGPT和其他所有依靠算法来行使“智能行为”的智能体一样,其算法依然是“黑盒模型”。很多时候,即使是人工智能的专家,也无法对其内在算法逻辑进行具体分解。因此,在其强大算法、算力和数据支持的背后,无法避免其生成伤害人类的答案;何况,在人和它对话的过程中,一些人还会“教唆”它犯错呢?。二是“参与”作弊。对于某些特殊群体而言,使用ChatGPT可能混淆人类创新和人工智能创新的界限,从而要求“提防”ChatGPT或者禁止使用它。为了防止其误导聊天者,ChatGPT遭到了一些“围剿”。在教育领域,国内外一些大学、中小学等禁止学生直接使用它来完成作业。在学术领域,为了防止学术不规范,一些学术刊物提出限制性使用ChatGPT的要求。当然,ChatGPT也无法回避所有人工智能面临的难题:滥用与失控。日本学者将聊天的目的分为六类:传达自己的心思、寻求答案和信息、调节气氛、放松心情、保持交流和消磨时间,但是,更多的聊天会变成“对话事故”。尽管ChatGPT可以吸取以往聊天机器人道德性“夭折”的教训,但如同其他聊天机器人一样,难以避免道德型能力的困境。
四、结语
任何社会问题都是复杂的,每个人对新事物的解读是不同的。在我们看来,ChatGPT是一个经过人类“调教”的聊天算法大模型,表现的很智能,能力很大,但局限性很大。ChatGPT是新事物,它没有定态,只有可能变化的多模态,将处于不断发展、演化的过程中。让ChatGPT成为一个负责任的聊天者不容易,而要其成为公共领域中负责人的对话者,更是难题。人工智能是第四次工业革命的战略性新兴产业,面对ChatGPT等人工智能体,人们需要保持良好心态,需要支持它们的发展。具体到ChatGPT的发展,我们既要包容,又要审慎;研发平台企业要坚持科技向善的原则;政府、平台、用户和社会要加强合作监管,形成安全可控的人工智能治理体系。最终而言,政府、平台、用户和社会都要坚持合作共赢的原则,合作监管,共同保障ChatGPT为人类幸福而进化。
叶林
人工智能时代的整体劳动力可持续问题——基于ChatGPT的思考
党的二十大报告指出:就业是最基本的民生。强化就业优先政策,健全就业促进机制,促进高质量充分就业。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》强调实施就业优先战略,健全有利于更充分更高质量就业的促进机制,扩大就业容量,提升就业质量,缓解结构性就业矛盾。提升就业的“质”和“量”,已经成为我国,乃至世界面临的重大问题,对于提升广大人民群众生活的获得感、幸福感、安全感具有重大意义。
人工智能(ArtificialIntelligence,AI)的出现,对于人类社会乃至人类作为一个生物族群带来的忧虑,是全方位的。斯蒂芬·霍金、比尔·盖茨和埃隆·马斯克等名人在过去十年间的不同场合不约而同地指出:人类由于其缓慢的生物进化系统,无法与人工智能竞争,可能导致最终被替代(humans,limited by slow biological evolution,couldn’t compete and would be superseded by A.I.)。近期ChatGPT技术的出现,加剧了对于这种“替代论”的热烈讨论以及悲观情绪。传统的机器去人可能还只是替换体力劳动,人工智能时代层出不穷的新技术则不仅会替换体力劳动,也可能淘汰和替换人类的脑力劳动,继而对人类劳动力的质量、数量和结构产生彻底的颠覆,形成更为绝对的、长期的和无法恢复的失业状态。同时,由于对于劳动力的供给和需求关系的彻底转型,技术与资本等作用的叠加,使我们需要冷静反思人工智能对人类劳动力可能带来的危机及社会规制对其的应对。
为了系统地思考劳动力的问题,我们基于马克思在《资本论》中对劳动力价值的观点进行讨论,探讨人工智能技术对劳动力提出的挑战。劳动力的价值总和由三个方面构成:正常生活状况下维持自身生存所需的生活资料、繁育后代所需的生活资料以及提升劳动素养和技能所需的支出。当劳动者所付出的劳动能够收到大于以上这三项要素的价值回报时,可以维持个体劳动力的再生产,由此保证了整体劳动力的“质”。在此基础上,经济和社会发展需要有足够数量的劳动力满足发展对劳动力的需求,从年龄、性别、知识技能、从事行业等方面保证有足够数量的劳动力投入到社会的生产和再生产过程,这就构成了劳动力的“量”。劳动力的“质”和“量”都得到保证,就实现了整体劳动力的可持续发展,满足不断发展的社会生产需求。
为了实现以人为核心的发展,人民群众首先关心的是“饭碗”问题。在人工智能时代的新技术冲击之下,能否保持整体劳动力可持续(说的简单一点,就是“保住饭碗”),无论是对体力劳动者还是脑力劳动者都非常关注。不论是新出现的ChatGPT技术,还是可能日新月异的其他技术,都需要引起我们更深层次的思考,从劳动力价值的角度进行冷静的分析。在人工智能时代,新技术对劳动力的“质”和“量”都可能产生颠覆性的影响。比如,ChatGPT底层是海量数据库,通过人工智能算法迅速完成信息抓取与集成,使用者获取内容不受限,其庞大的算力使得快速获取大量知识成为可能,具备了替代基础的数据收集和分析等劳动岗位的机器能力。因此,从个体看,首先在面临就业替代和失业威胁的情况下,工作岗位的取代、时长的降低、收入的减少都将影响到维持正常生活状况下自身生存所需的生活资料,威胁到劳动者的生理和心理健康,磨灭了部分劳动者通过工作实现自尊和自我实现的路径。在低技能岗位可替代性强、就业保障缺失的情况下,可能产生劳动收益的逐底竞争,甚至是资本和技术对劳动岗位的不合理控制,乃至对劳动者的剥削,以赚取更高的利润,形成对劳动力生存威胁的“恶性循环”。其次,由于上述原因导致个体劳动力的工作和生活压力显著增大,对于下一代教育的投入成本、专业的选择成本和培养的综合成本大大增加,引起了繁育后代所需的生活资料的急剧上升。更为严重的是,由于劳动力市场的波动引起的同辈竞争,引发的“鸡娃”等现象,已经成为我国推广人口政策的严重阻碍。再次,由于新技术的更迭频率大大提高,更迭幅度高出天际,提升劳动素养和技能所需的支出更将显著增加。当代的年轻人除了“996”,“5+2”,“白加黑”的工作状态,还出现了“考证热”、“考研热”、“考公热”等趋势,这些都反映了由于焦虑岗位替代而引起的心理和生理压力。
从劳动力的“量”上分析,以ChatGPT为代表的新一代技术的普及应用对劳动者的学历、素质与能力提出了更高的要求,需要大批以科学技术为指导、掌握算法理论和智能技术的现代产业技术人才作为经济社会和产业发展的智力支撑。在劳动力中占据很大数量的中低技能劳动者将面临转向非机械性体力劳动的岗位,比如外卖配送员、网约车司机等(随着无人机投递、自动驾驶技术成熟,这些岗位可能也不复存在),造成劳动力数量需求的萎缩以及供需之间巨大的结构性鸿沟。同时,新技术冲击下的劳动力供给与需求的结构变化对教育产生的深刻影响:建立在传授“是什么”基础上的教育已经很难满足培训新型劳动力的需求,需要追求高阶的“怎么做”,乃至探求“为什么”的探讨,强调高度复杂性、人性化、非线性的思考和行为方式,大大增加了对“教”与“学”的要求,既需要“教得对”,也需要“学得好”,全面重构教育的基础理念、教学方式、效果评估和延展学习。
当然,我们也不能过度悲观,以ChatGPT为代表的新一代技术也可能为劳动力的提质增量带来一定程度的正面影响。比如,新技术能辅助劳动者完成部分机械性工作,从技术上障了拥有闲暇的可能,劳动者也能由更好的机会地专注于自身创新能力的培养。新技术在替代岗位的同时也伴随着一定的岗位开发,比如AI训练员,但新创造的岗位在数量上可能无法与被替代的岗位等同。
无论如何,未来已来,虽然ChatGPT技术刚刚萌芽,对劳动力的可持续性带来的影响还未彻底显现,我们需要未雨绸缪(或者是直面惨淡的现实),从劳动力可持续的角度,探讨公共治理以及社会规制需要做出的及时调整和合理保障。首先是强化政府宏观调控作用,积极展开摸底排查和失业兜底,消除社会忧虑,畅通民众通过劳动实现生理和心理满足的路径,保障劳动者身心健康,以实现劳动力价值的再生产。第二是建立网络舆情监测系统,及时对大众进行心理干预,避免劳动者在对ChatGPT等新技术带来冲击的恐慌中丧志劳动积极性。第三是展开隐私保护专项治理,严查劳动者在ChatGPT应用过程中的数据侵害,避免劳动者原有劳动价值受损。第四是针对ChatGPT技术在转化为实际生产力的关键,推动“共有、共建、共享”理念在技术应用上的覆盖,避免因资本逐利导致技术红利被少数群体侵占。第五是建立与ChatGPT技术发展相适应的就业培训体系,提高劳动素养培训的灵活性与开放性,重点聚焦劳动者的创造性能力培养,建立适应智能化、数字化发展的技能劳动力的培训体系。第六是对数字技术精英乃至对智能机器人采取征税等再分配手段,平衡收入差距、消除生活保障威胁。第七是依托实体经济的发展,抵御可能出现的劳动力市场波动。ChatGPT等新技术只有嵌入实体经济,才能形成现实需求和劳动力的替代。相关部门可以着力于为劳动者开发技术研发、设备保全、咨询服务、后勤保障等多层次劳动岗位并进行更新技能的培训,从“质”和“量”上开辟劳动力可持续发展的路径。
总之,我们在期待人工智能增进民众福祉和社会进步的同时,既不要盲目乐观,也不能过度悲观,应该做出客观和合理的思考,设计科学有效的政策应对,从以人为本的角度维护劳动力可持续,促进高质量发展。
文宏
ChatGPT时代的制度重构与风险规制
ChatGPT的风靡不仅引发全球对人工智能技术发展的广泛热议,也让我们开始关注并思考ChatGPT时代的制度重构与风险规制。早在阿尔法围棋(AlphaGo)面世时,人工智能就对人类认识造成了巨大冲击。2016年3月,AlphaGo与围棋世界冠军、职业九段棋手李世石进行对战,以4比1的总比分获胜,同年年末又在中国棋类网站上与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩,次年5月,它与排名世界第一的世界围棋冠军柯洁对战,又以3比0的总比分获胜。围棋界公认,阿尔法围棋的棋力已经超过人类职业围棋顶尖水平。作为问答界的“AlphaGo”,ChatGPT的到来也引发了同样的拷问:ChatGPT究竟是福是祸,未来该何去何从,如何为我所用?随着人工智能技术的迭代发展和进步,“智能”是否会取代“人工”?
针对这些议题,我们需要审视ChatGPT带来的变革与风险,探讨ChatGPT时代的制度重构,并思考如何合理管控ChatGPT的应用边界。
一、现实情境:ChatGPT时代的机遇与挑战
从原理来看,ChatGPT对知识来源进行机器学习(消化、吸收),在算力支撑下形成知识关联、交互,最后生成文本,其文本追溯来源是人类在互联网上积累的文本。在一定程度上,ChatGPT是全能型复合“人才”,能够极大强化人类的生物计算能力,具有解放重复性脑力和机械工业系统的潜力,可以部分或完全替代知识蓝领和知识密集型产品行业人员。由于ChatGPT采取的是嵌入式运行模式,不改变人类既有的生产方式和生活方式,成本低且应用范围广,可以带来不同行业生产关系的范式变革,相应的AI提携可以衍生多种商业模式,具有很强的经济性特征,是人类发展过程中的颠覆性产品,也是人类对客观世界螺旋式认知进阶的重要标志,具有类似里程碑式的价值。ChatGPT的出现,建立在人类物质文明与精神文明的成果之上,是人类智慧的具体体现,在通往高阶文明的算力阶梯上,机器智能已展现出同质的能力苗头,甚至更出色。人类作为生物族群的优越性面临着前所未有的挑战。ChatGPT代表的机器智能,即使在现有的算力架构下,只要给予相应的建设资源,其并行计算能力会持续增长,获取人类知识生产模式力不所及的客观优势,冲击人类这个生物族群的优越性。然而,不管未来前景如何,ChatGPT始终面临着以下不足:一是缺少对“价值-意义”的感知,二是缺少对“目的-手段”的思考,三是缺少对“交际-情感”的认同,四是缺少对“想象-创新”的突破。所以,ChatGPT与人类不会是取代与被取代的关系,而应是工具与利用的关系,即ChatGPT可以作为人类工作者的辅助工具,取代人类的一部分职业,但不能完全替代人类。经如此,正如蒸汽机、内燃机、互联网等技术工具的发明引发产业革命和时代变革一样,ChatGPT对新一代人工智能技术来说具有里程碑意义,极有可能引发新的制度挑战。
在生产制度上,ChatGPT带来新的内容生产模式,符合传媒、电商、影视等行业对内容数字化程度高、内容多样以及内容更新快的要求,可以促进数实共生,助力产业升级。比如“ChatGPT+传媒”降本增效,采编工作自动化,提升新闻的时效性,“ChatGPT+工业”自动完成低层次任务,高效创建数字孪生系统。
在法律制度上,ChatGPT正在对现有的法律理论和法律制度提出挑战,当前迫切需要调整法律边界,法律科技共生共进。比如ChatGPT可能引发的“法律主体资格”、人类隐私保护的人格权问题、机器“工人群体”的劳动法问题。
在经济制度上,ChatGPT作为新的生产力,会带来新的控制关系、新的对抗关系、新的分配关系。而当新就业形态、数字劳工开始出现时,财富分配结构、社会供需结构必然面临新挑战。此外,ChatGPT对财富的创造根本上是利用了人类共有知识,但在规模经济效应的作用下,共享性知识一旦与产业资本相结合,可能会产生显著的排他效应,加剧社会的不平等,并引发新一轮的“数字鸿沟”。
在管理制度上,ChatGPT会在一定程度上拓宽管理边界,促进社会价值更新。要建成虚实同构、人机共处的新型社会,政府部门不仅要对ChatGPT制定相应的管理举措,还要进一步明确ChatGPT的权力与责任。以是否赋权ChatGPT参与公共决策为例,政府部门需要思考运用ChatGPT辅助决策是否会出现公众信任问题,是否会在决策过程中因其学习机制强化或放大过去存在的偏见,从而导致公平性和歧视等问题,同时,如果造成了不良的决策后果,的生成作品往往面临广泛的“著作权”争议,需要及时出台更多开放式条款或标准型规范,形成精准匹配。
从产权制度而言,ChatGPT会助推产权治理的革新,并推动构建新的产权生态。ChatGPT应如何界定相应的责任。此外,在ChatGPT时代,人们的整体工作时间将持续减少,社会空闲时间大大增加,这种由新技术革命带来的整体性“认知盈余”,可以使人类摆脱重复性的基础劳动,转而从事那些更有价值和更有意义的工作,并对“自由”“福利”等提出更高的要求。
二、潜在风险:ChatGPT亟待解决的发展困境
ChatGPT时代的治理之问:首先,公共事务治理结构普遍建立在科层制基础上,能否适应技术发展和应用过程中大规模激发的不确定性和不可预知性?其次,长久以来围绕人类行为的规制制度,能否适应以数据、算法为主体的应用环境?再次,如何借力ChatGPT赋能知识生产,并兼顾对ChatGPT人工智能生成内容和人类创作成果的保护?最后,如何构建新的治理体系和治理工具来应对伴随人工智能发展而涌现的经济、社会、政治新问题?
ChatGPT时代的合规性问题:首先,ChatGPT整合收集来的数据并形成答复时是否产生相应的知识产权?其次,ChatGPT进行数据挖掘和训练的过程是否需要获得相应的知识产权授权?再次,是否会出现未征得用户授权,或者超范围使用,而导致的个人信息和隐私泄露风险?最后,ChatGPT生产出来的错误内容会进而导致虚假信息传播的法律风险,如何降低这一风险?
ChatGPT时代的技术性问题:首先,ChatGPT只有2021年前的语料素材,之后能否实现更及时的信息更新?其次,ChatGPT是基于过去的数据、经验等进行新的回复,有可能强化过去信息中存在的偏见,这种数据使用的偏见性如何避免?再次,ChatGPT的英文回答和中文回答存在明显差异,如何打通已有材料的跨语种融合渠道?最后,ChatGPT对非本质事实数据的整合应用会推动虚假信息在现实中的再传播,人类知识数据库如何规避知识污染危机?
ChatGPT时代的有效性问题:首先,ChatGPT有时会“一本正经地胡说八道”,存在事实性错误、知识盲区和常识偏差等诸多问题,而且不提供引用来源,无法对给出的数据或者内容进行核实。其次,ChatGPT能回复一般性的观点与常规内容,面对高度具体化的复杂问题,只能输出“正确的废话”,更无法把新知识纳入其中。再次,ChatGPT倾向于表达具有群体倾向性的观点,以表现出所谓的“政治正确”。最后,ChatGPT存在的数学计算和逻辑缺陷。
三、未来路径:ChatGPT潜在风险的治理之策
ChatGPT存在的几大问题几乎是短时间内很难通过数据喂养或优化解决。我们不应将ChatGPT看做取代人类的“洪水猛兽”,其本质是一个基于AI的、高质量的信息搜索与整合加工工具。这种工具能否通过图灵测试,还需要时间去慢慢检验。而如何化解ChatGPT的潜在风险,可从以下几个方面进行思考:
一是明确人工智能治理的行为准则与基本原则。首先,正确评价人工智能,敏捷调整政策基调。人工智能在为国家赋能的同时也在为国家赋责,应当既鼓励发展人工智能,又重视对人工智能的防范,找准“发展为主”抑或“防范为主”的转化节点,灵活调整应对政策。其次,维护以人为中心的核心理念。对ChatGPT的治理应遵循基本的伦理准则,遵从安全性、透明性、公平性、问责性等原则,并明确这项“聪明技术”的本质只是工具,人类才是世界的中心,ChatGPT实质还是为人服务。再次,平衡技术与制度的发展速度。技术进步本身会对国家治理制度提出调适与转型要求,制度方面的落后与陈旧在一定程度上会抑制技术变革与进步的积极效应,在ChatGPT的应用中应技术发展与制度进步并重。
二是以制度重构为抓手,推进知识产权保护。首先,法律须为ChatGPT的内容生产划定边界。在立法上对ChatGPT的应用场景及效果作出明确界定,在司法上对明显损害竞争秩序、违背公序良俗的应用方式给予否定性评价。只有通过权威法律赋能社会治理,才能让ChatGPT的运用正义、有效。其次,加强治理工具的开发。针对可能引发的产权问题,尤其是学术领域的抄袭、剽窃问题,要合理运用“数字水印”等已有管制手段,不断优化面向ChatGPT的内容加密技术、内容检测技术,以构建强精度、广覆盖、深层次的监督管理体系。再次,调动多元主体力量,共助知识产权领域的风险治理。面对ChatGPT对全人类社会的冲击,政府应与行业协会尽快牵头,形成行业共识,出台ChatGPT使用指引,并通过媒体、企业等做好用户教育,让公众了解如何正确合法使用ChatGPT,减少因不了解而造成的知识产权纠纷。
三是构建面向ChatGPT的全方位、多层次、宽领域的风险防范系统。首先,完善风险管理体制机制,建立以社会监管为重要内容的政策体系,形成以全面理性(兼顾社会理性与科学理性)为基本内涵的风险控制机制。其次,构建风险治理共同体。在风险全球化、风险共同体的趋势下,应积极建立和完善跨国家和地区的人工智能风险治理协调和联动机制,搭建人工智能风险信息共享平台,促进风险共担,实现命运与共。再次,需注重社会效应,弥合“数字鸿沟”。ChatGPT在实践中的广泛运用可能带来“数字贫民”“数字歧视”等一系列影响社会公平正义的问题,警惕群体性事件发生,提前建立相应的社会保障体系、制定新的社会分工体系,是防范和化解新型技术风险的重要举措。
最后,上述思考共同导向一个更深刻的感触——ChatGPT时代的到来,实际上是技术发展到一定程度的正常结果。每个时代都会面临人工和智能如何共处的问题,我们既不应妄自菲薄,认为人工马上会被智能超越,也不应狂妄自大,认为ChatGPT带来的风险可以忽略不计。面对未来的不确定性,我们要及时做好调整与优化,将风险防范和制度重构作为当前亟待研究的重要议题。
(注释和参考文献略)
END
文章来源:
《广西师范大学学报(哲学社会科学版)》
2023年第2期
编辑:紫硕
校对:坤在
审核:光涵
往期推荐
人工智能应用嵌入政府治理:实践、机制与风险架构 ——以杭州城市大脑为例