曹克亮丨ChatGPT:意识形态家的机器学转向及后果
作者
曹克亮
摘要
ChatGPT与人类的对话式交往流畅而又极具“人性”并深得“人心”。ChatGPT作为大语言预训练模型和人类反馈学习的最新智能机器,正在改变人机交互的方式和知识生产模式。ChatGPT超越了苏格拉底知识“助产术”的主体限制,来到了机器的知识“助产术”阶段。ChatGPT以自身机器语言模型和算法模型扮演了“机器意识形态家”角色,完成了对阿尔都塞“意识形态国家机器”的意识形态再生产的机器学转向。ChatGPT实现了意识形态智能生成与分发的个性化、适配化和整体化,提升了意识形态智能塑造中的人机交互关系的感知性、切身性和可信性,智能化融合了意识形态的“物质存在”配置和智能行为仪式双重能力。ChatGPT是融合了物质生产和精神生产的“双重机器”,它实现了意识形态产销的一体化、隐秘化和加速化。ChatGPT作为“机器意识形态家”的后果是引发数字意识形态进一步智能化、具身化和霸权化,造成了虚假意识形态生产、传播的加速主义运动,让“意识形态国家机器”构型出平台型意识形态的机器学形式。
关键词
ChatGPT;人工智能;意识形态;国家机器;意识形态家;阿尔都塞
作者简介
曹克亮,中国计量大学马克思主义学院讲师,浙江省中国特色社会主义理论体系研究中心中国计量大学研究基地特约研究员。
ChatGPT作为生成式人工智能对话机器,奠基于大型语言模型和机器深度学习基础之上。ChatGPT以人工标注数据的方式进行语言逻辑和知识系统的升级,以便大语言模型(LLM,Large Language Model)更加精准和顺畅地理解人类的语言、逻辑、思想。这是ChatGPT展现通用人工智能(AGI,Artificial general intelligence)一面的关键,其中涉及ChatGPT大语言预训练模型重要的方法,即“人工标注”。对于一个如此智能和强大的对话机器,为什么还要进行人工标注,通过人类反馈并对其打分赋值呢?答案很简单:人类给其“投喂”的不仅仅是数据知识,更是经过人类评价后的“好知识”和“好观念”。这些彰显“好”的观念和意识形态评价、道德评判不是机器能够完成的,因此机器不能代劳也不可以代劳。如此一来,ChatGPT所生成的不仅仅是文本内容、综合知识(如果算作知识的话),还包含人类的意识形态。
ChatGPT在很多涉及性别、种族、人工智能主体性等问题时,会被训练为“价值中立者”或“价值无涉者”。这样一来,ChatGPT就变成了阿尔都塞“意识形态国家机器”中的“意识形态机器”(IM,Ideological machine)。ChatGPT与其他类似人工智能机器体系一起,实现了由智能系统组成的虚拟意识形态机器“国家”系统。这个“国家”系统显然不是真正的现实国家,也不是社会。它奠基于社会,却区别并高于社会。它是由智能系统组网、大数据支撑、算法提供动能、人类参与指导并建构的虚拟“国度”。ChatGPT作为意识形态机器,在回答人类各种奇怪甚至荒唐问题时,一直在“表达”的正是具有意识形态性质的“我是”(IM,I am)问题或“我想”(IT,I think)问题。当一个智能机器在“表达”“我是”或“我想”时,不管其所“言”是真或假、善或恶、美或丑,它都在不时地与人类交换着意识形态观念。一种更切近、具身、个体化维度的意识形态塑造机器,对于知识形塑机制、政治认同表达、意识形态安全治理都提出了更高挑战。
一、ChatGPT:“机器意识形态家”
的知识生成与观念塑造运行机制
ChatGPT正在以新的语言发生机制、人机交互方式、智能劳动范式构型着人类的知识观念系统。ChatGPT对知识生成与观念塑造的革命性影响与苏格拉底的知识“助产术”思想有着根本性差异。这种差异进而导致ChatGPT不仅仅是知识生成者、观念塑造者,还是“机器意识形态家”。它实现了对马克思所述“意识形态家”的机器学转向。
(一)ChatGPT与知识“助产术”
ChatGPT作为人工智能对话者与人产生知识交互的过程,似乎与苏格拉底的知识“助产术”思想不谋而合。“苏格拉底把自己的方法比作他母亲从事的‘助产术’,两者有这样一些可比之处:苏格拉底在对话时并不宣布问题的正确答案,正如助产士的任务是帮助产妇生育,她自己并不生育;对话者对自己既有成见的否定好比是临产前的阵痛,这是每一个获得真理的人必经的途径;对话的结果是对话者在自己内心中发现真理,正如产妇从自己体内产生新的生命。”[1]只不过,ChatGPT这个对话者从“人”变为了“机器人”,苏格拉底的知识论是从灵魂和大脑出发,而ChatGPT将其转变为从算法和数据库出发。意识形态塑造的“既有成见”变革问题转变为既有机器数据知识和既有个体知识的阵痛调整。知识“助产术”思想实际上是对德尔菲神庙“认识你自己”的遵循和延深。知识“助产术”的深层意义在于知识生产的逻辑是一个“解蔽”过程,这种“解蔽”是通过对话和反诘的方式获取被偏见和谬误所蒙蔽的真理与知识,进而达成对知识发现及自我意识与观念的修正。因此,“认识你自己”不仅是知识生成的过程,也是意识形态塑造的过程。
ChatGPT作为智能对话者,在以机器语言解读和理解人类自然语言过程中生成新的知识。这种知识发现和观念改造不仅是对人类既有知识观念的简单复制和临摹,也在用机器语言自身的机制(二进制)来重塑知识生成模式和知识进化机制本身,并在这种知识交互过程中持续化、具身化地塑造人的自我意识形态。有观点认为,ChatGPT是一个高级剽窃者,这是在坚持传统知识论(或者说原创知识论)意义上谈论何谓真正知识以及价值的问题。但是,对于一般知识生产论而言,人类的所有知识可能都是“剽窃”,“剽窃”的对象就是既有人类群体和既有知识范畴。如此一来,“正是ChatGPT坚持不懈的学习能力,使其拥有可能超越人的能力,尽可能多地学习人类积累的知识,从而在当下这个时代产生新的‘知识大爆炸’。知识的生产模式很大程度上都是在前人知识积累的基础上进行重构,而不可能空穴来风”[2]。这说明人类知识的生成机制本来就是一个对前知识的综合过程。如果将ChatGPT归入一般性知识进化的群体之中,它归纳、总结、重新整合而成的知识就先天带有机器语言和机器的“意识形态”。由此,ChatGPT就是一个“机器意识形态家”。
(二)ChatGPT与“意识形态家”
马克思曾多次在《德意志意识形态》中使用“意识形态家”这个词。“意识形态家”(Ideologe),一直都具有“思想家”和“玄想家”的双重意涵。马克思在批判中使用“震撼世界的”词句、“最大的保守派”以及“编造幻想”和“使一切本末倒置”来形容“意识形态家”。马克思批判的是从施特劳斯到黑格尔“绝对精神体系”瓦解(精神残骸)以及费尔巴哈唯物主义的不彻底性中的意识形态问题。实际上,人类是先通过“劳动”再生产,创新与更替人类知识和智能,而ChatGPT则是先拥有数据知识(一种知识展现和标注的文本、图像、视频等模式)再发展为类人的“劳动”和“智能”。二者的根本区别是人类通过劳动创生知识,形成观念、思想、意识形态等智能表现,而ChatGPT是通过知识进行劳动、创生智能(非人智能),展现观念、思想、意识形态。前者是马克思意义上的具有属人性质的“意识形态家”,后者是在阿尔都塞“意识形态国家机器”之上再“机器化”和“机器话”的“意识形态机器”。笔者将其称为“机器意识形态家”,有学者将其称为“意识形态世界机器”。ChatGPT“所具有的空前的网络话语生成霸权,使其不仅成为阿尔都塞所说的意识形态国家机器,也成为有着全球影响的‘意识形态世界机器’,从而发挥出无所不在的对人的询唤的功能”[2]46。
ChatGPT作为“机器意识形态家”是显而易见且亟须重视与破解的话题。ChatGPT在更深层面上不仅是“意识形态国家机器”中的国家教育或学校系统,甚至可能作为“世界导师”(World Tutor)和“世界知识”(world knowledge)出现。ChatGPT不仅是单一的智能体对话者,它在与每个人的交互中,生成了一个属于每个人的知识元宇宙世界。有学者对类似的元宇宙、元知识和元意识问题深表焦虑并呈现出悲观主义情绪。他们认为:“元宇宙逻辑下虚拟空间与拟态仿真成为可能,人的主体性沦为了意识形态唤问中非经验的绝对之思、非实在的指称代词和非自我的他性认同;实践活动堕化为了意识形态的技术欺骗、虚拟生产的异化模式和知识劳工的生产之源;自由成为了虚实重叠的空白假象、自在自为的意识悖论和国家机器新形态的规范自觉。”[3]这种悲观情绪过于强调“意识形态国家机器”中的“技术决定论”悲观成分。事实上,不论是国家还是技术(或技术人工物)都是意识形态塑造的“主体”,而且久已有之,类似元宇宙、ChatGPT只不过是人工智能时代机器进化的一种形式而已。
阿尔都塞认为,国家机器对意识形态的训唤、规制都是将人的主体性由特殊具体性转换为一般具体性。他说:“所有意识形态都通过主体这个范畴发挥的功能,把具体的个人呼唤或传唤为具体的主体。”[4]从具体的个人到具体的主体“传唤”过程,不仅是人的作用过程,也是机器的作用过程;不仅对人的个体“具体性”进行传唤,也在塑造和形成意识形态社会所需的主体“具体性”。ChatGPT作为“机器意识形态家”的可怕之处不是机器具有意识形态偏见或技术性的算法偏见问题,而是人类对于“技术合理性”“技术至上主义”及其生态的意识形态抵抗力、免疫力的下降和不自知。一切人工智能机器都是人类自身通过知识和技术所创造的物,然而,技术物所展现的一切所谓意识形态偏见或问题不过是人类既有意识形态偏见,也是人类太依赖和信任技术物本身所导致。不得不说,人类在日益普遍的人工智能生态中对“技术合理性”和“技术至上主义”的免疫机制退化了。这种退化是达尔文自然生态主义在技术生态系统中的具体体现。那些撇开技术物及其系统客观实在性、建议高扬人类主体性旗帜和主体精神来恢复人类中心主义的人,事实上已经陷入马克思所批判的“意识形态家”的玄思和玄学之中。
二、ChatGPT作为“机器意识形态家”的运行特点
ChatGPT以技术合理性和工具合理性实现了意识形态塑造的智能合理化与合法化。它所具有的“机器意识形态家”的特点是:实现了意识形态智能生成与分发的个性化、适配化和整体化,提升了意识形态智能塑造中的人机交互关系的感知性、切身性和可信性,智能地融合了意识形态的“物质存在”配置和智能行为仪式双重能力。这些新的特点都让意识形态治理面临诸多困境。
第一,ChatGPT实现了意识形态智能生成与分发的个性化、适配化和整体化。众所周知,意识形态是一个人或一群人的观念集合,它是从人的社会属性中积累并升华的观念、思想、价值观等集合体。自特拉西开始,意识形态就是“观念学派”一直探讨的核心问题。观念冲突的调和、驯化、塑造就是意识形态教育与治理。在传统意识形态生成和分发领域中,依赖的主导性力量就是教育,并且这种传统意识形态教育是以思想教育和政治教育并行的逻辑模式展开的。它承载着知识教育、观念塑造、政治认同等多重使命。然而,随着大数据、人工智能技术的不断发展,塑造意识形态的主导力量从传统教育走向了智能教育、从学校教育走向了社会教育、从集体教育转向了个性化教育。
人工智能系统通过信息数据系统、用户分析系统、信息分发系统实现对意识形态教育的完美过渡和接管。之所以“完美”是因为它极具个性化和适配性。“从技术发展的宏观视野来看,智能算法推荐的一般技术逻辑其实就是通过数据、算法和算力的复杂组合而动态建构起信息供给与用户需求之间的个性化适配关系。”[5]个性化的信息生产机制、个性化的算法精准推荐不断形成了对个体的柔性引导和变相控制。这是一种具身个体化、具象个性化以及具体个别化的适配整体化机制,通过“意识形态国家机器”(包括人工智能在内的技术)整体维度进行。智能技术和媒介实现了对传统意识形态教育的主体和功能的技术性迁移,将教育过程变得智能多样和极具个体性,进而实现了对意识形态教育的技术性权力接管与掌控。当数字媒介和智能网络渗透于各种社会观念、价值秩序、思想结构的机体之中时,传统教育的意识形态权威性就会被搁置或取代,意识形态的形塑权就让渡给了智能算法系统,并且发展出了意识形态技术决策和技术治理的绝对科学化假象。
另外,智能系统生态作为一个日益整体化的趋势,已经组成了系统性的意识形态塑造格局。“一旦我们采用智能关联主义的新的认识世界的框架审视人与生成式人工智能的关系,我们就会发现,人工智能并不是一种客观主义的产品,更不是一种价值中立、与人类行为无关的物,而是一种与人类的交互行为处于纠缠关系之中的共生整体。”[6]在强化个体化、适配化的过程中,各类人工智能媒介、平台、系统“以‘生活方式的智能化’、‘集体认知的合理化’达成‘现存秩序的合法化’”[7]的过程就会不断走向深入。生活方式、认知实际或基本秩序都在智能普遍化、意识统合整体化的过程中进行。ChatGPT及其智能系统所需数据、内含算法和所用算力一起构成了意识形态内容生成与分发的整体性机制。在算法权力泛在化、商业逻辑扩张化、数字资本集中化的趋势下,人的意识形态塑造日益变得个性化、适配化和整体化。
第二,ChatGPT提升了意识形态智能塑造中的人机交互关系的感知性、切身性和可信性。ChatGPT将人机共在和人机共生的交互关系提升到了前所未有的高度。它已经成为人类的智能导师并改造着我们的教育学习模式和观念进化方式。“它可以像人类一样高效地完成智力任务,通过人机高效协同,颠覆所有智力行业的内容生产模式,实现高效、高质、海量、实时、多样性、个性化的内容生成,对于包括学校教育在内的各种传统行业的改造产生重要而深远的影响。”[8]基于此,ChatGPT作为智能知识导师角色的智能劝导术已经实现了感知性、切身性、可信性的全方位升级,成为智能劝导术的存在论事件。劝导技术(persuasive technology)是由福格(B.J.Fogg)于20世纪90年代提出的概念,后发展成为“计算机劝导术”(Captology)。“福格在2003年出版的《劝导式技术:运用计算机来改变我们的所思所做》一书中进一步编撰了‘计算机劝导学(Captology)’术语来描述和泛指传统的劝导设计和基于计算机的技术相互重叠而产生的一个新的跨学科领域。”[9]ChatGPT的智能劝导术通过对人类语境的大数据纳入、人类反馈强化学习的嵌入,达到了对人类自然语言理解能力的革命性跃升。“在人机交互过程中,用户所受到的影响不只是来自所推送的信息内容,还取决于内容的呈现方式,以及对隐形设置的无意识接受。”[10]
这种基于语境的人机交互模式显著提高了作为机器理解的语言逻辑的基本层面、人类强化学习层面和使用进化层面。特别是在应用层面,“一旦生成式人工智能进入使用,就可以通过用户对话互动不断优化语境。大型语言模型采用的模型具有人机深度交互性质,使用作为训练方式的人类反馈强化学习,在人机互问互答中不断迭代,使模型不仅能生成可以不断更新的答案,而且逐渐获得对其所生成答案的评判能力,从而不仅在持续的反馈循环中不断优化答案,而且生成和发展人机融合的语境,使对话具有语境层次越来越高从而越来越强的整体关联”[11]。如此一来,ChatGPT以强大的计算和数据理性辅之以人类强化学习反馈理性,推动了人机交互关系的感知性和切身性的提高。在各种类型的具体应用场景中,ChatGPT有望成为智能时代新的更加强大的智能操作系统的接口。“第一种形式是将ChatGPT嵌入到特定应用中,从而极大地提升自然交互体验,如微软的365 Copilot和Copilot X分别将ChatGPT融入Office和Github。第二种形式是在ChatGPT搭建的自然语言交互框架上开发各类信息服务应用……人机交互界面将从磁带、键盘字符、鼠标图形全面进化到自然语言时代。”[12]
人工智能塑造人类认知和意识形态的可信性将进一步增强,“当用户感知到算法更公平、更负责、更透明、更可解释时,他们认为算法更可信、更有用”[13]。就人工智能的信任问题来说,可以分为理性信任、情感信任、规范性信任,“ChatGPT对于个体需求的积极回应达到了更为全面的状态,为理解深度智能化时代的信任机制提供了视角”[14]。ChatGPT能够提升人机交互关系的感知性、切身性和可信性,更接近成为一个具有强大自我意识的“政治机器人”。由此,ChatGPT及其后续的其他强人工智能系统“通过参加政治议题的讨论、干预政治事件的走向、推动政治文化的发展以实现一定的政治目标”[15],将变得更加普遍而切近。极端政治操作和意识形态操纵将变得智能而无形。ChatGPT作为“机器意识形态家”的危害显而易见,除去传统的算法偏见、信息茧房对意识形态的改造问题,还有作为语料库和数据库的意识形态偏见问题,产生诸如英语世界与非英语世界的意识形态机器对抗等新的意识形态难题。
第三,ChatGPT智能化融合了意识形态的“物质存在”配置和智能行为仪式双重能力。阿尔都塞曾指出意识形态的结构和运行的两个核心论点,即“意识形态表述了个人与其实在生存条件的想象关系”以及“意识形态具有一种物质的存在”[16]。前一个论点意在揭示意识形态作为想象性置换是在表述人们的生存条件和实在世界。后一个论点则意在表明观念之“物”是以实在之“物质”(机器)为基础。因此,阿尔都塞鲜明指出“一种意识形态总是存在于一种机器当中,存在于这种机器的某种实践或多种实践当中。这种存在物就是物质的存在”[16]479。ChatGPT让意识形态机器具体化为人工智能机器这一“实在物”,将“某种实践”或“多种实践”具体化为智能对话的实践。这种转变是意识形态再生产的巨大变革和革命性过程。在阿尔都塞所列举的信仰上帝、职责、正义这三种意识形态的表述中,都产生了不同以往的智能行为意识。比如,信仰职责的仪式化实践就是规矩式地采取行动,上班、上学、开会、体育运动等,信仰正义就是无条件地服从律法规制、参与政治集会等。这种“仪式化”的物质实践活动,在ChaTGPT的智能实践中都获得了提升或转变。
ChatGPT让信仰问题转变为对机器和智能信仰问题,它融合了信仰的上述领域于一身,并智能化地升级了这种信仰的“物质存在”配置,成功地将上帝信仰变为智能信仰、职责信仰变为依赖信仰(人对人工智能的依赖)、正义信仰变为数据信仰。这种对智能信仰的“物质存在”配置的升级使得帕斯卡尔的那句“跪下,开口祈祷,你就会信”,变成智能行动和仪式——“点击,开口说话,你就会信”。在仪式性的智能行动中,阿尔都塞式的“唤问”性主体自然获得了物质性机器的落实。在人与ChatGPT的“唤问”式对话中,主体的观念和意识形态被生产、被塑造、被传播、被支配。出现这种情况的根源在于意识形态依赖的知识、观念等实现了智能生产上的“物质存在”配置升级。意识形态塑造实现了智能加速主义的提升,将“人天生是一种意识形态动物”的“物质存在”和仪式性实践活动变得日益智能化和生活化。
这种认识获得了众多人的承认。比如,比尔·盖茨认为ChatGPT的出现是具有重大历史意义的事件,强调ChatGPT技术的诞生不亚于互联网或个人电脑的诞生;而马斯克则表示“我们离强大到危险的人工智能不远了”[17]。“人工智能教父”杰弗里·辛顿、马斯克和上千名人工智能专家、政商界人士所发出的“暂停更强大的ChatGPT训练”的呼吁,表明人工智能发展到对人类构成威胁“并非不可想象”。意识形态所需的知识和观念来源到了“数据吞咽”与输出的规模、程度和修正的自动化、智能化阶段。在ChatGPT更多融入人类再生产的诸多实践领域之后,意识形态的“物质存在”的智能化配置将变得更加普遍化,智能行为仪式的程度将会更高。人类实践从海德格尔上手的“操劳”变为“动嘴”的活动,人类认知存在和形成自我意识的“操心”活动将变得愈加智能自如。然而,这种由ChatGPT所引发的“操心”活动和意识形态困境将变得越来越难以化解和治理。
三、ChatGPT作为“机器意识形态家”的后果
ChatGPT作为深度对话机器所需的语料库和知识数据库,已经通过开放和开源的方式深入人类生活的方方面面。随之而来的一系列担心也日益增多。纽约大学认知科学名誉教授盖理·马库斯对以深度学习为中心的人工智能方法持怀疑态度,“通过将制造虚假信息的成本降低到几乎为零,ChatGPT这样的系统可能会引发一波虚假信息的浪潮,生成式人工智能对社会结构构成了真实而迫在眉睫的威胁”[18]。马斯克联合上千名科学家发起了对ChatGPT暂停的呼吁,在版权界、教育界、知识界、语言界都引发了作者身份、教育机制、知识生成方法变革和语言机制与独特性的热烈讨论。ChatGPT正在成为“意识形态国家机器”中的“存在论事件”,正在引发国家安全、政治安全、意识形态安全、教育安全、版权安全、数据安全等多领域的风险。有学者担心“以ChatGPT为代表的人工智能通用大模型将可能冲击全球安全互动中的‘主体责任制’,造成安全主体的模糊化与责任缺失、安全客体责任的离散化与安全责任追责难等一系列问题”[19]。其中,在意识形态安全领域将可能引发舆论操纵、价值观渗透、政治误导、干涉内政等问题。“技术霸权国针对他国公众的心理弱点,利用大型语言模型输出意识形态偏好,针对目标国进行潜移默化的意识形态渗透和制度破坏,干涉他国内政。”[20]
从政治传播视角来看,ChatGPT引发“第五代政治传播”的革命性变革,即更加强化受众取向自由,政治传播的“宣传主义”“新闻专业主义”等传统观念或将逐步消解或退场。“生成式人工智能在政治传播活动中能发挥的作用,可能代表着技术在政治传播中的重要性升级。‘政治传播专家’在未来不再单纯指人,而是技术的非偏性、高效性特征加持之下的‘人机融合’之物。”[21]因此,ChatGPT及类似生成式人工智能正在构建一个全新的智能生态网络和“国家”概念,将政治安全、意识形态治理等问题引向“技术政治学”和“智能意识形态学”的深处。
第一,ChatGPT引发数字意识形态进一步智能化、具身化和霸权化。ChatGPT是由“大数据+大模型+大算力”构成的智能对话聊天系统,并正在接入人们工作和生活的各类应用领域。ChatGPT的意识形态权力已经发展为自动信息知识权和自动数据整合权。传统意识形态权力塑造从阿尔都塞的“八大AIE”[16]454-455(AIE为“意识形态国家机器”的法文缩写,“八大AIE”是指宗教、学校、家庭、法律、政治、工会、传播、文化的AIE)延伸至智能AIE机器层面。ChatGPT通过自主机器语言和机器智能统合了既有知识和观念,并在与人的交互过程中交换由机器语言生成的知识形态和意识形态观念。ChatGPT适应了智能媒介社会“分布式社会”权力弥散、传播权力下沉、情感要素具身化的需要。带给对话交互者更加具身的感受性,数字化的“圈地运动”不再仅仅围绕大众的虚拟空间商品生产展开争夺,更是在思想观念、情感情绪的具身交互感受性上展开竞技,并在一系列算法系统中构建出人机交互的智能“舒适圈”。ChatGPT的“算法技术借助被人类所信赖的数据信息进一步与人类的生活、工作融合、互通,并在有意识或无意识状态下将算法推荐信息嵌入人类的选择偏好中,并通过迎合受众喜好来建构可以束缚受众思维的‘舒适圈’,对受众的社会共识、价值选择、认知建构产生影响”[22]。
智能算法“舒适圈”建构了观念和意识形态算法具身性,不论是何种智能算法机制(有限性算法或递归性算法)本质上都是建构人与机器交互的感知适应性和协调性,赢得用户的信任并产生依赖。这样一来,类似元宇宙的“地平线世界”“地平线之家”等概念就是一种在算法和数据主导下的典型的虚拟智能“舒适圈”。然而,这种个体的舒适圈却极有可能被个别意识形态霸权国家或机构所利用,成为主导意识形态渗透或进行“颜色革命”的新武器。“一国可针对他国公众心理弱点来供给带有政治目的与本国意识形态偏好的内容产品,进而影响目标国公众的政治判断和政治选择,间接把控政治走向,对目标国意识形态安全阵地进行隐形渗透。”[23]这种霸权化不仅是政府、机构或公司的,它也连带地造成了个体意识形态塑造的自我霸权化。主体不再将ChatGPT系统作为外在“物质存在”,而将其视为生活、工作的“观念器官”“知识器官”“记忆器官”的一部分,将阿尔都塞意义上的“唤问”形态转化为对智能系统的“自然而然”和自我承认形式。“意识形态的特性就是把显而易见的事情当作显而易见的事情强加于人(而又不动声色,因为这些都是‘显而易见的事情’),使得我们无法不承认那些显而易见的事情,而且在它们面前我们还免不了要产生一种自然的反应。”[16]486ChatGPT正是通过“显而易见的事情”让个体自我实现了意识形态的智能化、具身化和霸权化。
第二,ChatGPT造成虚假意识形态生产、传播的加速主义运动。ChatGPT的知识生成虽然综合了人类既有知识,并在人工标注的情况下减少了错误信息和虚假意识产生的可能性。但是,ChatGPT对于自己不曾掌握的知识有时显得过于“热情”,经常生成一些“一本正经的胡说八道”。“与人类中的任何聊天者一样,ChatGPT作为对话者也会犯错误,存在对话风险。一是对话的真实性问题,它能否完全避免虚假信息和信息偏差,而不‘吹牛’;二是对话的准确性和专业性问题,它是否成了‘伪专家’;三是对话的‘格式化’问题,即无所不能地生成一些格式化的文本来‘搪塞人’。”[24]虚假意识形态不是机器的“专利”,更像是人的“杰作”。人类创造人工智能就是要一定程度上化解因错误偏见和意识形态隔阂所造成的生产效率、协作劳动等低下的问题。然而,ChatGPT作为秉持机器语言的“专家系统”,对于虚假意识形态的生产、传播却具有加速主义倾向。这不是说ChatGPT生成了更多虚假意识形态和错误偏见,而是ChatGPT作为人类生产劳动的智能辅助工具,将可能的虚假意识形态进一步泛化和扩大化传播。这是一种虚假意识形态的扩大化“再生产”。
马克思曾指出:“既然他们作为一个阶级进行统治,并且决定着某一历史时代的整个面貌,那么,不言而喻,他们在这个历史时代的一切领域中也会这样做,就是说,他们还作为思维着的人,作为思想的生产者进行统治,他们调节着自己时代的思想的生产和分配。”[25]这里道出了意识形态生产和分配的关键机制,即“统治阶级”机制。当下的ChatGPT是融合了物质生产和精神生产的“双重机器”,它不仅改变物质的生产方式也改变精神的生产方式。它生产了建立在数字劳动基础之上的数字意识形态。它实现了意识形态产销的一体化、隐秘化和加速化。这可以被称为一种典型的“数字帝国主义”意识形态生产模式,即通过数字资本、数字平台、数字技术、数字劳动者全方位的系统化建构,主导物质生产也主导精神生产并融合成意识形态数字化生产全过程的模式。“数字资本通过建构以数字平台为纽带的数字劳动体系获得操控数字生活世界的强大意识形态力量。数字劳动是按照数字技术为核心的数字资本逻辑而规划的,并衍变为具备强大的意识形态性并隐秘地控制着数字劳动者。”[26]
自《加速主义宣言》发布以来,“加速主义”一词颇受关注。斯尔尼塞克和威廉姆斯的加速主义是超越新自由主义逻辑的宣言,将政治、生产、加速放在一个维度思考今日资本主义问题及其超越可能性。哈特穆特·罗萨(Hartmut Rosa)以加速异化的人类社会生活为主线发展了法兰克福学派的社会批判理论。无一例外,这些“加速主义的理性思辨首先便体现在对技术潜能的识别及其意识形态转化上”[27]。ChatGPT作为生产加速的人工智能机器,将“效率至上主义”发挥到极致,连带着将虚假意识形态问题扩大化,最终就是要解决阿尔都塞意义上“关于生产关系再生产得以实现的总体过程的难题”[16]498。ChatGPT将可视的物质生产与不可视的意识形态生产统一于人工智能机器的加速之中。由于数据样本、数据延迟以及算法内嵌的偏见和不透明性等因素,ChatGPT将意识形态偏见深藏于生产之中、隐匿于产销一体之中、消弭于自动体系之中,实现了个体自动化之下的意识形态生产维度和意识形态霸权国家(机构)整体自动化意识形态生产维度的合流。
第三,ChatGPT让“意识形态国家机器”构型出平台型意识形态。在马克思笔下,意识形态由意识形态家所主导,通过颠倒意识与存在、思想与现实的关系,以思想批判代替实际斗争的方式为资产阶级统治服务。福柯、阿尔都塞、法兰克福学派及迈克·哈特、安东尼奥·奈格里等都在从权力视角、再生产视角、文化工业化视角、形式吸纳与实质吸纳视角,阐发意识形态构建所发生的系统性变化。如今,以人工智能、大数据和算法为技术主导的数字资本主义已经发展出平台型经济模式和在线虚拟工作和生活模式。“意识形态国家机器”所奠基的基础已经转向数字化的智能平台,意识形态的生产、消费、传播都内化于平台之上。ChatGPT将更多接入资本主义再生产的智能平台系统,成为各类新平台接口的关键技术。ChatGPT实现了“意识形态国家机器”构型出平台意识形态的新类型,进而实现马克思所形容的意识形态家“撼世界的”词句的机器学升级和阿尔都塞文化AIE、传播AIE等方面的智能化升级。
ChatGPT是算法资本主义和数字资本主义进一步发展的必然结果,它不仅可能加速生产和剥削,也可能加速意识形态这一生产关系的智能化再造过程。“在算法资本主义时代,算法技术帮助数字资产阶级构建了资本剥削劳动的新型监视和管控空间,不仅形塑了权力政治的新形式——‘算法利维坦’,且重构了资本主义意识形态生产和输出的逻辑。”[28]阿斯特丽德·麦吉尔认为“技术原教旨主义意识形态越来越与资本主义意识形态相一致”[29]。这恰恰表明作为平台的技术公司意识形态、算法意识形态正在发展为资本主义新的意识形态且日益合流。她以搜索引擎为例揭示了这个过程。她以“生物燃料”以及“生物燃料辩论”为主题在谷歌进行搜索,除了基本的知识链接外,谷歌在最为显眼的位置提供了一个商业链接,同时她的虚拟购物车里出现了“绿色汽车”图标。平台在用户的知识搜索过程中,移植消费主义意识形态、虚拟消费理念到个人观念之中。正如克里斯蒂安·福克斯所言:“信息和通信技术(ICT)往往具有商品美学意识形态,其欺骗、隐藏和重新编码了实际的血腥与汗水,使其变成具有娱乐性、充满欲望、外观漂亮、吸引人的设计和生活方式的意识形态。”[30]平台资本主义的建构过程和发展模式不是简单的经济模式或商业模式,而是一种发展了“意识形态国家机器”的生产关系再生产模式。“在平台资本主义运作的整个过程,数据资本权力不但支配包括用户在内的整个平台生态系统,而且对人的观念世界进行再建构。”[31]这也正是“意识形态国家机器”构型为平台意识形态的秘密所在。
四、结语
ChatGPT不是一般的人工智能机器,它是拥有自我语言(二进制语言)、能进行自我思考(算法模型)并产生知识、观念和意识形态的“机器意识形态家”,是拥有“机器之心”的“数字利维坦”。雷·库兹韦尔在《机器之心》的最后一章“2099年:人类的定义被彻底颠覆”中指出:“这些基于机器的智能体完全由人类智能模型衍生而来,虽然其大脑构造并非由碳基细胞演化而来,而是电子和光子的‘对等物’,但它们仍声称自己是人类。这些智能体大都未与具体的计算处理单元(即一种硬件)直接相连。使用软件进行计算的人数远多过使用自身神经元计算的人数。”[32]这段想象的未来学话语恰恰暗示我们今后的人工智能可能是“有心无体”的智能体,可能获得与人类同等的主体地位。未来人类的思维和观念进化模式主要是基于计算和算法的模式,原来人类所理解的意识形态属性已经不是人与机器的意识形态,而是恐怖的(以目前人类意识形态观念观之)“有心无体”的智能体的意识形态。它代表了人类未来意识形态形塑的某种整体性格局。或许,这就是“意识形态国家机器”的机器学转向的最终可能。
参考文献
[1] 赵敦华.西方哲学简史[M].北京:北京大学出版社,2001:42.
[2] 张生.ChatGPT:褶子、词典、逻辑与意识形态功能[J].传媒观察,2023(3):42-47.
[3] 张彦,杨思远.元宇宙的意识形态规训批判——一种阿尔都塞式的分析进路[J].浙江社会科学,2023(4):90-99+159.
[4] 阿尔都塞.意识形态和意识形态国家机器(研究笔记)[G]//陈越.哲学与政治:阿尔都塞读本.长春:吉林人民出版社,2003:364.
[5] 张林.智能算法推荐的意识形态风险及其治理[J].探索,2021(1):176-188.
[6] 蓝江.生成式人工智能与人文社会科学的历史使命——从ChatGPT智能革命谈起[J].思想理论教育,2023(4):12-18.
[7] 朱晓彤.数字技术的意识形态属性与发展进路[J].思想理论教育,2022(11):86-92.
[8] 焦建利.ChatGPT:学校教育的朋友还是敌人?[J].现代教育技术,2023(4):5-15.
[9] 成素梅.劝导式技术的伦理审视[J].华东师范大学学报(哲学社会科学版),2023(2):61-69+174.
[10] B.J.Fogg.Persuasive Technology:Using Computers to Change What We Think and Do[M].ResearchGate,pp.213-222.
[11] 王天恩.ChatGPT的特性、教育意义及其问题应对[J].思想理论教育,2023(4):19-25.
[12] 桑基韬,于剑.从ChatGPT看AI未来趋势和挑战[J].计算机研究与发展,2023(6):1191-1201.
[13] Shin Donghee.User Perceptions of Algorithmic Decisions in the Personalized AI System:Perceptual Evaluation of Fairness,Accountability,Transparency,and Explainability[J].Journal of Broadcasting & Electronic Media,2020(4):1-25.
[14] 喻国明,滕文强,郅慧.ChatGPT浪潮下媒介生态系统演化的再认知——基于自组织涌现范式的分析[J].新闻与写作,2023(4):5-14.
[15] 张梦,虞崇胜.智能时代政治机器人的初步应用、挑战及风险治理[J].华中科技大学学报(社会科学版),2022(5):90-99.
[16] 路易阿尔都塞.论再生产[M].吴子枫,译.西安:西北大学出版社.2019:474,478.
[17] 令小雄,王鼎民,袁健.ChatGPT爆火后关于科技伦理及学术伦理的冷思考[J].新疆师范大学学报(哲学社会科学版),2023(4):123-136.
[18] 赵安琪.ChatGPT席卷全球 人工智能面临“伦理转向”[N].中国青年报,2023-02-16(9).
[19] 高奇琦,张蓥文.主体弥散化与主体责任的终结:ChatGPT对全球安全实践的影响[J].国际安全研究,2023(3):3-27+157.
[20] 西桂权,谭晓,靳晓宏,等.挑战与应对:大型语言模型(ChatGPT)的多样态安全风险归因及协同治理研究[J].新疆师范大学学报(哲学社会科学版),2023(6):1-9.
[21] 苏颖,汪燕妮.生成式人工智能时代的政治传播走向——基于ChatGPT的讨论[J].党政研究,2023(3):34-41+124.
[22] 张爱军,贾璐.算法“舒适圈”及其破茧——兼论ChatGPT的算法内容[J].党政研究,2023(3):22-33+124.
[23] 吉磊,李大琨.ChatGPT技术潜在的政治安全风险[N].中国社会科学报,2023-03-29(8).
[24] 谢新水.人工智能内容生产:功能张力、发展趋势及监管策略——以ChatGPT为分析起点[J].电子政务,2023(4):25-35.
[25] 马克思恩格斯选集:第1卷[M].北京:人民出版社,2012:179.
[26] 温旭.数字资本主义下数字劳动的意识形态批判[J].马克思主义研究,2021(9):149-158.
[27] 姜淑娟,关锋.数字时代的资本主义批判与加速启蒙——当代左翼加速主义思想探析[J].国外社会科学,2020(4):83-90.
[28] 杨又.算法资本主义:重新定义监控和剥削的逻辑[J].毛泽东邓小平理论研究,2022(12):56-64+104-105.
[29] Astrid Mager.ALGORITHMIC IDEOLOGY:HOW CAPITALIST SOCIETY SHAPES SEARCH ENGINES[J].Information communication and society,2012(5).
[30] 克里斯蒂安·福克斯.数字劳动与卡尔·马克思[M].周延云,译.北京:人民出版社,2020:380.
[31] 王卫华,杨俊.平台资本主义下的数据资本权力:生成机理、基本谱系与主要特征[J].福建师范大学学报(哲学社会科学版),2022(3):89-101+171.
[32] 雷·库兹韦尔.机器之心[M].胡晓姣,张温卓玛,吴纯洁,译.北京:中信出版社,2016:303.
基金项目:教育部人文社会科学研究专项任务项目(高校辅导员研究)“数字时代大学生劳动教育研究”(22JDSZ3004);浙江省社会科学规划“高校思想政治工作”专项课题“数字时代大学生劳动教育的理念、方法、路径研究”(22GXSZ019YB)
引用格式:曹克亮.ChatGPT:意识形态家的机器学转向及后果[J].统一战线学研究,2023(4):134-144.