查看原文
其他

杨庆峰:人工智能的想象化及其限度


人工智能的想象化及其限度

                                                                                                  作者|杨庆峰


复旦发展研究院研究员、复旦大学生命医学伦理学研究中心教授




摘要:合理的技术想象有助于技术的健康发展,而过度的技术想象有害于技术发展。就AI 来说,已经出现了一种AI的过度想象化的现象。AI过度想象化的科学基础是AI科学研究出现的一些突破进展,理性基础可以追述到卡西尔和韦伯的神话思维与祛魅思维。人工智能要健康顺利发展,必须要消除AI的过度想象,即对AI有着清晰的理性意识。人工智能的去想象化需要确立一种理性的观念,对科学所提出的一些研究给予哲学的分析。

关键词:人工智能   神话   想象





1


技术想象的两种形式


对想象与技术关系的探讨既有助于理解技术的发展,又有助于理解技术文化。


一方面,人类的想象与幻想是技术发生和发展的推动力。传统观点将需求看做是技术的主要动力,而多少忽略其他非需求因素。也有学者将技术专家或者工程师的想象力看的无比重要,认为正是这些人的奇思妙想才有了各种各样的技术专利和技术器物。这些人中,最为典型的就是达芬奇。一般人很容易接受这种传统观点,但是这种观点被美国技术史学者乔治.巴萨拉(George Basalla)批判。在他看来,这种观念有明显的个人英雄主义的特征。据此,他提出了非专家的想象也对技术的发生和发展起到了很重要的作用,比如科幻小说家、科幻卡通家。这一点在技术史上是有一定的根据的。在智能时代,曾经出现在科幻作品中的用具,比如虚拟键盘、全息投影人等逐渐变为现实产品;


另一方面,人类不恰当的想象又阻碍了技术的发展。比如对人工智能的合理想象导致了未来美好生活的样式,然而这种想象过度化却会导致反面的东西,比如机器人超越和取代人类。随着新技术的层出不穷,新的想象内容应运而生。这种想象实际上已经涉及大众层面了。然而,新技术是否产生新的想象形式会变成疑难问题。如果说想象意味着一种勾勒未知或者未来对象的图像,那么智能技术催生了新的想象形式又变得可能了。诸如GAN等呈现出各式图像以及GPT-3等出现足以验证这一点。


本文要划分两种技术想象形式:合理的想象与过度的想象。


合理的技术想象是指以狂迷形式表现出来的技术之爱符合必要的技术逻辑。必要的技术逻辑是指与技术的现状、发展以及应用有关的特定规律。尼古拉·尼葛洛庞帝(Nicholas Negroponte)的技术想象就属于这一类。20世纪90年代他本人是MIT的媒体实验室的负责人,他对处于实验室阶段的互联网技术做出了畅想,并且勾勒出一幅“数字化生存”的未来图景。所以,他的技术想象是建立尚处于不成熟阶段的技术发明之上,技术发展及应用遵循着特定的社会规律。在合理的想象中,通常会将想象主体看作是技术专家或者热衷于技术研发的人。在这种形式中,有着深藏的对技术之爱,以狂迷的形式出现。如柏拉图所说,狂迷是诸神的馈赠,是上苍给人的最高恩赐。所以爱技术者对于成熟的、现成的技术并不感兴趣,因为这种技术已经丧失了吸引力,狂迷趋于平淡。但是这并意味着合理化想象的主体是技术专家或者工程师。社会大众对不成熟的技术抱有适当的预期也属于此类。比如借助人脸识别技术有可能有效地避免犯罪现象即属于上述预期,这种是建立在合理的技术理解基础之上,对其应用抱有了一定的预期和憧憬。但如果说总体上受制于理性认识,比如警惕科学主义或者技术专治(technocracy)或者对人类价值、自由和尊严的守护为出发点,那么这依然属于合理的想象化。合理的技术想象有助于技术的发展,有时候会成为技术发展的想象动力。


过度的技术想象是指基于人类自身的想象行为对于特定技术和文化对象的“胡思乱想”,而这种想象产生了一种超出理性的结果,比如神话化某物。过度的技术想象既可以使用于不成熟的技术,也可以用于完全成熟的技术。在上面的分析中已经指出,爱技术之人对于处于萌芽、不成熟阶段的技术利用狂迷之想象力可以勾勒出技术成熟时期的生活样态。然而,大众也会产生一种技术想象,这就是从人与技术对立的角度勾勒出一种未来的图景。这种形式多出现在生活世界之中。对于不成熟的技术而言,大众会产生一种奇特的社会心理,就是从完善的未来技术形式出发来进行想象。尽管技术是欠缺的,但是这种想象化依然有效。当前的人工智能想象就是这样一种情况,突出了对人的自主性、尊严等的侵犯和威胁。尽管目前的人工智能只是处于弱人工智能阶段,但是相关的想象性观点已经非常多了。在很多非人工智能专家群体中,出现了乌托邦式和敌托邦式的观点,如超级智能爆炸(波斯彻姆)、超级人工智能体出现等等。对于成熟的技术而言,过度想象会伴随着某种社会价值观表达出来。比如20世纪初西方电报传入中国后,当时中国科技落后,人们对于超前的科技产品缺乏足够的认识,所以电报会带来不好的结果。此外与成熟的技术相关的,就是技术产品的繁多化。巴萨拉曾经谈及过一个观点“技术的魔魅化”。“技术的魔魅化在我们的文化中渗透得如此之深,以至于可以用它来讥讽它产生的背景——技术富余现象。”他所说的魔魅化主要是一种技术主义的表现,即技术可以解决所有的问题,这也是过度的想象化。过度的想象化被一些媒介学者如文森特.莫斯可(Vincent Mosco)称为技术迷思,也就是技术神话。当技术被想象为能够解决所有问题的时候,就是技术神话出现的时候。所以,过度想象化的一个基本结果就是技术的神话化。




澄清两类技术想象之后,接下来可以展开对人工智能这一特殊技术形式的分析了尽管AI概念被提出到现在也不到70年的时间,但是这一技术现象却如同海底沉没多年的舰船,形成了陈年铁锈与各种生态系统。过度的技术想象已经使得人工智能技术文化出现了将AI神话化的迹象了。国内也有学者也开始关注到AI神话化的现象了。“由人工智能所产生的一套话语体系,在这一意义上成为现代人再造的一个新的神话,它一方面表达了人对于技术无限进步的质疑和恐惧,一方面又借助于对它的批判来捍卫人之为人的固有尊严。”技术神话化包括两个方面的来源,一种是作为其推动力的科学技术领域,这一技术领域的突破为AI发展提供了理论与创新动力;另一种是作为其文化语境而存在的各种文化形式,为AI发展提供了滋养与干扰因素。举两个现象就可以看出这一点来:一个是一般智能体取代人类,另一个是超级智能的出现。这两个现象催生了AI的神话化,这些想象物因为其无限扩大的后果而引发了一些猜测和恐惧。这些不同的(如想象的、理性的、科学的)方式都在极大程度上强化了人工智能的神话化。如何面对这一问题?厘清有关人工智能的想象化现象及其根据就成为一个重要的任务。



2


人工智能想象化的科学依据


目前人工智能的范式主要是强、弱人工智能,这一范式英国哲学家弗洛里迪(L.Floridi)倾向用“轻(light)人工智能”和“强(strong)人工智能”这样的表述。他也指出了多种说法,如弱人工智能/强人工智能、好的老式人工智能/新的新式人工智能等说法。在他看来,这关系到人工智能背后的两个灵魂——工程学和认知学的争议。比如我们把它称之为“人工智能领域技术层面的强弱之争”。强、弱AI具有不同的科学基础。今天的弱AI主要是在辅助与智能进化的低级程度而言,用现象学的术语来说,属于“被动智能阶段”;而强人工智能更多是指基于特定算法而生的智能体,以及通用智能(AGI)而言,属于“主动智能阶段”。就通用智能来说,它也构成了科学与哲学在人工智能的争论认识上的另一焦点。这一争论的实质是AI是否能够具有通用意识。在以往的研究中,我们也指出过目前通用人工智能研究遭遇到的一些困境,比如灾难性遗忘。这一困境已经有了应对之策。
在超级人工智能研究上,许多关键性突破逐渐为人类取得。首先是从无到有生成的智能体正在出现。DeepMind正在提出用环境促进智能生物体的出现。在该系统中,只有环境,而没有智能体。其次是AI智能体可以学会动物进化法则完成自身的进化。李飞飞等提出深度进化的RL, 他们提出了一种新的计算框架——深度进化强化学习(DERL),基于这一框架创建的具身智能体可以在多个复杂环境中执行多项任务。“该研究不仅提出了新型计算框架深度进化强化学习,并通过形态学习首次证明了达尔文-鲍德温效应。形态学习是自然界动物进化必不可少的技能,现已在我们创建的智能体中展现。”再次,悄然生成的智能体已成为可能。2021年一篇由曼努尔.阿勒夫色卡(Manuel Alfonseca)等人发表的论文指出了这一点。文章指出,由于计算本身固有的限制,人类可能无法制止超级人工智能。这一文章指出着超级人工智能的生成可能不为人们所察觉,此外,当它生成之后,我们就无法制止其发展和形成了。关于智能体的发展不能不引起人们的警惕,如果说传统人工智能都是建立在无机智能体的基础上,那么已经出现了将有机智能体作为AI基质的迹象。2021年,一篇发表在ICLR会议上的论文显示:研究者们黑进了果蝇的神经网络,用来跑NLP,结果发现非常节约能耗。这一项研究意味着入侵其他生物体大脑的可能性。果蝇的脑蘑菇体神经网络主要是嗅觉,能够感知温度、湿度和视觉的神经元输入,由一群Kenyon细胞构成。研究结果显示“训练果蝇网络需要的计算时间比训练传统的NLP架构需要的计算时间要少一个数量级。”这进一步说明了智能体与有机体的有限融合。
在人机关系上,人工共情突破的曙光似乎也在眼前。2018年,神经科学专家蒲慕明提出一个问题:神经科学应当向共情(empathy)这一关键哲学问题进军,并揭示出其神经机制。当前这一问题基本得到了解决,科学家已经揭示出共情行为的神经环路。斯坦福大学神经科学和行为学系罗伯特.玛莱卡(Robert C. Malenka)研究团队揭示了共情行为的神经机制,在社交过程中小鼠通过不同的神经环路传递疼痛或恐惧情绪。在人类和啮齿类动物中控制共情行为最重要的脑区当属前扣带皮层(ACC),该脑区与调节情绪和动机行为的丘脑、岛叶、杏仁核和伏隔核(NAc)等多个大脑区域之间存在投射连接,进行信息交流,其中ACC-BLA环路编码恐惧信息的共情行为,而ACC-NAc的神经环路编码疼痛和镇痛的共情行为,分工细致,各司其职。这些科学上的进步——来自计算理论以及神经科学能够为人工智能的研究提供坚实的科学根据。
以人工智能的GPT-3为例来看,这项算法的表现引起了世界的关注。2018年GPT第一版发布,包括了1.17亿个参数;2019年第二版发布,包括了15亿个参数;之后GPT-3拥有1750亿个参数。其主要特点是训练数据集异常庞大,可以根据我们输入的自然语言去完成任务,尤其是经过特定的训练从文本描述中生成图像。在图像生成方面,GAN与GPT-3可以做的很好了,可以说是通过了图像的图灵测试。上述科学的进展可以让很多人获得信心:AI发展已经展示出独特性,目前智能体已经能够很熟练地使用自然语言,生成场景或者对应图像;智能体可以通过特定的环境生成、智能体能够学会动物进化。这些技术上的突破与发展为人工智能的想象化提供了科学的根据。



3


人工智能过度想象的理性根据


如果说过度的技术想象的结果是将某物神话化,那么讨论人工智能的想象化与去想象化不能不关联到20世纪初的马克斯.韦伯和恩斯特.卡西尔。前者抓住了科学理性祛魅宗教价值的社会现象,而后者则从阐述了文化理性扬弃神话思维的本质。
韦伯讨论了宗教价值观念在理性化的名义下被世俗化之物取代的问题;尤其是指出,现代科学在宗教非理性化过程中起到了重要的作用。这个现象在“附魅与祛魅”的辩证范畴中加以探讨。“现代科学,要为后一个阶段的发展负责,起初是被作为一个有序的价值创造替代系统所欢迎,因为韦伯在培根的‘科学作为通达真实自然之路’和笛卡尔的‘科学作为通达真实上帝之路’信念”发现了这些。”韦伯因此也将现代科学看作是虚无主义的一个代表。从韦伯的观念中我们看到的是科学对于世界观和宇宙秩序产生的祛魅化结果,这种祛魅的实质是对宗教价值理念及价值秩序的摒弃。这种强调后果分析的祛魅分析呈现了科学如何神话化自身的一个问题。究其实质而言,从技术想象角度来说,构成了过度的技术想象的理性根据。然而,这还不足以深入到理性层面。



要深入到神话思维的本质那就得依靠卡西尔。他的工作贡献是三方面的,第一是分析了神话思维的本质。他对神话思维本质的界定主要体现在形式论观点,即神话作为思维形式、直观形式和生活形式。第二是揭示出文化世界源出神话世界的逻辑过程。神话对于卡西尔来说,是文化的源头,这是从先天意义上的表现出来的。他向我们揭示了概念思维的本质——符号与内容、意义与内容的分离——如何从神话思维中发展起来。因此,卡西尔的贡献是发生学意义上的,即从文化逻辑发生的角度揭示了文化世界的发生必须建立在对神话世界的扬弃这样一个基础上。“人类文化世界或许可以用这种巴比伦传奇的话来描述:直到战胜和征服神话的黑暗,人类文化世界才能够产生;但神话的魔怪尚未被完全清楚,它们被用来造成新的宇宙,而且它们在这个新宇宙里存活了下来,神话的力量被优秀的力量挫败和征服了;只要这种优秀的、理智的、伦理的和艺术的力量足以强壮,那么神话就会被控制和征服,但如果它一旦失去其力量,那么混乱就又来临,神秘的思想又开始重新高涨,弥漫于整个人类的文化生活和社会生活。”第三是分析了神话在现代性中的复活,也就是现代政治神话的现象。他在《国家的神话》中首先分析了卡莱尔和黑格尔在现代政治神话起源中的作用;之后确立了对现代政治神话的批判。“我们应该仔细地研究政治神话的来源、结构、方法和技巧。为了认识对手、战胜对手,我们必须面对面地观察对手。”卡西尔最大的贡献在于开启了对政治神话的批判,之所以如此,也是可以理解的,卡西尔经历了两次世界大战,他彻底体会到了现代性神话(如国家神话、战争神话等)的表现。而技术对于他来说,反而不是其关注的主题。但他对于我们理解技术神话化来说的重要贡献在于重新让技术魔魅化。
可以看出,韦伯、卡西尔两位学者从“祛魅”、“扬弃”角度阐述了科学与宗教神话的关系,最终使现代性神话(科学神话、政治神话等)得以确立。但是要做出“他们开始了对技术神话的剖析”的观点还尚早。韦伯最多谈到了“铁笼”比喻,而卡西尔并不关心技术。从逻辑上看,技术神话的批判必然会在政治神话之后开启。从20世纪的一段历史可以看出,技术继战争之后成为人类命运的主导。在揭示这一点上,媒介学者走在了前面。文森特.莫斯可(Vincent Mosco)的《数字化崇拜》对数字神话现象进行了理论上的反思。他指出数字技术带来了包括历史终结、地理终结和政治终结的三种神话。“的确,赛博空间在我们时代的三种神话发展中是一个核心动力,这些神话都与一种终结的景象有关:历史的终结、地理的终结以及政治的终结。本书的目的就是要理解这些,以增进对电脑传播的权利和局限的认识。”作者指出,神话是一种有待揭露的对现实的歪曲,对那些完全无法驾驭的问题并在想象或梦境中创造出那些在实践中无法成为现实的事物,从而赋予生活意义。


在上述分析中我们将对象神话化的方式归纳为三种不同的类型:与价值祛魅有关的神秘化、被扬弃的神话思维和神化的崇拜行为。在人工智能神话化问题上,一些学者指出,这是对人工智能赋予了想象性内涵,将人工智能的功能特征看做是人之属性的复制。“但在对人工智能的反思和批判中,我们似乎过多地为这一技术赋予了想象性内涵,将这一技术进步所完成的‘深度学习’当做对人之独特属性的复制。” 除了上述维度,我们还可以挖掘出更多维度。
(1)AI终结人类。这种终结具有三种意义,其一是进化意义上的终结,人类进化已经表现为技术的进化上,而机器进化成为这种进化的关键形式,机器进化使得人类自身变得退化;其二是取代意义上的终结,在很多情况中,机器取代人类已经变成了普遍,自动货车、无人飞机等等都是如此;其三是超越意义上的终结,当奇点与图灵测试被突破,就会实现这个意义上的终结。目前人工智能通过图灵测试从视觉上已经变为现实,其他感知的突破会相继实现。
(2)AI史源论的构建。所谓史源论的构建是指对人工智能史的神话构建。“史源论的一个特征是,把神话材料吸收到以历史之物作为媒介的思辨中去。神话中的各种故事首次被转化为历史中的各种事实,诸神首次被转化为历史人物,就是通过史源论。”现在人工智能的研究已经出现了一种迹象,阿德里安娜.梅约(Adrienne Mayor)指出,第一个行走的机器人是被称为Talos的青铜人。这部作品从神话中挖掘着人工智能机器的起源。
(3)这种人工智能神话化还表现为祛魅意义上的神话,也就是祛除了人类中心主义伦理学的魔魅,正在催生“物的伦理学”,这种伦理学完全是对传统伦理学的冲击。在这一框架下,“机器人的偏见”、“机器人的权利”等都成为一个个新的概念,很显然将人类中心主义的伦理学之权威性给予颠覆;此外,对人工智能的崇拜已然产生,超级智能体似乎具有维持正义、绝对公平的能力。其中,对于人工智能的恐惧却在现实中表现较少,更多是某些强调敌托邦效应的科幻电影和小说中呈现出来的形象。
(4)人工智能作为掌控、筹划人类社会未来的可能性。超级人工智能具有一种这样的趋向,随着智能科学自身取得的诸多突破,超级智能体的发生不再是完全地空想,而是具有了一定的科学基础。如此,这种结果既可以导致对人工智能的崇拜,也可以导致恐惧。甚至是出现了一种情况其结果就是“人工智能作为现代人某种神话体系的再造,正在借用人们对它的过多想象重新诠释着一个无法被人工智能所替代的人之本质的规定。”



4


加剧的疏离感:想象化的限度


在前面已经指出,对AI的过度想象会造成AI的神话化结果,而要抑制这种结果就必须克服AI的过度想象。建立与AI的亲密关系,形成一种人与世界的非对象性关系。一些哲学家指出,认识、熟悉感与回忆构成了生命充盈的力量。我们在罗素哲学中找到了类似的描述,“我们时常感到可感的环境中的某种事物是熟悉的.....在我们以前时常去过的地方,比如家里或熟悉的街道,我们通常拥有这种感受。”“绝大多数的人和动物都发现,在周围熟悉的环境中度过大量的时间对于他们的快乐来说是必要的,并且当可能发生任何危险时,这种环境尤其令人感到安慰。”还有伽达默尔提出,“生命有记忆,通过体验,生命变得更加丰富,通过从穿行于生命的循环过程它增长了自身。……生命的原则以及其他思维和回忆的原则如何是一个以及某种方式上是不可分离的。”这意味着他们同时也构成了生命体与其所处的环境的特定关联形式。


然而,熟悉感这一生命充盈的力量却变得枯竭起来。尽管我们生活在一个充满人工智能体的世界,如产业领域的机器人、商业领域的算法技术、消费领域中的智能摄像头以及生活领域中的各类可穿戴智能手表、健康监测等。但这一切并没有形成海德格尔所说的“人在对象之中”的生存论关系,反而是技术促逼本性的显现。数字对象、算法对象以及智能对象的陌生本质依然存在着,人类与AI之间不断强化的疏离感正在削弱人类与智能环境的熟悉和亲密关系。这一点一时难以被接受,因为我们已经生活在上述技术物品的包围之中,甚至从哲学的角度来说,我们已然生活在技术时代,然而并没有形成与技术的亲密关系,反而一种疏离感显现出来。


首先是由于技术缺陷使得AI疏离感得以产生。由于智能机器外形缺陷而产生的陌生-疏离感是技术缺陷导致的AI疏离感。我们都知道人工智能体的多重存在形态,这些智能体可以是纯软件,如语音助手、图像分析软件、搜索引擎、语音和人脸识别系统等,也可以是各种嵌入硬件设备,如先进机器人、自动驾驶汽车、无人机或物联网应用等。如果仅仅从功能实现的角度考虑,这些智能体完全不需要具备人类一样的外形,通过类人方式来获得对AI的亲近感。它应该通过实质性的方式实现类人,比如“像人一样理解和表达情感、像人一样思考和行动。”科罗拉多大学和杜克大学的研究人员开发了一种神经网络模型EmoNet,该模型能够准确地将图像与11种不同的情绪类别进行配对。对于这种方式我们也会提出一定的质疑,即便机器能够像人一样思考、行动和理解表达情感,那么它是符合人类主导-机器辅助的原则的,但是自身的独立地位依然难以确认。对于这一点,神经科学界关于动物共情的研究已经揭示出恐惧和疼痛传递的神经机制,那么,研制出具有共情的AI会成为下一步的必然目标。如果外形类人,那么往往会消除特定的陌生感,功能的类人也会推动这种陌生感的消除。然而,恐惑谷效应却是不可避免地。
其次是由于科学理性要求对人工智能从计算理性加以规定直接导致了人类情感上的疏离。目前随着AI深度学习层级的增加,深度学习算法变得不可解释已经成为公认的事实,不可解释的AI, 深度学习、强化学习、生产性对抗网络(GAN)、AI虚拟人脸合成系统,这些不可解释的算法应用让我们产生了疏离和担忧。我们看着逐步变换的脸庞,却无从把握住“它是谁”这样的问题。某一时刻,GAN生成了与“我”类似的脸庞,通过了人脸识别装置,机器将其判定是“我”在操作。这种结果是直接导致了人类情感上的疏离,技术是一种无从琢磨的东西。
第三是充满反面技术形象的技术文化使得人类产生了恐惧和畏惧的社会心灵。技术文化源自与科幻小说和电影有关的文化形式。我们都知道,科幻电影塑造了大量的邪性机器人形象,让人们对其产生了恐惧和疏离认知,如《终结者》中T-800、《超能陆战队》里面的磁力机器人。这些科幻电影多少源自技术想象的结果,通过媒介制造了一种关于人与机器对抗的敌托邦场景。准确地说,他们塑造了反面的技术形象,这也使得人与机器之间的疏离感产生变得必然。
如果说,人工智能与人类的疏离感不断加剧,那么这必然会导致一种对象化的产生,也必然会导致一种人工智能神话的出现。尤其是当人类的自由想象与智能科学的突破偶然地吻合在一起,后者对前者提供了足够坚实的质料,那么这种神话化的发生变得不可避免。


5


寻找熟悉感:去想象化的哲学之路


建立AI与人类熟悉感的外在路径还是可以找寻到的:完备技术让人更加相像、可解释的算法以及正面的技术文化的建立。那么内在路径的情况如何呢?共情可以成为一条可选择的道路。随着人工共情研究的深入以及神经科学研究的突破,这一路径获得了更为扎实的基础。然而,在这一条路却存在着三个制约
1)作为哲学问题,共情很晚才进入到哲学的视野中,成为哲学研究对象。在哲学史上,这一概念与同情(sympathy)具有同源词根,其内在关联也是一个有待于澄清的难题;胡塞尔的学生埃迪·施泰因(Edith Stein)是第一个专门研究这一问题的现象学家。从总体来看,这一问题的哲学分析远远不够,尚不成熟;
2)作为科学问题,共情的神经机制突破是针对疼痛和恐惧的传递。可以说,从恐惧入手抓住了问题的关键。在黑格尔那里,恐惧是自我意识诞生的源头,而机器恐惧是机器自我意识发生的关键所在。除了算法限制让我们无法察觉机器自我意识的发生,还有我们无法洞察到机器恐惧的内核,这更加使得我们无法触摸到机器自我意识诞生的关键所在。然而,疼痛却并不重要,这毕竟属于肉体层面的现象了。
3)作为技术问题,人工共情的实现基础将是实体论的。在共情的技术实现上,通常的做法是让与共情有关的神经回路通过深度学习算法加以实现。这与情感算法的实现有着一致之处。这样做存在的一个最大问题是忽视了情感与共情的根本差异。对于情感来说,看做是某一特定实体的属性具有哲学上的根据,而共情很显然并非这样的东西,它是不同主体之间的一种关联。要技术实现这一点首先面临着一个不可回避的悖论。所以这一条通路有着明显的局限。


要构建亲密智能体还需要要依托人工智能的定义。“人工智能通常指的是能够感知周围环境并采取行动以实现最优可能结果的智能体”。这个定义中呈现出一个关联性概念,也就是说人与情景环境之间的一种关系确立,但是从现象学上来说,这种关系是抽象的,需要加以充实。充实可以通过两种方式来实现,一种是经验学习的关系,也就是感知维度的挖掘。智能体能够“从经验中学习”,数据式经验的获得成为熟悉感和认识的来源。这种机器学习获得的经验是一种新的经验形式,从理解的角度看,需要纳入到人类新经验形式之中。另一种是回忆关系的确立。智能体具有回忆行为而不是信息存储的机械保持变得更为重要。李德毅院士提出“记忆优于知识”等观点都可以概括为给AI增加点记忆。这并不意味着在功能-属性角度增加一点不同于认知、情感等元素,而是对于生命本身进行思考的结果。增加点记忆,意味着对智能体的理解展现了与生命相关的亲密维度,“记忆优于知识” 强调了生命中记忆高于理性的维度维度。而这一维度的丰富将有助于我们更好地理解自身生命及其亲密智能体的本质和意义。


结语

本文旨在表明这样一个观点:AI要健康发展,必须防止对AI的过度想象,也就是防止神话AI的出现。然而,在当前已经出现了AI神话的迹象。如果我们接受这一观点,那么为这种想象划定界限在逻辑上就是必要的。分析技术想象的限度其根本目的在于防止AI神话的出现。本文从三个方面展开对限度的分析:


一是将技术想象限定在合理的范围内。文章一开始就指出,合理的技术想象有助于技术的健康发展,而过度的技术想象有害于技术发展。合理的技术想象可以给予技术创新以动力,在技术史上我们可以看到,人看到鹰、鸟借助翅膀于是也设想着拥有一双翅膀让自己飞翔,这种想象是促使新的技术出现的原始动力。基于当前的AI科学的事实研究和技术成就是非常重要的,也只有这样才能够让技术现象建立在经验事实之上,成为合理的技术想象;


二是洞悉过度技术想象背后的因素。那种过度想象如20世纪初的人认为铁路会切断风水一般,在今天就会成为难以理解的。然而过度的想象背后总是有着特定的文化与价值观念在起着支配作用,比如传统的对技术的抗拒传统。只有当这种特定的观念被加以引导、改变时,过度的想象才会消失。对于中国的人工智能而言,要健康顺利发展,必须要消除AI的过度想象,一方面需要对于科学领域内对于超级AI或者通用AI的研究的发展情况有足够的把握;另一方面还要警惕由某种特定的文化形式导致的技术恐惧观念;


三是AI的神话化必然会造成AI与人类之间的必然疏离。而要抑制这种结果重新建立其人与AI 之间的亲密关系。只有新的亲密关系得以构建,AI神话的消解才成为可能。另外,亲密性的提出为可信的AI确立起不同于“技术透明性”的根据,人工智能需要和环境之间建立起一种亲密关联,这是AI伦理的必然要求。

所以,去想象化是应对AI过度想象的一个必然方式,在展开上存在着多种方式,正如上文分析到的,特定价值观念的引导和改变、AI神话化的实质认识等等,都需要去实现,只有这样AI的健康发展才能够实现。


本文系国家社科基金重大项目“当代新兴增强技术前沿的人文主义哲学研究”(20ZD&045)阶段性成果。



来源|苏州大学学报

图源|网络

排版|张梦瑜




    往期回顾

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存