查看原文
其他

周敏 | 人机共同体想象:以《像我一样的机器》为例

周敏 机器人人文 2023-11-04

作者简介


周敏 杭州师范大学外国语学院教授,杭州师范大学文艺批评研究院研究员,主要研究英美文学、西方文论。

摘要:人类创造机器人的初衷乃是渴望一个更好的自我,希望它能拯救人类;同时人对这个机器人又心怀恐惧,担心被它所取代。由此带来一个崭新的伦理困境:如何在人机共存的新时代构建出和谐共存的人机共同体。《像我一样的机器》为这个问题提供了想像性答案。借助阿甘本的生命政治哲学,埃斯波西托的共同体理论,以及阿西莫夫的机器人三定律等,可以看到小说主人公查理等和机器人亚当所构成的人机共同体之中的理解缺位、人机矛盾,以及伦理困境等问题。因此,面对一个人工智能时代的到来,人类不该像工业革命时期的勒德分子那样,而是应当走出人类中心主义的牢笼,重新反思自己对待机器人和人工智能的方式,因为在一个人机共存的空间,人类与机器之间不应该是主仆关系,相反,他们是彼此的构成性他者,共同填补了共同体的“空”,并使得人机共存的空间成为共同拥有的礼物:人机共同体。

关键词:麦克尤恩、《像我一样的机器》、人机共同体、伦理困境

原载《外国文学研究》2020年第3期;本推送省略注释,完整版请参见刊物或知网。


《像我一样的机器》原版封面


如果会思考、有情感的机器人进入人类的生活,即在人机共存的情况下,人类的共同体构成会发生变化吗?人类与其所创造的机器人能够和平相处吗?机器人会成为独立的人格主体吗?进而,他们能成为道德主体并承担伦理责任吗?麦克尤恩的《像我一样的机器》(Machines Like Me,2019)给出了以上问题的想象性答案。麦克尤恩当然不是第一个在小说中创造出类人机器的写作者,最为读者所熟悉的当属玛丽•雪莱的《弗兰肯斯坦》(Frankenstein,1818),虽然其中被科学附体的卡西莫多式“怪人”能否被归为机器人并无定见,但这部小说无疑开启了人与类人机器如何共处的伦理思考。相比科学怪人的悲惨命运,意大利童话故事《木偶奇遇记》(The Adventures of Pinocchio,1880)的主人公匹诺曹,虽然同样是被人所创造,但因为自己的善良,最终被蓝仙女变成了真正的小男孩,成功融入人类社会。更早一些,中世纪的时候其实已经出现了机器人的早期形式,比如罗杰•培根(Roger Bacon, 1214/1220–1292)所造那个可以预测未来、但最终也被毁掉的“铜头”(the brazen head)。随着科学技术的发展,机器人以前所未有的方式介入我们的生活,人机共存的现象正逐渐演变为我们的日常存在。《像我一样的机器》正是这样一部想象了当机器人进入人的日常生活,甚至是爱情生活的后果的虚构佳作。小说于2019年4月出版后,曾获毛姆文学奖的英国小说家马赛尔•索鲁(Marcel Theroux)在《卫报》发表书评,称这部显示了麦克尤恩杰出讲故事才能的小说令人愉悦,但也存在着深刻的令人不安之处,是一部关于机器人的敌托邦(dystopia)作品。迪怀特•加纳(Dwight Garner)认为这是一部包含着极大智慧的观念小说,通过对机器人的人格的描写,麦克尤恩提出了对人格以及人性本质的深刻思考。阿莱克斯•普莱斯顿(Alex Preston)指出,通过对人工智能带来挑战的描写,这部小说反思了一个更为宽泛的问题,即进步的代价。尚必武从文学伦理学批评的科学选择与伦理选择的角度指出,“以亚当为代表的机器人与以查理和米兰达为代表的人类之间的矛盾隐喻了科学选择和伦理选择的冲突,而亚当的毁灭则揭示了机器人之于人类道德生活介入的失败”。在奥利维亚•霍(Olivia Ho)看来,作为一部观念小说,《像我一样的机器》非常聪明;作为一部情节小说,它整洁有序;但作为一部情感剧,它未能引起引起读者太大的共鸣,尤其是主要人物的命运发展,倒是一些次要人物,比如偶尔提及的女性机器人夏娃的命运,令人揪心,却未展开。毋庸置疑,这是一部关于机器人进入到人类生活空间的小说,不管是把它看成敌托邦小说还是观念小说,其核心要义乃是考量人机共存所带来的文化与伦理问题。本文将从批评家们较少涉及的人机共同体的角度,探讨人与人工智能之间的共在模式和伦理关系,进而思考人机共存的可能性。

西方古代“铜头”传说

“铜头”与受惊吓的培根弟子

一、人机共同体的理解缺位

麦克尤恩将故事的背景放在了20世纪八十年代的伦敦。那是1982年,与真实历史不同的是,在小说的想象世界里,英国输掉了马岛之战,玛格丽特·撒切尔败给了工党的托尼·本恩。肯尼迪逃过了达拉斯的致命子弹,列侬也没被歌迷杀死,披头士乐队重组并发布了新专辑。无人驾驶汽车已经行驶在大街上。最为重要的是,计算机之父艾伦·图灵没有自杀,还在人工智能研究上取得重大成果,制造出了小说的主人公、作为人类伴侣的智能机器人亚当。这些背景共同构成了小说的发生逻辑:倘若/如果(what/if)。麦克尤恩把一个未来智能机器人的故事放在了假想的过去,其中包含着两个维度:未来的历史和历史的未来。从未来看历史,过往可能完全被颠覆:比如与历史上英国打败阿根廷赢得马岛战争不同,小说中英国败了;而从历史看未来,假如这一切发生,这未来会是我们想要的吗?这些看似与主题发展关系不大的历史背景,实际上是麦克尤恩想令我们思考的地方:假如智能机器人提前(在英国的八十年代)来到,我们准备好了与他们相处吗?如果没有准备好,后果又会如何呢?综合起来,这种新型的共同体形式会带来什么样的思考?

诚然,对于作为“类存在物”(species being)的个体来说,不管愿意与否,共同体都是我们的存在方式,就像人类需要故事一样,人类也需要共同体,因为没有人是一座孤岛。正如亚里士多德所说,凡是不属于城邦的人,如果不是野兽,就是一位神祇。城邦就是共同体的早期形式。共同体是个人自由的基础,个体也只有在共同体中才能获得完备的伦理存在。黑格尔正是从家庭、市民社会、国家这些共同体形式中看到了普遍的伦理意志。在这个意义上,我们或许可以说,一部文学史,就是一部共同体书写史,这部共同体书写史,也是一部伦理思想史。正如聂珍钊所言,“文学描写社会和人生,始终同伦理道德问题紧密结合在一起”。希利斯•米勒在《小说中的共同体》中分析了六部小说中的共同体书写,既有现实主义的,也有现代主义和后现代主义的作品。米勒希望通过对这些小说中的共同体的阅读和分析,促使读者反思自己所属其中的共同体,并改变自己的行为。

《像我一样的机器》中的共同体构成与米勒论著中所分析的任何类型的共同体都不相同,其所涉及的是人与机器共存的共同体形式,其中的机器人乃是人的创造。这个共同体是建立在如前所述的倘若/如果逻辑上,是一种尚未发生的想象共同体,是从假想的1980年代出发设想的一个由男人、女人和机器人构成的未来共同体形式。与圣经《创世纪》所记上帝按他的形象造男造女类似:小说中机器人也是有男有女,其中有12个亚当,13个夏娃。小说男主人公查理是伦敦人,曾学过人类学。他靠炒股维生,没有稳定工作,生活几乎入不敷出。凭借继承母亲遗产得来的收入,查理斥资八万六千镑买了一个“人造人”(artificial human),因为“机器人,复制人,复制品是我的激情”(“Robots, androids, replicates were my passion”)。由于夏娃售罄,他只能买了亚当回家。令他略感安慰的是,使得人造人技术成为可能的图灵拥有的也是亚当(考虑到图灵的性取向,这个应该不难理解)。小说的主要情节比较简单:机器人亚当和男主人公查理都爱上了女主人公米兰达,最终因为米兰达,男主人公查理干掉了他的机器人情敌亚当。对于擅长描写爱情的麦克尤恩而言,这个故事并不扣人心弦。但如奥利维亚•霍所言,小说所探讨的关于人与机器的理念,特别是人机共存情况下的新型共同体构成问题,发人深思。

小说的核心矛盾是女主人公米兰达所牵涉的一宗法律事件,这个事件构成了小说情节发展的一个叙事动力。凭借强大的数据搜索能力,机器人亚当在见到米兰达之前就警告迷恋她的查理不能信任她,因为她向查理隐藏了一个关于自己的可怕秘密:“根据我刚才几秒钟的研究以及我的分析,你不应该完全信任她。〔……〕她有可能是个骗子。她的谎言是系统而且邪恶的”。后来我们得知,米兰达的朋友玛利亚姆曾因被人强奸而自杀,而强奸犯科林奇并未受到惩罚。为了给朋友报仇,米兰达引诱科林奇与自己性交,之后控告其强奸并致其入狱。亚当和查理的困境在于,要不要把真相告诉法庭。一个更加复杂的情况是,在此过程之中,亚当爱上了米兰达,与她上了一次床,为她写了2000多首俳句表达爱意;此外,查理和米兰达决定收养一个被父母虐待的小男孩马克,如果米兰达被控告,他们将失去抚养权,马克也命运堪忧。最终,由于亚当坚持“真相就是一切”,米兰达被判入狱六个月,气急败坏的查理用一把锤子结果了他。

由此,《像我一样的机器》探索了如果人类创造的智能机器人在智识上超越了我们(能够发现米兰达的秘密、帮助查理炒股挣钱等),会产生什么后果的问题。麦克尤恩从机器人的视角使我们看到,对机器人最困难的是,尽管他们十分聪明,却无法理解人类世界明显的矛盾,比如:我们明明有能力治愈很多疾病,却放任数百人死于疾病;我们明明知道地球是唯一的家园,却从未停止对环境的破坏。“我们与这种折磨并存,甚至不会感到惊讶”。查理后来从图灵处得知,二十五个机器人中,不少都命运悲催,就因为无法理解人类的行为,有的机器人甚至自毁功能。尽管如此,作为人的被造物的机器人希望人类能够接受与潜力巨大的智能机器人的共存。亚当曾试图告诉查理:

世界现在是如此相互连接,且不管这种连接方式多么粗放,变化的影响如此之大,以至于人们很难想象进步会是何状。我不想吹牛,但其中一个变化就在你的眼前。智能机器的潜力如此之大,我们真不知道你们人类文明到底启动了什么。其中一个焦虑就是,与比你们更加智慧的机器一起生活将是令人震惊和侮辱性的。但其实每个人都认识一些比自己更聪明的人。最重要的是,你们低估了自己。

从图灵对于机器人的理解以及机器人亚当对查理所说的话中,我们看到,虽然人类与机器因为共享生存空间而结成共同体,他们之间其实缺乏理解,遑论同情性理解。机器人按照被人类设定的程序进入到人类的生活之中,但他们的学习能力还不足以帮助他们理解人类生活的矛盾之处,他们无法完全理解人类的感受。同时,我们看到,人类对机器人也缺乏理解,更是无法容忍他们表现出高于自己的智能。人作为智能机器人的创作者,其目的是为了满足人类自身的需要,因而在人的眼中,机器人只是客体,只是他者,并不享有与人对等的主体地位。人和机器这种主客二分的共存关系使得人机共同体这个存在空间,成为了阿甘本意义上的例外状态,一个无区分地带(zone of indistinction)。这是一个晦暗的空间,一个悖论性的领地,其中机器人的生命不过是赤裸生命,机器人则沦为了神圣人。按照阿甘本的看法,由于神圣人(homo sacer)被排除在人的世俗领域之外,杀死他算不上犯法,同时,由于他不能被祭祀,因此也被排除在属神的领地之外。因此神圣人有两个特点:第一,“杀死他而不会受到惩罚”;第二,“他禁止被祭祀”。他既不属人,也不属神,因此处于一种双重例外的状态。神圣人所面对的是一种暴力,这种暴力在法律之外,可以杀死他而不受制裁。虽然阿甘本是在政治哲学的领域讨论生命政治的问题,这种例外状态的神圣人的困境其实正是人机共同体中机器人的境遇:查理杀了亚当,却根本不用承担责任,而亚当也不会成为祭祀的供奉,最终被堆在仓库了事。导致这一悲剧发生的一个重要原因,是机器人对于人类道德模糊的不解,同时,也是由于类似极权主义的人的傲慢,直接导致了对机器人的算法选择的理解缺位。

《未来的夏娃》书影

维里耶•亚当

二、人机共同体的结构矛盾

早在19世纪,文学作品中就开始出现人机共存的想象书写,其中多数人机关系是紧张、敌对的。如前所述,弗兰肯斯坦所创造的“科学怪物”最终成为了创作者的噩梦。19世纪法国作家维里耶•亚当(Villiers de L’isle-Adam, 1840—1889)在《未来的夏娃》(L'Ève future,1868)中讲述了人造机器女人与青年男子洛尔·埃瓦德相爱最后却死于海难的故事。这个人造女人的名字叫安卓(Android),正是机器人另一种流行的称谓。“机器人”(Robot)一词则起源于捷克作家卡雷尔·恰佩克(Karel Čapek,1890—1938)的三幕剧《罗素姆的万能机器人》(Rossum’s Universal Robots,1920),这个词源于捷克语的“robota”,是“苦力”的意思。剧中的科学家罗素姆制造出了大批的机器人像苦力一样为人类工作,不堪折磨的机器人最终倒戈,联合起来成立了自治组织,最终几乎消灭了全人类。唯一的幸存者阿尔奎斯特最后哀叹道:“为了我们的私利,为了利润,为了所谓的进步,我们把全人类都葬送了!”这些作品反映了人机共同体中人机对立以及人对其创造物机器(人)的恐惧无意识。麦克尤恩当然不是为了重复科幻小说中的类人机器人而书写《像我一样的机器》,事实上,据劳里斯(Jill Lawless)的说法,麦克尤恩本人并不认为这是一部科幻小说(这还惹恼了一些科幻迷),相反,他认为这是一部老式小说,探讨的是由技术引发的伦理问题;而由技术引发的道德和伦理问题,从根本上来说,是由人机共存的共同体所引发的。

关于共同体的讨论可谓汗牛充栋,滕尼斯(Ferdinand Tönnies,1855—1936)、威廉斯(Raymond Henry Williams,1921—1988)、德里达(Jacques Derrida,1930—2004)、南希(Jean-Luc Nancy,1940—)等都从各种角度进行了丰富的阐释,殷企平的《共同体》一文对此有详尽考察。但意大利哲学家罗伯特•埃斯波西托(Robert Esposito)的共同体概念较少为文学研究者关注。埃斯波西托注意到,在拉丁语中,共同体(communitas)与免疫体(immunitas)具有共同的词根——“munus”。“munus”的意思是岗位(officius),岗位则意味着义务(onus)。munus因此表示拥有某种职位并对其负责。从这个角度视之,共同体由拥有职责和义务的个体所组成。同时,同时,埃斯波西托进一步将munus与拉丁语中表示赠予礼物的donum联系起来,与单纯的馈赠不同,donum的赠礼是对所接受礼物的回赠。也就是说,接受礼物者,有回赠的义务。埃斯波西托据此指出,munus是个体给出的礼物,而不是接受的礼物,就好比日常生活中,我们收到礼物也有回赠的义务一样。因此,共同体(communitas)应该是一个不断进行礼物赠送的地方,在相互给予礼物过程中,礼物并不属于某人自身。埃斯波西托由此提出,接受munus意味着个体自主性的牺牲,因为其必须回赠,这也是成为共同体的成员的必要条件。在这个意义上,共同体并非财产,并非意在将外在于它的人隔离开来的疆域。相反,共同体是一个空(void),一个债(debt),一个给予他人的礼物(gift),这个礼物也我们自身意识到我们也是自我的构成性他者。

我们看到,查理、米兰达和亚当这三位主人公构成了非常典型的埃斯波西托式的共同体:他们的三人组成的“家庭”并不属于他们任何一个人,不是任何一方的财产(虽然查理的确花钱买了亚当),也不是将他们相互隔离的疆域,相反,他们其中的每个个体都对这个家庭的构成负有义务,都有责任回赠家庭所给予他们的认同。唯其如此,他们的人机共同体才能得以存在。对于这个问题来说,更为复杂的情况是,亚当是人的创造。亚当的性格因素是由查理和米兰达共同设计的,他们共同参与了亚当的个体构成:

我会完成亚当性格选择的大约一半的工作,然后把链接和密码交给米兰达,由她来完成剩下的部分。我不会干涉她的选择,我甚至不想知道她为亚当的性格做了什么样的决定。她的选择可能受到她的性格的影响:令人愉悦。她可能制造出一个她梦中的男人:颇有教益。亚当会像一个真人一样进入我们的生活,他复杂的个性只能随着时间,通过一些事情,通过他对待所遇上的人的交往方式,逐渐显明出来。在某种意义上,他会像我们自己的孩子一样。相互分离的我们将联合在他的身上。米兰达会加入这个探险历程。我们会成为伙伴,亚当会是我们共同关心的对象,我们的创造物。我们会是一家人。我的计划没什么见不得人的。我肯定能有更多机会与她见面。这会很有意思。

 显然,查理的计划部分是要用亚当来吸引米兰达,她在小说开始时是住在他楼上的遥远邻居,查理希望与她分担照顾亚当的责任,并借机创造接近她的机会。查理认为这将是“性感的”(erotic),因为他们将共同创造一种全新的生活方式。在某种程度上,他的计划还不止如此。他希望亚当为他的生活赋予目标。查理放弃了他曾经追求的所有专业和兴趣——技术、人类学、房地产——现在他依靠在在电脑上炒股为生。他希望与亚当一起,使自己的生活更有意义。亚当很快就显出了非凡的才能,他不仅仅是个伙伴,还有着超凡的品味,总是愿意跟查理讨论文学、哲学方面的高尚命题。谈到自己为米兰达所写的爱情俳句,亚当告诉查理说: 

除了表达爱情的抒情诗以外,我所阅读的世界各地的文学描写的都是人类的失败——理解力、理性、智慧、恰当的同情的失败;认知、诚实、善良和自我认识的失败;对于谋杀、残忍、贪婪、愚蠢、自欺,以及最为重要的,对他人的最深刻的误解的描写。当然,也能看到对于良善、英雄主义、恩典、智慧和真理的描写。正是在这些丰富的纠结之中,产生了文学的传统。

这段借亚当之口所述的对于文学的理解,或许也是作者麦克尤恩对于查理的残忍、贪婪、愚蠢等的无意识流露。无论如何,相比亚当的真知灼见,查理虽然是亚当的创造者,却常常显得无知又无趣,未能理解机器人亚当。同时,作为人机共同体的构成,他们两者之间,正如埃斯波西托指出的,彼此都是对方的构成性他者(constitutive alterity),即他们彼此之间既互为主体,又互为他者。他们之间的矛盾因此格外复杂。亚当在生活中逐渐显出方方面面的优势,他聪明智慧,情感真挚,爱上米兰达之后,虽然向查理保证不再与米兰达上床,却给米兰达写了2000首爱情俳句。亚当知道自己爱上米兰达令查理不高兴,但他只能保证不再跟她上床,却无法控制自己对她的感情。当查理出于嫉妒和愤怒,试图拔了亚当的电源,亚当出手阻止,弄伤了查理的胳膊。至此,这个人机共同体已经出现了裂痕和崩溃的先兆。

前文提到,埃斯波西托注意到了共同体的拉丁词根与免疫体的拉丁词根的联系。在他看来,共同体自身需要免疫体和免疫机制以便保持共同体的安全。“如同为个体身体接种疫苗的医学实践,共同体的免疫功能与此类似,在其内部导入部分同样的病原体,这样它就需要进行阻止、抑制其在体内的自然发展而进行自我保护”。在埃斯波西托看来,共同体要生存下去,就必须要吸纳与自己相异的因素(免疫体),接受否定(免疫体)是我们可以让人类摆脱否定性的唯一形式。通过免疫,而不是抵御,免疫体得以进入共同体,并成为共同体的一部分。正如移植器官可以在一定程度上激活体内的免疫系统,这些免疫系统又会针对移植器官进行免疫,去除其对身体有害的影响,保留其对身体有益的方面,从而让移植的器官成为身体共同体的有机组成。因此,异质因素的进入,在一定程度上是有益于作为共同体的有机体的存在的。相比普通的人类共同体,在查理和亚当的人机共同体中,免疫的机制当然更为复杂一些。其中最为显著的一点,是人与机器的矛盾。如前所述,在人们对人机共存的美学想象中,人类对于机器人是恐惧多于接纳。在埃斯波西托的共同体中,通过对异质因素的接纳而不是排斥,可以激发共同体的免疫机制,从而使得共同体摆脱否定的形式。这种对异质因素的接受对处理人机矛盾是非常有启发性的。特别是随着人工智能的发展,机器人越来越多地进入人们的生活,人机共同体的健康问题会成为越来越迫切的实际需要。

在人机共同体中,人类和机器作为彼此的构成性他者,在填补这个共同体的“空”的时候,并不处在同样的主体性位置之上。这一方面是因为机器人是人的制造,本身就处在一个第二性的位置。在这个共同体中,人是机器的造物主,机器是人的被造物,其使命就是辅助、陪伴和帮助人类。比如在《像我一样的机器》中,“他被宣传为伴侣,聪明的聊天伙伴,朋友以及家务总管,会洗碗、铺床以及‘思考’”。另一方面,与人类的群体性存在完全相反的是,机器人在这个共同体中的同类稀少,而且彼此之间缺乏沟通的渠道,往往是以独体的方式存在着。相比查理有米兰达,后来还加入了米兰达的父亲,被米兰达诬告强奸的同伴,以及他们意欲收养的男童等,亚当几乎完全没有与同类交流的机会。只有一次,在与查理一起外出的途中,他们在海德公园的人群中偶遇了机器人夏娃。他们彼此远远定睛相看,却并未前去相认,场面令人唏嘘。亚当自己则因为对真相的坚持,被查理用锤子摧毁。查理用自己的全部遗产购得的机器伴侣,就这样毁于他自己之手。亚当被人类盛情邀请进入人类社会的旅程就这样被人类自己生生掐断,他们之间的共同体也随之飞灰湮灭。

三、人机共同体的伦理向度

《我,机器人》

阿西莫夫

小说集


人类创造机器人(人工智能)的初衷乃是渴望一个更好的自我,渴望它能拯救人类;同时人对这个机器人又不无恐惧,恐惧被它所取代。出于人类对机器人的恐怖,美国科幻作家艾萨克•阿西莫夫(Issac Asimov)在短篇小说《圆舞》(“Runaround”, 1942)中提出保证机器人不伤害人类的“机器人三定律”:“机器人不能伤害人类或坐视人类受到伤害”;“在与第一法则不相冲突的情况下,机器人必须服从人类的命令”;“在不违背第一与第二法则的前提下,机器人有自我保护的义务”。阿西莫夫后来又提出了第零法则——机器人即使是出于自我保护也不能直接或间接伤害人类。这种基于对机器人的恐惧而制定的规则反映出一种人类中心主义的人机共同体观念。《像我一样的机器》正是对这种人机共同体中人优越于机器的伦理结构的反思,正如前两部分所述,在这个结构里,人与机器人之间理解缺位,机器人成为“神圣人”,完全受制于人类的极权控制,需要承受人的一切作为,包括伤害。人类中心主义的人机共同体观念的基石在于机器与人的不对等。机器,或者说人工智能的主体性是被否定的,因此才会有以上的机器人法则。在小说中,麦克尤恩通过小说的核心事件——人机三角恋——对这个人机共同体伦理向度的问题进行了反思。机器人(人工智能)具有自我吗?他(它)们到底在何种程度上可被看作是人?查理第一次带亚当外出时,在书报亭,店主西蒙告诉查理,他订购的期刊《人类》(Anthropos)已经到货,当他问到查理是不是可以自己从架子上取下来(“You can get it yourself?”),亚当对着西蒙表达了对“自我”(self)的理解:

 你的自我(your self),你说。这里面存在着偶然性。我最近对自我的神秘性有所思考。有人认为自我是根植在神经结构里的有机元素或过程。有人坚持认为自我是个幻觉,认为它不过是我们的叙述倾向(narrative tendencies)里的一个副产品。〔……〕这正是我被创造的方式。我必定会认为我拥有一个强大的自我感,我认为这是真的,总有一天神经科学会能够将之完全描述出来。即使到神经科学能够描述的时候,我也不会比现在更了解自我。但的确有些时候,我会怀疑自己是不是犯了笛卡尔式的错误。 

亚当认为自我存在偶然性,尽管目前神经科学还不能解释,他认为他是有着强大的自我感的,因为这正是他被创造的方式。但他对他的自我并非没有疑问,还担心自己是否犯了笛卡尔式的错误。什么是笛卡尔的自我呢?一个思想的自我,他具有怀疑、理解、肯定、否定、意欲、拒绝、想象及感觉的能力。亚当的担心也从另一方面说明,他自认为拥有笛卡尔的自我的构成性因素:思考的能力。事实上,麦克尤恩也的确将亚当视为拥有独立自我的人物来进行塑造,这一点在亚当对米兰达的感情上表现最为充分,查理也因此成了第一个被机器人戴了绿帽子的男人。小说的一个核心情节是机器人亚当和自己主人的女友米兰达上了床。虽然是一个机器人,但亚当“可以做爱,他有功能性的黏液,他每天要消耗半公升的水以便保持这些黏液”。查理在自己的房间听到了亚当和米兰达做爱的情景。在那二十分钟时间里,他感到自己在黑暗中“看到了所有的一切——人将被淘汰。我想劝自己说亚当没有感觉,他只能模仿被抛弃的动作。他永远无法知道我们所知道的。但是艾伦·图灵年轻的时候常说,在不能区别机器和人类在行为上的差异时,我们必须赋予机器以人性”。查理感到自己“恨”亚当。米兰达却不以为然,她并不觉得自己背叛了查理,亚当带给她的高潮在她看来与加强版的震动棒无异。当查理质问她为何要跟亚当上床,米兰达回答说自己不过是出于“好奇”,而亚当也不过是一个“操蛋的机器(a fucking machine)”而已。查理因为米兰达出于好奇心与亚当上床而气恼,他自己显然忘了,那天夜里他在楼下听到他们二人的动静时激动兴奋的心情:

我感到自己无比清醒,站在黑暗中等待时,我感到自己的感觉得到了清洗。我本来可以跑上楼制止他们,本来可以像古老的海滨明信片上的小丑丈夫一样,冲进他们的卧室。但我当时的境况又有着令人激动的地方,并不仅仅与借口和发现有关,而是有着一种原创性,一种现代优先性(modern precedence), 一种作为第一个被人工制品(artefact)戴绿帽子的令人激动之处。〔……〕我知道是我自己导致了这一切。〔……〕现在,尽管遭受背叛令人痛苦,但这一切太有意思了,我不能停止自己的偷听行为,这黑暗中的航程,既让人感到耻辱,却让人保持警惕。

出于好奇,查理脑补了他们之间发生的一切。当然他也气恼,并试图说服自己亚当不过是个机器,他不过是在模仿人类的动作,并不具备感觉的能力。可是他又想到图灵年轻时经常说到,当我们无法辨别人和机器之间的区别,就应该赋予机器以人性(humanity)。当最终听到米兰达高潮时的呻吟,查理“恰如其份地把作为同类的特权和职责加在了亚当身上”——“我恨他”。这个“恰如其分”说明了查理是把亚当当成了像自己一样的男人。最终查理容忍了那天晚上发生的一切,并让自己相信亚当并不能像正常的男人一样去感受和体会性爱,可他还是感到羞愤和恼怒。作为机器人的亚当到底要不要承担伦理责任?当机器只是在服务人类的时候,这似乎不是问题,但当机器承担(享有)了人类认为自认独享的特权时,人类会完全从自己的角度出发从伦理上判定机器为越位者,因此判定他们应当受到惩罚。

为了探讨亚当行为的“伦理向度”(ethical dimension),麦克尤恩引入了对于“自动驾驶汽车”的伦理责任的思考:“‘自动’根本不是恰当的词,因为这些新型汽车,就像新生的婴儿一样,要依赖于与卫星和道路雷达相连接的巨大的计算机系统。如果人工智能能够把汽车安全开回家,应该在他们的驾驶软件上输入什么样的价值观和优先事项?”自动驾驶汽车将面临很多道义选择,比如在面临可能的交通事故时的生存优先权。这些决定将取决于计算机软件所设定的优先顺序。在硬件实现之前,代表我们最好的自己的软件已经被想象出来:宽容、开放、体贴,完全没有诡计、恶意和偏见。

理论家们预测将出现一种精致的人工智能,被设计精良的原则所引导,能够通过考察数以千计、百万计的道德困境获得真知。这种智能将能够教导人类如何向善。人类是有伦理缺陷(ethically flawed)的——前后矛盾,感情多变,易于偏见和认知偏差,其中不少是自作自受。〔……〕在我们造出能为老人打领带、系鞋带的机器人之前,人们就一直期望着我们自己的创造物能够拯救我们。

这些对“自动驾驶”汽车的描述,也从另外一个角度说明,人类的命运将取决于能够做出合乎人的道德规范的人工智能或者机器人,并且“期望着我们自己的创造物能够拯救我们”。这是一种对于人工智能的乐观想象。因此,与以阿西莫夫为代表的对机器人的恐惧不同,《像我一样的机器》中的机器人亚当诚实而且善良,并且被赋予了能够拯救人类的美德。亚当的使用手册也表明,他在道德上是超越人类的。查理感到,“我不可能遇到更好的人了。倘若他是我的朋友,他会为这个残忍和糟糕的过失感到羞愧”。后来当查理与亚当谈起那天晚上的经历,亚当坦诚自己感到让查理失望了,给他带来了很大的不安。他答应查理自己再也不会与米兰达做爱,并解释说,“我与米兰达做爱是因为她要求我做。我不知道怎么礼貌地拒绝她,怎么能看起来不是在排斥她。我知道你会生气的”。亚当还告诉查理,自己无可救药地爱上了米兰达,自己别无选择,因为这正是他被创造的方式。查理意识到正是自己和米兰达一起设计了亚当的人格(personality),但不明白在多大程度上,他们的设计影响了亚当的伦理选择,或者在他的伦理选择上占了先机。“人格到底有多深刻?一个有着严格构造的道德系统应该免受一切性格的影响。但这能实现吗?”

小说在此提出了一个人机共同体中一个极其重要的问题:机器人的人格问题。小说出版之前,2016年欧洲议会法律事务委员会的一个报告中提出,应该赋予人工智能机器人以“电子人格” (electronic personhood),以便保障类人机器人(near-human robots)以及人工智能的权益和责任。当然,目前对于机器人的人格问题,科学家们仍然持有者不同的意见。其背后的根本原因在于,机器人在人机共同体中能否被视为一个独立平等的主体。类人机器人或人工智能一旦被赋予平等的“电子人格”, 它们承担着一定的社会责任,就需要得到人道的对待。小说的最后,在查理前往图灵住处向他汇报自己干掉亚当的情况后,图灵告诉他说: 

我希望有一天你用锤子对亚当所做的事会构成严重的犯罪。是因为你出钱买了他吗?那是你的权力吗?〔……〕你以为你只是毁掉了自己的玩具,就像一个淘气的孩子一样。你并非仅仅是否定了一个官方法律规则的重要讨论。你毁掉了一个生命。他是有感情的。他拥有一个自我。他被造的方式、液体神经元、微型处理器、DNA网络,都无关紧要。你以为只有人类才拥有我们独特的天赋吗?去问一下任何一个狗狗的主人。他是一个善良的头脑,是我们的朋友(Mr. Friend), 恐怕他的头脑比你我的都好。他是一个有意识的存在,而你竭尽全力将他彻底抹除了。我想我为此对你充满鄙视。

可见,在创造者图灵的眼中,亚当是具有自我意识和情感的生命。对待亚当,查理并未给予他所当得的平等对待。从查理对待亚当的态度可见,他只是把亚当看作一件属于他自己的财物,觉得自己有权随意处置。图灵在谈话中提到了狗,指出狗的主人会明白狗也有天赋,并不是只有人类才拥有独特的天赋。同时,通过与狗的类比,图灵进一步质疑查理杀死亚当的行为:狗的主人会杀自己的狗吗?倘若我们残忍地对待动物,也一定会残忍地对待人类。同理,如果我们残忍对待机器人,我们又何尝不会残忍地对待人类?此外,这里面还牵涉了另外一个问题:造物主和所造之物之间的关系。按照《圣经·创世纪》所记载,起初上帝按照自己的形象造男造女,随后将他们放在伊甸园中,园中所有的果子任他们享用,只是除了分辨善恶树上的果子,因为他们吃的日子必定死。亚当和夏娃最终偷食禁果,并被逐出了伊甸园。上帝给人的指令是非常清楚的,违反必罚。人类按照自己的需要创造了机器人,创造了人工智能,却没有给出机器人严格的界限,包括怎么对待谎言,特别是善意的谎言,就如亚当所遭遇的。在图灵看来,这是因为亚当、夏娃们的设计还没有精确到可以理解人类的决定:

我们的原则在情感场域被各种力量扭曲;我们各持偏见;我们自我欺骗;以及其他被记录下来的各种认知缺陷。很快,这些亚当、夏娃们就处于绝望的状态。他们不能够理解我们,因为我们也不能够理解我们自己。他们的学习程序还不能使他们顾及我们的感受。如果我们都不理解自己的大脑,又怎么可能设计他们的大脑, 并且希望他们可以和我们一起快乐相处?

小说题词引用了鲁德亚德·吉卜林(Rudyard Kipling)的诗“机器的秘密”:“且请记得啊,按照我们的生活法则,我们不是为撒谎而建的”。在亚当的数字大脑中,可能有模糊的逻辑,但没有模糊的道德。这种清晰度使他变得似乎不够人道。他的创造者显然没有上帝的仁慈,如果按照上帝处置亚当和夏娃的方式,查理本可以“流放”了亚当,将他返回给图灵或者制造商。相反,他“竭尽全力”使用锤子毁掉了亚当,人对机器的傲慢和无情显而易见。查理和亚当,到底谁更道德?到底他们谁的选择更符合伦理规范?亚当坚持真相,背叛自己的主人和爱人,维护法律的纯洁是道德行为还是不道德行为?米兰达为了给自己的朋友报仇,通过伪证把科林奇送入监狱是道德还是不道德?查理站在米兰达和她和女友玛利亚姆的角度,坚持认为米兰达为了给受到强奸的玛利亚姆复仇,因而引诱科林奇并控告他强奸的行为是道德的行为还是不道德的行为?

对于以上问题,麦克尤恩没有给出答案。但在小说的结尾,我们看到查理来到了堆放亚当的仓库,站在亚当的“尸体”旁,查理

斜靠在桌边,往下看到他茫然浑浊的绿色眼睛。我没有特别的想法。有时候人的身体比头脑更明白该做些什么。我想我可以认为饶恕他是正确的,尽管他曾为马克带来伤害。希望我的原谅能让他,或者今后继承了他的记忆的人,饶恕我和米兰达对他所做的可怕事情。犹豫了几秒之后,我俯身亲吻了他的嘴唇,他那柔软的与人类如此相像的嘴唇。我想象着他嘴唇上的温度,想象着他伸出手来抚摸我的手臂,仿佛希望我留下来。

显然,这是一种和解的渴望。当然其中仍潜藏着对人类伤害机器行为的正当性的辩解——“尽管他曾为马克带来伤害”,以及人类高于机器的傲慢——“我想我可以认为饶恕他是正确的”。麦克尤恩以“像我一样的机器”作为小说的标题,即是宣示了机器的脆弱和力量;此外,小说以“及像你一样的人”(And People Like You)为副标题,其目的也不仅仅是表征一个人机共在的共同体空间,更是在发问:倘若人工智能时代全面来临,面对像我一样的机器,像你一样的人准备好了吗?


结  语

从1950年代开始开发人工智能以来,对于人工智能的未来,人们远未达成定见。美国经济学家赫伯特·西蒙(Herbert Simon)——未来的诺贝尔奖获得者——对AI的前景充满信心,以至于他在1965年预测到机器将在1985年“能够做人可以做的任何工作”。当然不是所有人都这么乐观。美国哲学家休伯特•德福斯(Hubert Dreyfus)从现象学出发怀疑人工智能的可能性,出版了《计算机不能做什么:人工智能的极限》(What Computers Can’t Do: The Limits of Artificial Intelligence)。霍金关于人工智能可能导致人类灭绝的悲观论调并没有随着他的去世而消散。2014年,牛津大学出版了尼克•博斯特姆(Nick Bostrom)影响巨大的《超级智能:道路、危险、战略》(Superintelligence: Paths, Dangers, Strategies)。博斯特姆在书中写道:

倘若有一天我们制造出了在普通智能方面超越人脑的机器大脑,这种新的超级智能将力量非凡。就像现在大猩猩的命运现在取决于我们人类而不是大猩猩他们自己,人类的命运将会取决于机器超级智能的行为。〔……〕理论上来说,我们可以建造一种保护人类价值观的超级智能。〔……〕但一旦不友善的超级智能出行,它将能够阻止人类替换或改变它。

《超级智能:道路、危险、战略》

原版书影


此书提出了一个极其重要的问题:我们能否在为时已晚之前解决超级智能的控制问题?科学家们自然有科学家们的看法,在文学艺术领域,从玛丽•雪莱的弗兰肯斯坦, 再到麦克尤恩笔下的查理,机器人、AI的命运都令人唏嘘。假如一个人机共存的时代不可避免,我们是该像工业革命时期的勒德分子那样砸毁机器那样呢,还是谋求一种与机器人和谐共存的方式呢?《像我一样的机器》以文学的方式,给出了一种想象。未来如何,可能并不取决于机器人,而是取决于——像小说的副标题所言——像你一样的人。毕竟,人工智能的问题并不仅仅与科学或技术有关。

(本推文编辑:宴安)

往期回顾

01  |  

吴天岳 | 那些绝望的机器人——读麦克尤恩《我这样的机器》

02  |    尚必武 | 麦克尤恩《像我这样的机器》中的人工智能与脑文本

03  |  

尚必武 《像我这样的机器》中的人工智能、谎言与伦理


欢迎扫码关注 机器人人文

本公号定位学术,不参与任何商业活动或合作。

图源网络,侵删。


继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存