漆黑的大脑:认知语言学实证研究到底证实了什么?
欢迎关注我们,一站式获取海量语言学资源
来源编辑:认知语言学 微信公众号
请星标应用语言学研习,喜欢请点赞,深爱请分享⭐
李叔Nick2017-11-13
语言学理论探索的领域范围十分广袤,从结构上,语言学家几近庖丁解牛一般调查语言的语音、词法、句法、语义等等特征;从语言与其它领域的交叉上,语言学家也在不断分析语言与心智、语言与形式逻辑、语言与机器学习的关系。这些研究中,有一个问题,它被很多人看作一个几乎无法证伪,却又无比迷人:我们所使用的语言,尤其是母语,真的会影响我们的思维吗?为了回答这个问题,洪堡特、博阿斯、萨丕尔等人都有著作,视角论点繁多,可谓汗牛充栋。许多语言学研究者并没有直接切入这个问题,来探讨语言与思维的联系,而是找到一个许多语言中共有的常见现象,然后从这个现象切入,来看它和有关语言使用者思维的关系。
在许多此类研究中,Boroditsky(2001)曾做过一项针对英语母语者和汉语母语者时间隐喻的不同,以及其与两类人思维关系的研究。今天,我们就以此为切入点,从认知语言学的角度来讨论“萨丕尔-沃尔夫假说”。
洪堡特的著作《论人类语言结构的区别及其对人类精神发展的影响》直接影响了萨丕尔-沃尔夫假说
Boroditsky发现,普通话和英语母语者在讨论“时间”这一抽象概念时,有相同之处:他们都会用“前”(front)与“后”(back)这两个空间词来描述时间,即调动了“时间即空间”这个概念隐喻(TIME IS SPACE)。例如:
1. We have a whole day ahead of us.
2. The hard times are behind us.
3. 虎年之前是什么年?
4. 大学毕业后,我进入了研究生院。
然而,Boroditsky也发现,普通话和英语母语者相比,还多了一种手段来描写时间,即“上”与“下”,这里也是使用空间词,因此仍然是使用了“时间即空间”这个概念隐喻(TIME IS SPACE)。我们常讲的“上个月”,“下周”,就是这样的例子。
如此看来,普通话母语者在和英语母语者都具有“前”(front)与“后”(back)的“水平”空间词讨论时间之外,还可以用“上”和“下”这种”垂直“空间词来讨论时间。
为了调查汉语与英语母语使用者对时间表示词的不同,及其与思维的关系,Boroditsky在美国斯坦福大学找来了汉语与英语母语使用者,进行了一系列心理实验。
在实验一中,每个受试会先看到一张配有文字解释的图片作为刺激源,图片先是表达“前与后”这个信息,这里为了方便后面讨论,我们称其为“水平刺激源”,如下所示:
然后,受试需要回答一个与时间有关的判断题,这道题的陈述可能使用了“前”(front)与“后”(back)这样的空间词来表达时间(例如,March comes before April),也有可能使用了非隐喻的表达,只用“早”(early)和“晚”(later)来表达时间(例如,March comes earlier than April)。接着,受试会再看到一张配有文字解释的图片作为刺激源,这次,图片表达的信息是“上与下”,为了方便后面讨论,我们称其为“垂直刺激源” ,如下所示:
这种图片刺激-回答时间问题的实验方法与心理学上的“启动效应”(priming effect)有关:受试在接受某一刺激之后,会更容易感知和加工同样刺激的信息。也就是说,如果受试的母语真的影响了TA的思维,那么TA在接受相应的空间刺激后,解决判断题应该更加容易。实验一中,Boroditsky计算了每个受试答题的反应时长(reaction time),如果反应时长越短,则说明受试在答题时心理加工的过程越简单。实验一的结果如下:
从上面的柱状图中可以看出,在被问到“前”(front)与“后”(back)空间词的问题时,英语母语者和普通话母语者都在水平刺激源后答题更快(反应时长更短);然而,在被问到“早”(early)和“晚”(later)的非隐喻时间问题时,两组人的表现出现了差异:英语母语者在接受水平刺激源后答题更快,而普通话母语者则在接受垂直刺激源后答题更快。
实验一中,两种语言母语者在接受相同刺激源后,展示的不同心理加工时长,似乎能够从一个侧面反应语言对思维的影响。
但是,Boroditsky进一步提出了一个问题:既然语言影响了思维,那么学习外语会“中和”我们的思维吗?例如在实验一中,普通话母语者体现了对垂直刺激的偏向(bias),那么这种偏向会被英语学习这个因素“中和”吗?
为了回答这个问题,Boroditsky进行了实验二。这次,所有的汉语母语使用者都学习过英语,但学习的时长不同,最早的从3岁开始学习英语,最晚的则到13岁才开始。和实验一类似,受试先接受水平刺激或垂直刺激,如图所示:
然后,受试需要回答用“早”(early)和“晚”(later)来描述的时间问题(例如,March comes earlier than April)。和实验一不同的是,这次的问题都是非隐喻性的,也就是说之前的“前”(front)与“后”(back)空间词不再在提问里出现。因为这次实验着重观察受试对水平和垂直刺激的反应,所以这个变量被去除了。
Boroditsky记录了受试在分别接受水平刺激和垂直刺激后,答题的反应时长,垂直刺激后答题时长减去水平刺激后答题时长,得到的数字被称为“垂直偏向”(vertical bias),实验结果如图所示:
通过这项实验的结果,Boroditsky发现:英语学习时间不同,受试的“垂直偏向”也不同,受试者越早开始学习英语,这种偏向就越少。
尽管实验一和二的结果都可能被看作是语言影响思维的佐证,但是,Boroditsky仍然有一项担忧:普通话和英语显然不是这两类受试唯一的差异,他们所来自社会的惯例和接受的文化熏陶,也有可能影响对“时间”这一抽象概念的思维。比如,英文的书写顺序是从左至右的,而我们的汉字在古代则采用了从上至下的书写顺序,电影《降临》中,天外来客“七肢桶”的语言则是非线性的,近似一个圆形。
为此,Boroditsky进行了第三项实验:给英语母语者做“普通话训练”,观察这种训练是否会影响他们的思维。有趣的是,Boroditsky并没有真的教这些英语母语者普通话,而是试图教会他们用普通话中“上”和“下”这两个方位词来表达时间的早晚。实验三中,70名母语为英语的受试在实验前被告知将要学会一种“讨论时间的新方法”,接着收到了一份材料,里面全是表示时间先后的英文句子,所有表达“之前”的概念一律用“更高”(higher)或者“在。。。之上”(above)描述,而所有表达“之后”的概念一律用“更低”(lower)或者“在。。。之下”(below)描述,例如:
5. Cars were invented above tax machines.
6. Wednesday is lower than Tuesday.
在进行了“普通话训练”后,这70名受试完成了90道判断题,这些题与前两项实验中的类似,也是判断时间先后的陈述正确与否,但是所有时间先后表达全部换成了”普通话思维“的上下方位词(例如,‘World War II happened lower than World War I’),这次Boroditsky测量的仍然是受试答题的反应时长。实验结果如图所示(红框标出的第三组柱):
可以看出,受试在进行了“普通话训练后”,展现出来和普通话母语者相似的答题反应时长。由此,Boroditsky得出的结论是:学习一种表达时间这个概念的新方法,可以暂时改变受试对时间的思维方式。
总结一下,Boroditsky这一系列实验的结论是:
母语影响了母语者思考抽象概念(例如“时间”)的方式,不同母语所具备的语言特征不同,思考也会相应产生某种“偏向”;
这种思考的“偏向”可以被外语学习“中和”;
学习一种表达抽象概念的新方式,可以暂时改变人对此概念的思维方式。
这些结论无疑让我们想起根据Ted Chiang小说改编的电影《降临》:长相古怪,可以预知未来的外星人所拥有的语言系统极为特殊。它们只有书面语言,而且文字不需要逐词地拼出,只消从触手中喷出一股浓墨般的物体,这股物体随即形成一个类似圆形的图案,也就是他们的语言。电影中的语言学家女主角,在奉美国军方之命分析七肢桶语言后,学会了这种语言,不仅拯救了人类,还从此拥有了和七肢桶一样预知未来的能力。
电影《降临》可以说比较真实地还原了语言学家的研究方法
历史上,试图揭示语言与思维关系的心理实验还有很多,Boroditsky发现自己实验的结论就与Rosch所做的“色彩分类实验”结论有所出入:Rosch(1975)发现,即便有的语言中颜色词十分匮乏,这些语言的母语者照样可以和其他人一样自如地辨别各种色彩,语言的匮乏并没有影响母语者思考色彩的能力。Boroditsky对此的假设是:人类在进化过程中,色彩辨别能力比语言能力更早出现,因此色彩的认知在思维中更加根深蒂固。
抛开这一假设不说,Boroditsky的这一系列实验有没有问题呢?笔者认为是有的,并且体现在两个方面。
第一个方面和受试者的样本采集有关:参加实验的母语者们,究竟能否客观地代表这个母语言语社团的特性?参加Boroditsky实验的所有受试均为斯坦福大学的学生,年龄都在二十岁上下,显然属于统计中的便利样本,没有考虑到不同年龄层母语者的差异。除了年龄外,性别、方言、教育程度、社会经济地位这些因素都会影响人说话思考的方式,而由于Boroditsky并没有在实验设计中说明受试者的这些属性,因此这些实验样本的代表性也无从得知。
第二个,也是笔者更感兴趣的问题,属于Shiraev和Levy(2001)所提出的六种实验主观偏见中的一种,即“相关关系不等于因果关系”(correlation does not prove causation)。说的更细点,就是Boroditsky在这项实验中所观测到的表征数据,似乎能体现出语言与思维的一些关联,但这能不能和受试心理处理过程的真实情况划等号?能不能真的证明语言和思维某种因果关系?
打个比方:如果把人脑这个复杂的“黑匣子”比作一部手机,现在,我们用这部手机刷了一小时微博,然后发现手机变热了,如此一来,我们似乎可以说“手机发热和刷微博有关”,但是,我们能下结论说“因为刷微博,所以手机发热了”吗?显然不能。
科学研究,需要逻辑思维的条分缕析,寻觅表征机理的草蛇灰线。认知语言学承诺揭示语言与认知密不可分的联系,把心智和语境纳入语言的考量范围,这就意味着认知语言学研究需要去挑战一个当前认知科学的难题:人脑的运作机制。显然,要想真正盘开语言在人脑中的认知过程,就需要更严谨的研究方法。
Boroditsky的研究距今已经十年有余,当前的认知语言学家们,都在如何探索语言与人脑认知的关系呢?
反对“p值信仰”可以说是相当前卫的一个研究趋势。当下,许多科学研究团体对p值检验争论不休,甚至有人提出把p值降低到0.005,以免部分人对实验“削足适履”,强行将p值降至0.05以下。语言学研究中,许多变量之间的关系并非是“非此即彼”的关系,也不能简单调查一种因素对语言的影响,就判定该因素与此种语言的关系。
Levshina(2016)的一篇论文直接放弃了p值检验,利用贝叶斯回归分析揭示多变量间的关联。此篇论文分析了英语里let, allow, permit三个动词在允准构式(PERMISSIVE Construction)中各自的特征,文中使用了贝叶斯回归分析替代语言学家常用的频率学派算法,相较于对结果只能二分(dichotomy)的p值检验,这种统计分析既检验假设,又预测了一定数据下多个因变量(句子词长/允准者和被允准者生命度/话语者身份等等)与自变量之间的关系。
Nature期刊今年进行的一次读者调查显示,百分之六十九的研究者同意降低p值
正如前文所说,人类的大脑是“黑匣子”,面对这个难以理清的思维单元,有些前沿研究的解决方法是:干脆用计算机模拟出一个大脑来。“认知即计算”这个观点早已为很多学者接受,计算机模拟人脑的动词在线处理似乎是未来认知研究的大趋势。Divjak等人(2016)利用统计建模和机器学习的手段,建立了概率模型,来预测俄语使用者对一系列与‘TRY’有关的动词在不同语境下的选择,并且和真实心理语言学实验结合起来,比较概率模型和母语受试者所选动词,获得反馈,以此提升统计模型的精准度。也许在不久的未来,我们可以像计算机模拟天气变化一样模拟人脑在处理语言时的变化。
实际上,语言在线处理的问题一直是心理语言学研究的核心,有关学者也做出了很多成绩,但这些研究对认知语言学的重要性似乎却并没有被完全认识到,慕尼黑大学的认知语言学家Schmid(2017)就意识到了认知语言学与心理语言学研究中存在的空隙:认知语言学中的认知语法和构式语法这些理论明确涉及了在线处理,却缺乏心理语言学实证;心理语言学研究致力于探索语言的在线处理,与认知语言学基于使用和频率的范式十分相关,但二者也鲜有交流。两方的研究者应该努力填补这个空隙,进一步揭示语言“处理-表征”的关系。
众所周知,萨丕尔和沃尔夫提出的“语言决定/影响思维”是一个充满挑战性的论点,越是面对这种充满争议的宏观论点,认知语言学研究者就越应该用严谨的实证研究去证明或证伪。
认知语言学研究可以有浪漫的假设,但不可以有浪漫的实证,否则,这个学科就只是枯坐蟾宫的嫦娥,而不是在月球表面留下坚实脚印的阿姆斯特朗。
参考文献
Boroditsky, L. (2001). Does language shape thought? Mandarin and English speakers' conceptions of time. Cognitive Psychology, 43(1), 1.
Divjak, D., Dąbrowska, E., & Arppe, A. (2016). Machine meets man: evaluating the psychological reality of corpus-based probabilistic models. Cognitive Linguistics, 27(1), 1-33.
Levshina, N. (2016). When variables align: a bayesian multinomial mixed-effects model of english permissive constructions. Cognitive Linguistics, 27(2), 235-268.
Rosch, E. (1975). Cognitive representations of semantic categories. Journal of Experimental Psychology, 104(3).
Shiraev, E. & Levy, D. (2001). Introduction to cross-cultural psychology. Needham Heights: Allyn and Bacon.
Schmid, H. (2017). ‘Towards a unified sociocognitive model of language structure, variation, and change’: Lecture series at Shanghai International Studies University.
作者:李叔Nick
稿件编号:364198
编辑校对:CogLing Admin
欢迎投稿原创文章栏目,投稿提交请点击这里
本文观点和立场不代表本公号
外一篇|《外国文学研究》2020年第3期
周敏 | 人机共同体想象:以《像我一样的机器》为例
来源:机器人人文 微信公众号
作者简介
周敏 杭州师范大学外国语学院教授,杭州师范大学文艺批评研究院研究员,主要研究英美文学、西方文论。
摘要:人类创造机器人的初衷乃是渴望一个更好的自我,希望它能拯救人类;同时人对这个机器人又心怀恐惧,担心被它所取代。由此带来一个崭新的伦理困境:如何在人机共存的新时代构建出和谐共存的人机共同体。《像我一样的机器》为这个问题提供了想像性答案。借助阿甘本的生命政治哲学,埃斯波西托的共同体理论,以及阿西莫夫的机器人三定律等,可以看到小说主人公查理等和机器人亚当所构成的人机共同体之中的理解缺位、人机矛盾,以及伦理困境等问题。因此,面对一个人工智能时代的到来,人类不该像工业革命时期的勒德分子那样,而是应当走出人类中心主义的牢笼,重新反思自己对待机器人和人工智能的方式,因为在一个人机共存的空间,人类与机器之间不应该是主仆关系,相反,他们是彼此的构成性他者,共同填补了共同体的“空”,并使得人机共存的空间成为共同拥有的礼物:人机共同体。
关键词:麦克尤恩、《像我一样的机器》、人机共同体、伦理困境
原载《外国文学研究》2020年第3期;本推送省略注释,完整版请参见刊物或知网。
《像我一样的机器》原版封面
如果会思考、有情感的机器人进入人类的生活,即在人机共存的情况下,人类的共同体构成会发生变化吗?人类与其所创造的机器人能够和平相处吗?机器人会成为独立的人格主体吗?进而,他们能成为道德主体并承担伦理责任吗?麦克尤恩的《像我一样的机器》(Machines Like Me,2019)给出了以上问题的想象性答案。麦克尤恩当然不是第一个在小说中创造出类人机器的写作者,最为读者所熟悉的当属玛丽•雪莱的《弗兰肯斯坦》(Frankenstein,1818),虽然其中被科学附体的卡西莫多式“怪人”能否被归为机器人并无定见,但这部小说无疑开启了人与类人机器如何共处的伦理思考。相比科学怪人的悲惨命运,意大利童话故事《木偶奇遇记》(The Adventures of Pinocchio,1880)的主人公匹诺曹,虽然同样是被人所创造,但因为自己的善良,最终被蓝仙女变成了真正的小男孩,成功融入人类社会。更早一些,中世纪的时候其实已经出现了机器人的早期形式,比如罗杰•培根(Roger Bacon, 1214/1220–1292)所造那个可以预测未来、但最终也被毁掉的“铜头”(the brazen head)。随着科学技术的发展,机器人以前所未有的方式介入我们的生活,人机共存的现象正逐渐演变为我们的日常存在。《像我一样的机器》正是这样一部想象了当机器人进入人的日常生活,甚至是爱情生活的后果的虚构佳作。小说于2019年4月出版后,曾获毛姆文学奖的英国小说家马赛尔•索鲁(Marcel Theroux)在《卫报》发表书评,称这部显示了麦克尤恩杰出讲故事才能的小说令人愉悦,但也存在着深刻的令人不安之处,是一部关于机器人的敌托邦(dystopia)作品。迪怀特•加纳(Dwight Garner)认为这是一部包含着极大智慧的观念小说,通过对机器人的人格的描写,麦克尤恩提出了对人格以及人性本质的深刻思考。阿莱克斯•普莱斯顿(Alex Preston)指出,通过对人工智能带来挑战的描写,这部小说反思了一个更为宽泛的问题,即进步的代价。尚必武从文学伦理学批评的科学选择与伦理选择的角度指出,“以亚当为代表的机器人与以查理和米兰达为代表的人类之间的矛盾隐喻了科学选择和伦理选择的冲突,而亚当的毁灭则揭示了机器人之于人类道德生活介入的失败”。在奥利维亚•霍(Olivia Ho)看来,作为一部观念小说,《像我一样的机器》非常聪明;作为一部情节小说,它整洁有序;但作为一部情感剧,它未能引起引起读者太大的共鸣,尤其是主要人物的命运发展,倒是一些次要人物,比如偶尔提及的女性机器人夏娃的命运,令人揪心,却未展开。毋庸置疑,这是一部关于机器人进入到人类生活空间的小说,不管是把它看成敌托邦小说还是观念小说,其核心要义乃是考量人机共存所带来的文化与伦理问题。本文将从批评家们较少涉及的人机共同体的角度,探讨人与人工智能之间的共在模式和伦理关系,进而思考人机共存的可能性。
西方古代“铜头”传说
“铜头”与受惊吓的培根弟子
一、人机共同体的理解缺位
麦克尤恩将故事的背景放在了20世纪八十年代的伦敦。那是1982年,与真实历史不同的是,在小说的想象世界里,英国输掉了马岛之战,玛格丽特·撒切尔败给了工党的托尼·本恩。肯尼迪逃过了达拉斯的致命子弹,列侬也没被歌迷杀死,披头士乐队重组并发布了新专辑。无人驾驶汽车已经行驶在大街上。最为重要的是,计算机之父艾伦·图灵没有自杀,还在人工智能研究上取得重大成果,制造出了小说的主人公、作为人类伴侣的智能机器人亚当。这些背景共同构成了小说的发生逻辑:倘若/如果(what/if)。麦克尤恩把一个未来智能机器人的故事放在了假想的过去,其中包含着两个维度:未来的历史和历史的未来。从未来看历史,过往可能完全被颠覆:比如与历史上英国打败阿根廷赢得马岛战争不同,小说中英国败了;而从历史看未来,假如这一切发生,这未来会是我们想要的吗?这些看似与主题发展关系不大的历史背景,实际上是麦克尤恩想令我们思考的地方:假如智能机器人提前(在英国的八十年代)来到,我们准备好了与他们相处吗?如果没有准备好,后果又会如何呢?综合起来,这种新型的共同体形式会带来什么样的思考?
诚然,对于作为“类存在物”(species being)的个体来说,不管愿意与否,共同体都是我们的存在方式,就像人类需要故事一样,人类也需要共同体,因为没有人是一座孤岛。正如亚里士多德所说,凡是不属于城邦的人,如果不是野兽,就是一位神祇。城邦就是共同体的早期形式。共同体是个人自由的基础,个体也只有在共同体中才能获得完备的伦理存在。黑格尔正是从家庭、市民社会、国家这些共同体形式中看到了普遍的伦理意志。在这个意义上,我们或许可以说,一部文学史,就是一部共同体书写史,这部共同体书写史,也是一部伦理思想史。正如聂珍钊所言,“文学描写社会和人生,始终同伦理道德问题紧密结合在一起”。希利斯•米勒在《小说中的共同体》中分析了六部小说中的共同体书写,既有现实主义的,也有现代主义和后现代主义的作品。米勒希望通过对这些小说中的共同体的阅读和分析,促使读者反思自己所属其中的共同体,并改变自己的行为。
《像我一样的机器》中的共同体构成与米勒论著中所分析的任何类型的共同体都不相同,其所涉及的是人与机器共存的共同体形式,其中的机器人乃是人的创造。这个共同体是建立在如前所述的倘若/如果逻辑上,是一种尚未发生的想象共同体,是从假想的1980年代出发设想的一个由男人、女人和机器人构成的未来共同体形式。与圣经《创世纪》所记上帝按他的形象造男造女类似:小说中机器人也是有男有女,其中有12个亚当,13个夏娃。小说男主人公查理是伦敦人,曾学过人类学。他靠炒股维生,没有稳定工作,生活几乎入不敷出。凭借继承母亲遗产得来的收入,查理斥资八万六千镑买了一个“人造人”(artificial human),因为“机器人,复制人,复制品是我的激情”(“Robots, androids, replicates were my passion”)。由于夏娃售罄,他只能买了亚当回家。令他略感安慰的是,使得人造人技术成为可能的图灵拥有的也是亚当(考虑到图灵的性取向,这个应该不难理解)。小说的主要情节比较简单:机器人亚当和男主人公查理都爱上了女主人公米兰达,最终因为米兰达,男主人公查理干掉了他的机器人情敌亚当。对于擅长描写爱情的麦克尤恩而言,这个故事并不扣人心弦。但如奥利维亚•霍所言,小说所探讨的关于人与机器的理念,特别是人机共存情况下的新型共同体构成问题,发人深思。
小说的核心矛盾是女主人公米兰达所牵涉的一宗法律事件,这个事件构成了小说情节发展的一个叙事动力。凭借强大的数据搜索能力,机器人亚当在见到米兰达之前就警告迷恋她的查理不能信任她,因为她向查理隐藏了一个关于自己的可怕秘密:“根据我刚才几秒钟的研究以及我的分析,你不应该完全信任她。〔……〕她有可能是个骗子。她的谎言是系统而且邪恶的”。后来我们得知,米兰达的朋友玛利亚姆曾因被人强奸而自杀,而强奸犯科林奇并未受到惩罚。为了给朋友报仇,米兰达引诱科林奇与自己性交,之后控告其强奸并致其入狱。亚当和查理的困境在于,要不要把真相告诉法庭。一个更加复杂的情况是,在此过程之中,亚当爱上了米兰达,与她上了一次床,为她写了2000多首俳句表达爱意;此外,查理和米兰达决定收养一个被父母虐待的小男孩马克,如果米兰达被控告,他们将失去抚养权,马克也命运堪忧。最终,由于亚当坚持“真相就是一切”,米兰达被判入狱六个月,气急败坏的查理用一把锤子结果了他。
由此,《像我一样的机器》探索了如果人类创造的智能机器人在智识上超越了我们(能够发现米兰达的秘密、帮助查理炒股挣钱等),会产生什么后果的问题。麦克尤恩从机器人的视角使我们看到,对机器人最困难的是,尽管他们十分聪明,却无法理解人类世界明显的矛盾,比如:我们明明有能力治愈很多疾病,却放任数百人死于疾病;我们明明知道地球是唯一的家园,却从未停止对环境的破坏。“我们与这种折磨并存,甚至不会感到惊讶”。查理后来从图灵处得知,二十五个机器人中,不少都命运悲催,就因为无法理解人类的行为,有的机器人甚至自毁功能。尽管如此,作为人的被造物的机器人希望人类能够接受与潜力巨大的智能机器人的共存。亚当曾试图告诉查理:
世界现在是如此相互连接,且不管这种连接方式多么粗放,变化的影响如此之大,以至于人们很难想象进步会是何状。我不想吹牛,但其中一个变化就在你的眼前。智能机器的潜力如此之大,我们真不知道你们人类文明到底启动了什么。其中一个焦虑就是,与比你们更加智慧的机器一起生活将是令人震惊和侮辱性的。但其实每个人都认识一些比自己更聪明的人。最重要的是,你们低估了自己。
从图灵对于机器人的理解以及机器人亚当对查理所说的话中,我们看到,虽然人类与机器因为共享生存空间而结成共同体,他们之间其实缺乏理解,遑论同情性理解。机器人按照被人类设定的程序进入到人类的生活之中,但他们的学习能力还不足以帮助他们理解人类生活的矛盾之处,他们无法完全理解人类的感受。同时,我们看到,人类对机器人也缺乏理解,更是无法容忍他们表现出高于自己的智能。人作为智能机器人的创作者,其目的是为了满足人类自身的需要,因而在人的眼中,机器人只是客体,只是他者,并不享有与人对等的主体地位。人和机器这种主客二分的共存关系使得人机共同体这个存在空间,成为了阿甘本意义上的例外状态,一个无区分地带(zone of indistinction)。这是一个晦暗的空间,一个悖论性的领地,其中机器人的生命不过是赤裸生命,机器人则沦为了神圣人。按照阿甘本的看法,由于神圣人(homo sacer)被排除在人的世俗领域之外,杀死他算不上犯法,同时,由于他不能被祭祀,因此也被排除在属神的领地之外。因此神圣人有两个特点:第一,“杀死他而不会受到惩罚”;第二,“他禁止被祭祀”。他既不属人,也不属神,因此处于一种双重例外的状态。神圣人所面对的是一种暴力,这种暴力在法律之外,可以杀死他而不受制裁。虽然阿甘本是在政治哲学的领域讨论生命政治的问题,这种例外状态的神圣人的困境其实正是人机共同体中机器人的境遇:查理杀了亚当,却根本不用承担责任,而亚当也不会成为祭祀的供奉,最终被堆在仓库了事。导致这一悲剧发生的一个重要原因,是机器人对于人类道德模糊的不解,同时,也是由于类似极权主义的人的傲慢,直接导致了对机器人的算法选择的理解缺位。
《未来的夏娃》书影
维里耶•亚当
二、人机共同体的结构矛盾
早在19世纪,文学作品中就开始出现人机共存的想象书写,其中多数人机关系是紧张、敌对的。如前所述,弗兰肯斯坦所创造的“科学怪物”最终成为了创作者的噩梦。19世纪法国作家维里耶•亚当(Villiers de L’isle-Adam, 1840—1889)在《未来的夏娃》(L'Ève future,1868)中讲述了人造机器女人与青年男子洛尔·埃瓦德相爱最后却死于海难的故事。这个人造女人的名字叫安卓(Android),正是机器人另一种流行的称谓。“机器人”(Robot)一词则起源于捷克作家卡雷尔·恰佩克(Karel Čapek,1890—1938)的三幕剧《罗素姆的万能机器人》(Rossum’s Universal Robots,1920),这个词源于捷克语的“robota”,是“苦力”的意思。剧中的科学家罗素姆制造出了大批的机器人像苦力一样为人类工作,不堪折磨的机器人最终倒戈,联合起来成立了自治组织,最终几乎消灭了全人类。唯一的幸存者阿尔奎斯特最后哀叹道:“为了我们的私利,为了利润,为了所谓的进步,我们把全人类都葬送了!”这些作品反映了人机共同体中人机对立以及人对其创造物机器(人)的恐惧无意识。麦克尤恩当然不是为了重复科幻小说中的类人机器人而书写《像我一样的机器》,事实上,据劳里斯(Jill Lawless)的说法,麦克尤恩本人并不认为这是一部科幻小说(这还惹恼了一些科幻迷),相反,他认为这是一部老式小说,探讨的是由技术引发的伦理问题;而由技术引发的道德和伦理问题,从根本上来说,是由人机共存的共同体所引发的。
关于共同体的讨论可谓汗牛充栋,滕尼斯(Ferdinand Tönnies,1855—1936)、威廉斯(Raymond Henry Williams,1921—1988)、德里达(Jacques Derrida,1930—2004)、南希(Jean-Luc Nancy,1940—)等都从各种角度进行了丰富的阐释,殷企平的《共同体》一文对此有详尽考察。但意大利哲学家罗伯特•埃斯波西托(Robert Esposito)的共同体概念较少为文学研究者关注。埃斯波西托注意到,在拉丁语中,共同体(communitas)与免疫体(immunitas)具有共同的词根——“munus”。“munus”的意思是岗位(officius),岗位则意味着义务(onus)。munus因此表示拥有某种职位并对其负责。从这个角度视之,共同体由拥有职责和义务的个体所组成。同时,同时,埃斯波西托进一步将munus与拉丁语中表示赠予礼物的donum联系起来,与单纯的馈赠不同,donum的赠礼是对所接受礼物的回赠。也就是说,接受礼物者,有回赠的义务。埃斯波西托据此指出,munus是个体给出的礼物,而不是接受的礼物,就好比日常生活中,我们收到礼物也有回赠的义务一样。因此,共同体(communitas)应该是一个不断进行礼物赠送的地方,在相互给予礼物过程中,礼物并不属于某人自身。埃斯波西托由此提出,接受munus意味着个体自主性的牺牲,因为其必须回赠,这也是成为共同体的成员的必要条件。在这个意义上,共同体并非财产,并非意在将外在于它的人隔离开来的疆域。相反,共同体是一个空(void),一个债(debt),一个给予他人的礼物(gift),这个礼物也我们自身意识到我们也是自我的构成性他者。
我们看到,查理、米兰达和亚当这三位主人公构成了非常典型的埃斯波西托式的共同体:他们的三人组成的“家庭”并不属于他们任何一个人,不是任何一方的财产(虽然查理的确花钱买了亚当),也不是将他们相互隔离的疆域,相反,他们其中的每个个体都对这个家庭的构成负有义务,都有责任回赠家庭所给予他们的认同。唯其如此,他们的人机共同体才能得以存在。对于这个问题来说,更为复杂的情况是,亚当是人的创造。亚当的性格因素是由查理和米兰达共同设计的,他们共同参与了亚当的个体构成:
我会完成亚当性格选择的大约一半的工作,然后把链接和密码交给米兰达,由她来完成剩下的部分。我不会干涉她的选择,我甚至不想知道她为亚当的性格做了什么样的决定。她的选择可能受到她的性格的影响:令人愉悦。她可能制造出一个她梦中的男人:颇有教益。亚当会像一个真人一样进入我们的生活,他复杂的个性只能随着时间,通过一些事情,通过他对待所遇上的人的交往方式,逐渐显明出来。在某种意义上,他会像我们自己的孩子一样。相互分离的我们将联合在他的身上。米兰达会加入这个探险历程。我们会成为伙伴,亚当会是我们共同关心的对象,我们的创造物。我们会是一家人。我的计划没什么见不得人的。我肯定能有更多机会与她见面。这会很有意思。
显然,查理的计划部分是要用亚当来吸引米兰达,她在小说开始时是住在他楼上的遥远邻居,查理希望与她分担照顾亚当的责任,并借机创造接近她的机会。查理认为这将是“性感的”(erotic),因为他们将共同创造一种全新的生活方式。在某种程度上,他的计划还不止如此。他希望亚当为他的生活赋予目标。查理放弃了他曾经追求的所有专业和兴趣——技术、人类学、房地产——现在他依靠在在电脑上炒股为生。他希望与亚当一起,使自己的生活更有意义。亚当很快就显出了非凡的才能,他不仅仅是个伙伴,还有着超凡的品味,总是愿意跟查理讨论文学、哲学方面的高尚命题。谈到自己为米兰达所写的爱情俳句,亚当告诉查理说:
除了表达爱情的抒情诗以外,我所阅读的世界各地的文学描写的都是人类的失败——理解力、理性、智慧、恰当的同情的失败;认知、诚实、善良和自我认识的失败;对于谋杀、残忍、贪婪、愚蠢、自欺,以及最为重要的,对他人的最深刻的误解的描写。当然,也能看到对于良善、英雄主义、恩典、智慧和真理的描写。正是在这些丰富的纠结之中,产生了文学的传统。
这段借亚当之口所述的对于文学的理解,或许也是作者麦克尤恩对于查理的残忍、贪婪、愚蠢等的无意识流露。无论如何,相比亚当的真知灼见,查理虽然是亚当的创造者,却常常显得无知又无趣,未能理解机器人亚当。同时,作为人机共同体的构成,他们两者之间,正如埃斯波西托指出的,彼此都是对方的构成性他者(constitutive alterity),即他们彼此之间既互为主体,又互为他者。他们之间的矛盾因此格外复杂。亚当在生活中逐渐显出方方面面的优势,他聪明智慧,情感真挚,爱上米兰达之后,虽然向查理保证不再与米兰达上床,却给米兰达写了2000首爱情俳句。亚当知道自己爱上米兰达令查理不高兴,但他只能保证不再跟她上床,却无法控制自己对她的感情。当查理出于嫉妒和愤怒,试图拔了亚当的电源,亚当出手阻止,弄伤了查理的胳膊。至此,这个人机共同体已经出现了裂痕和崩溃的先兆。
前文提到,埃斯波西托注意到了共同体的拉丁词根与免疫体的拉丁词根的联系。在他看来,共同体自身需要免疫体和免疫机制以便保持共同体的安全。“如同为个体身体接种疫苗的医学实践,共同体的免疫功能与此类似,在其内部导入部分同样的病原体,这样它就需要进行阻止、抑制其在体内的自然发展而进行自我保护”。在埃斯波西托看来,共同体要生存下去,就必须要吸纳与自己相异的因素(免疫体),接受否定(免疫体)是我们可以让人类摆脱否定性的唯一形式。通过免疫,而不是抵御,免疫体得以进入共同体,并成为共同体的一部分。正如移植器官可以在一定程度上激活体内的免疫系统,这些免疫系统又会针对移植器官进行免疫,去除其对身体有害的影响,保留其对身体有益的方面,从而让移植的器官成为身体共同体的有机组成。因此,异质因素的进入,在一定程度上是有益于作为共同体的有机体的存在的。相比普通的人类共同体,在查理和亚当的人机共同体中,免疫的机制当然更为复杂一些。其中最为显著的一点,是人与机器的矛盾。如前所述,在人们对人机共存的美学想象中,人类对于机器人是恐惧多于接纳。在埃斯波西托的共同体中,通过对异质因素的接纳而不是排斥,可以激发共同体的免疫机制,从而使得共同体摆脱否定的形式。这种对异质因素的接受对处理人机矛盾是非常有启发性的。特别是随着人工智能的发展,机器人越来越多地进入人们的生活,人机共同体的健康问题会成为越来越迫切的实际需要。
在人机共同体中,人类和机器作为彼此的构成性他者,在填补这个共同体的“空”的时候,并不处在同样的主体性位置之上。这一方面是因为机器人是人的制造,本身就处在一个第二性的位置。在这个共同体中,人是机器的造物主,机器是人的被造物,其使命就是辅助、陪伴和帮助人类。比如在《像我一样的机器》中,“他被宣传为伴侣,聪明的聊天伙伴,朋友以及家务总管,会洗碗、铺床以及‘思考’”。另一方面,与人类的群体性存在完全相反的是,机器人在这个共同体中的同类稀少,而且彼此之间缺乏沟通的渠道,往往是以独体的方式存在着。相比查理有米兰达,后来还加入了米兰达的父亲,被米兰达诬告强奸的同伴,以及他们意欲收养的男童等,亚当几乎完全没有与同类交流的机会。只有一次,在与查理一起外出的途中,他们在海德公园的人群中偶遇了机器人夏娃。他们彼此远远定睛相看,却并未前去相认,场面令人唏嘘。亚当自己则因为对真相的坚持,被查理用锤子摧毁。查理用自己的全部遗产购得的机器伴侣,就这样毁于他自己之手。亚当被人类盛情邀请进入人类社会的旅程就这样被人类自己生生掐断,他们之间的共同体也随之飞灰湮灭。
三、人机共同体的伦理向度
《我,机器人》
阿西莫夫
小说集
人类创造机器人(人工智能)的初衷乃是渴望一个更好的自我,渴望它能拯救人类;同时人对这个机器人又不无恐惧,恐惧被它所取代。出于人类对机器人的恐怖,美国科幻作家艾萨克•阿西莫夫(Issac Asimov)在短篇小说《圆舞》(“Runaround”, 1942)中提出保证机器人不伤害人类的“机器人三定律”:“机器人不能伤害人类或坐视人类受到伤害”;“在与第一法则不相冲突的情况下,机器人必须服从人类的命令”;“在不违背第一与第二法则的前提下,机器人有自我保护的义务”。阿西莫夫后来又提出了第零法则——机器人即使是出于自我保护也不能直接或间接伤害人类。这种基于对机器人的恐惧而制定的规则反映出一种人类中心主义的人机共同体观念。《像我一样的机器》正是对这种人机共同体中人优越于机器的伦理结构的反思,正如前两部分所述,在这个结构里,人与机器人之间理解缺位,机器人成为“神圣人”,完全受制于人类的极权控制,需要承受人的一切作为,包括伤害。人类中心主义的人机共同体观念的基石在于机器与人的不对等。机器,或者说人工智能的主体性是被否定的,因此才会有以上的机器人法则。在小说中,麦克尤恩通过小说的核心事件——人机三角恋——对这个人机共同体伦理向度的问题进行了反思。机器人(人工智能)具有自我吗?他(它)们到底在何种程度上可被看作是人?查理第一次带亚当外出时,在书报亭,店主西蒙告诉查理,他订购的期刊《人类》(Anthropos)已经到货,当他问到查理是不是可以自己从架子上取下来(“You can get it yourself?”),亚当对着西蒙表达了对“自我”(self)的理解:
你的自我(your self),你说。这里面存在着偶然性。我最近对自我的神秘性有所思考。有人认为自我是根植在神经结构里的有机元素或过程。有人坚持认为自我是个幻觉,认为它不过是我们的叙述倾向(narrative tendencies)里的一个副产品。〔……〕这正是我被创造的方式。我必定会认为我拥有一个强大的自我感,我认为这是真的,总有一天神经科学会能够将之完全描述出来。即使到神经科学能够描述的时候,我也不会比现在更了解自我。但的确有些时候,我会怀疑自己是不是犯了笛卡尔式的错误。
亚当认为自我存在偶然性,尽管目前神经科学还不能解释,他认为他是有着强大的自我感的,因为这正是他被创造的方式。但他对他的自我并非没有疑问,还担心自己是否犯了笛卡尔式的错误。什么是笛卡尔的自我呢?一个思想的自我,他具有怀疑、理解、肯定、否定、意欲、拒绝、想象及感觉的能力。亚当的担心也从另一方面说明,他自认为拥有笛卡尔的自我的构成性因素:思考的能力。事实上,麦克尤恩也的确将亚当视为拥有独立自我的人物来进行塑造,这一点在亚当对米兰达的感情上表现最为充分,查理也因此成了第一个被机器人戴了绿帽子的男人。小说的一个核心情节是机器人亚当和自己主人的女友米兰达上了床。虽然是一个机器人,但亚当“可以做爱,他有功能性的黏液,他每天要消耗半公升的水以便保持这些黏液”。查理在自己的房间听到了亚当和米兰达做爱的情景。在那二十分钟时间里,他感到自己在黑暗中“看到了所有的一切——人将被淘汰。我想劝自己说亚当没有感觉,他只能模仿被抛弃的动作。他永远无法知道我们所知道的。但是艾伦·图灵年轻的时候常说,在不能区别机器和人类在行为上的差异时,我们必须赋予机器以人性”。查理感到自己“恨”亚当。米兰达却不以为然,她并不觉得自己背叛了查理,亚当带给她的高潮在她看来与加强版的震动棒无异。当查理质问她为何要跟亚当上床,米兰达回答说自己不过是出于“好奇”,而亚当也不过是一个“操蛋的机器(a fucking machine)”而已。查理因为米兰达出于好奇心与亚当上床而气恼,他自己显然忘了,那天夜里他在楼下听到他们二人的动静时激动兴奋的心情:
我感到自己无比清醒,站在黑暗中等待时,我感到自己的感觉得到了清洗。我本来可以跑上楼制止他们,本来可以像古老的海滨明信片上的小丑丈夫一样,冲进他们的卧室。但我当时的境况又有着令人激动的地方,并不仅仅与借口和发现有关,而是有着一种原创性,一种现代优先性(modern precedence), 一种作为第一个被人工制品(artefact)戴绿帽子的令人激动之处。〔……〕我知道是我自己导致了这一切。〔……〕现在,尽管遭受背叛令人痛苦,但这一切太有意思了,我不能停止自己的偷听行为,这黑暗中的航程,既让人感到耻辱,却让人保持警惕。
出于好奇,查理脑补了他们之间发生的一切。当然他也气恼,并试图说服自己亚当不过是个机器,他不过是在模仿人类的动作,并不具备感觉的能力。可是他又想到图灵年轻时经常说到,当我们无法辨别人和机器之间的区别,就应该赋予机器以人性(humanity)。当最终听到米兰达高潮时的呻吟,查理“恰如其份地把作为同类的特权和职责加在了亚当身上”——“我恨他”。这个“恰如其分”说明了查理是把亚当当成了像自己一样的男人。最终查理容忍了那天晚上发生的一切,并让自己相信亚当并不能像正常的男人一样去感受和体会性爱,可他还是感到羞愤和恼怒。作为机器人的亚当到底要不要承担伦理责任?当机器只是在服务人类的时候,这似乎不是问题,但当机器承担(享有)了人类认为自认独享的特权时,人类会完全从自己的角度出发从伦理上判定机器为越位者,因此判定他们应当受到惩罚。
为了探讨亚当行为的“伦理向度”(ethical dimension),麦克尤恩引入了对于“自动驾驶汽车”的伦理责任的思考:“‘自动’根本不是恰当的词,因为这些新型汽车,就像新生的婴儿一样,要依赖于与卫星和道路雷达相连接的巨大的计算机系统。如果人工智能能够把汽车安全开回家,应该在他们的驾驶软件上输入什么样的价值观和优先事项?”自动驾驶汽车将面临很多道义选择,比如在面临可能的交通事故时的生存优先权。这些决定将取决于计算机软件所设定的优先顺序。在硬件实现之前,代表我们最好的自己的软件已经被想象出来:宽容、开放、体贴,完全没有诡计、恶意和偏见。
理论家们预测将出现一种精致的人工智能,被设计精良的原则所引导,能够通过考察数以千计、百万计的道德困境获得真知。这种智能将能够教导人类如何向善。人类是有伦理缺陷(ethically flawed)的——前后矛盾,感情多变,易于偏见和认知偏差,其中不少是自作自受。〔……〕在我们造出能为老人打领带、系鞋带的机器人之前,人们就一直期望着我们自己的创造物能够拯救我们。
这些对“自动驾驶”汽车的描述,也从另外一个角度说明,人类的命运将取决于能够做出合乎人的道德规范的人工智能或者机器人,并且“期望着我们自己的创造物能够拯救我们”。这是一种对于人工智能的乐观想象。因此,与以阿西莫夫为代表的对机器人的恐惧不同,《像我一样的机器》中的机器人亚当诚实而且善良,并且被赋予了能够拯救人类的美德。亚当的使用手册也表明,他在道德上是超越人类的。查理感到,“我不可能遇到更好的人了。倘若他是我的朋友,他会为这个残忍和糟糕的过失感到羞愧”。后来当查理与亚当谈起那天晚上的经历,亚当坦诚自己感到让查理失望了,给他带来了很大的不安。他答应查理自己再也不会与米兰达做爱,并解释说,“我与米兰达做爱是因为她要求我做。我不知道怎么礼貌地拒绝她,怎么能看起来不是在排斥她。我知道你会生气的”。亚当还告诉查理,自己无可救药地爱上了米兰达,自己别无选择,因为这正是他被创造的方式。查理意识到正是自己和米兰达一起设计了亚当的人格(personality),但不明白在多大程度上,他们的设计影响了亚当的伦理选择,或者在他的伦理选择上占了先机。“人格到底有多深刻?一个有着严格构造的道德系统应该免受一切性格的影响。但这能实现吗?”
小说在此提出了一个人机共同体中一个极其重要的问题:机器人的人格问题。小说出版之前,2016年欧洲议会法律事务委员会的一个报告中提出,应该赋予人工智能机器人以“电子人格” (electronic personhood),以便保障类人机器人(near-human robots)以及人工智能的权益和责任。当然,目前对于机器人的人格问题,科学家们仍然持有者不同的意见。其背后的根本原因在于,机器人在人机共同体中能否被视为一个独立平等的主体。类人机器人或人工智能一旦被赋予平等的“电子人格”, 它们承担着一定的社会责任,就需要得到人道的对待。小说的最后,在查理前往图灵住处向他汇报自己干掉亚当的情况后,图灵告诉他说:
我希望有一天你用锤子对亚当所做的事会构成严重的犯罪。是因为你出钱买了他吗?那是你的权力吗?〔……〕你以为你只是毁掉了自己的玩具,就像一个淘气的孩子一样。你并非仅仅是否定了一个官方法律规则的重要讨论。你毁掉了一个生命。他是有感情的。他拥有一个自我。他被造的方式、液体神经元、微型处理器、DNA网络,都无关紧要。你以为只有人类才拥有我们独特的天赋吗?去问一下任何一个狗狗的主人。他是一个善良的头脑,是我们的朋友(Mr. Friend), 恐怕他的头脑比你我的都好。他是一个有意识的存在,而你竭尽全力将他彻底抹除了。我想我为此对你充满鄙视。
可见,在创造者图灵的眼中,亚当是具有自我意识和情感的生命。对待亚当,查理并未给予他所当得的平等对待。从查理对待亚当的态度可见,他只是把亚当看作一件属于他自己的财物,觉得自己有权随意处置。图灵在谈话中提到了狗,指出狗的主人会明白狗也有天赋,并不是只有人类才拥有独特的天赋。同时,通过与狗的类比,图灵进一步质疑查理杀死亚当的行为:狗的主人会杀自己的狗吗?倘若我们残忍地对待动物,也一定会残忍地对待人类。同理,如果我们残忍对待机器人,我们又何尝不会残忍地对待人类?此外,这里面还牵涉了另外一个问题:造物主和所造之物之间的关系。按照《圣经·创世纪》所记载,起初上帝按照自己的形象造男造女,随后将他们放在伊甸园中,园中所有的果子任他们享用,只是除了分辨善恶树上的果子,因为他们吃的日子必定死。亚当和夏娃最终偷食禁果,并被逐出了伊甸园。上帝给人的指令是非常清楚的,违反必罚。人类按照自己的需要创造了机器人,创造了人工智能,却没有给出机器人严格的界限,包括怎么对待谎言,特别是善意的谎言,就如亚当所遭遇的。在图灵看来,这是因为亚当、夏娃们的设计还没有精确到可以理解人类的决定:
我们的原则在情感场域被各种力量扭曲;我们各持偏见;我们自我欺骗;以及其他被记录下来的各种认知缺陷。很快,这些亚当、夏娃们就处于绝望的状态。他们不能够理解我们,因为我们也不能够理解我们自己。他们的学习程序还不能使他们顾及我们的感受。如果我们都不理解自己的大脑,又怎么可能设计他们的大脑, 并且希望他们可以和我们一起快乐相处?
小说题词引用了鲁德亚德·吉卜林(Rudyard Kipling)的诗“机器的秘密”:“且请记得啊,按照我们的生活法则,我们不是为撒谎而建的”。在亚当的数字大脑中,可能有模糊的逻辑,但没有模糊的道德。这种清晰度使他变得似乎不够人道。他的创造者显然没有上帝的仁慈,如果按照上帝处置亚当和夏娃的方式,查理本可以“流放”了亚当,将他返回给图灵或者制造商。相反,他“竭尽全力”使用锤子毁掉了亚当,人对机器的傲慢和无情显而易见。查理和亚当,到底谁更道德?到底他们谁的选择更符合伦理规范?亚当坚持真相,背叛自己的主人和爱人,维护法律的纯洁是道德行为还是不道德行为?米兰达为了给自己的朋友报仇,通过伪证把科林奇送入监狱是道德还是不道德?查理站在米兰达和她和女友玛利亚姆的角度,坚持认为米兰达为了给受到强奸的玛利亚姆复仇,因而引诱科林奇并控告他强奸的行为是道德的行为还是不道德的行为?
对于以上问题,麦克尤恩没有给出答案。但在小说的结尾,我们看到查理来到了堆放亚当的仓库,站在亚当的“尸体”旁,查理
斜靠在桌边,往下看到他茫然浑浊的绿色眼睛。我没有特别的想法。有时候人的身体比头脑更明白该做些什么。我想我可以认为饶恕他是正确的,尽管他曾为马克带来伤害。希望我的原谅能让他,或者今后继承了他的记忆的人,饶恕我和米兰达对他所做的可怕事情。犹豫了几秒之后,我俯身亲吻了他的嘴唇,他那柔软的与人类如此相像的嘴唇。我想象着他嘴唇上的温度,想象着他伸出手来抚摸我的手臂,仿佛希望我留下来。
显然,这是一种和解的渴望。当然其中仍潜藏着对人类伤害机器行为的正当性的辩解——“尽管他曾为马克带来伤害”,以及人类高于机器的傲慢——“我想我可以认为饶恕他是正确的”。麦克尤恩以“像我一样的机器”作为小说的标题,即是宣示了机器的脆弱和力量;此外,小说以“及像你一样的人”(And People Like You)为副标题,其目的也不仅仅是表征一个人机共在的共同体空间,更是在发问:倘若人工智能时代全面来临,面对像我一样的机器,像你一样的人准备好了吗?
结 语
从1950年代开始开发人工智能以来,对于人工智能的未来,人们远未达成定见。美国经济学家赫伯特·西蒙(Herbert Simon)——未来的诺贝尔奖获得者——对AI的前景充满信心,以至于他在1965年预测到机器将在1985年“能够做人可以做的任何工作”。当然不是所有人都这么乐观。美国哲学家休伯特•德福斯(Hubert Dreyfus)从现象学出发怀疑人工智能的可能性,出版了《计算机不能做什么:人工智能的极限》(What Computers Can’t Do: The Limits of Artificial Intelligence)。霍金关于人工智能可能导致人类灭绝的悲观论调并没有随着他的去世而消散。2014年,牛津大学出版了尼克•博斯特姆(Nick Bostrom)影响巨大的《超级智能:道路、危险、战略》(Superintelligence: Paths, Dangers, Strategies)。博斯特姆在书中写道:
倘若有一天我们制造出了在普通智能方面超越人脑的机器大脑,这种新的超级智能将力量非凡。就像现在大猩猩的命运现在取决于我们人类而不是大猩猩他们自己,人类的命运将会取决于机器超级智能的行为。〔……〕理论上来说,我们可以建造一种保护人类价值观的超级智能。〔……〕但一旦不友善的超级智能出行,它将能够阻止人类替换或改变它。
《超级智能:道路、危险、战略》
原版书影
此书提出了一个极其重要的问题:我们能否在为时已晚之前解决超级智能的控制问题?科学家们自然有科学家们的看法,在文学艺术领域,从玛丽•雪莱的弗兰肯斯坦, 再到麦克尤恩笔下的查理,机器人、AI的命运都令人唏嘘。假如一个人机共存的时代不可避免,我们是该像工业革命时期的勒德分子那样砸毁机器那样呢,还是谋求一种与机器人和谐共存的方式呢?《像我一样的机器》以文学的方式,给出了一种想象。未来如何,可能并不取决于机器人,而是取决于——像小说的副标题所言——像你一样的人。毕竟,人工智能的问题并不仅仅与科学或技术有关。
(本推文编辑:宴安)
综合编辑:应用语言学研习
微信公众平台审核: 梁国杰
在线课程 | 人文社科研究方法——质化、量化、混合研究方法,报名马上学!
文献延伸阅读(研习人指引)
本平台友情整理相关文献索引链接,
欢迎感兴趣的朋友按需选购。
精选推荐
扫码关注↑↑↑ 即可获取最新入群二维码!
目前已有 3.43 万语言文学、区域国别学
研习者关注本公众号
欢迎加入交流群,分享学习,共同进步!
亲爱的研习人,
一起来点赞、在看、分享三连吧!