社交机器人的界限、潜力和挑战,这一本书就够了
11月,由北京大学博古睿研究中心、北京大学哲学与人类未来研究中心推出的图书《社交机器人:界限、潜力和挑战》,在北京大学出版社出版发行。这是 “博古睿机器人和人工智能伦理”系列的第一本译著,旨在反思科技伦理,前瞻未来社会问题,共迎人工智能伦理难题。
《社交机器人:界限、潜力和挑战》
(Social Robots: Boundaries, Potential, Challenges)
该书由丹麦奥尔胡斯大学学者马尔科·内斯科乌(Marco Nørskov)整理编辑,中文版由柳帅、张英飒翻译。从“与社交机器人共情”、“机器人与道德界限”、“人机交互的技术风险与潜力”、“恐怖谷理论”、“分布式的智能他者”、“机器人、人类、社交世界的边界”和“性别设计”等机器人学、政策、法律和伦理学的前沿领域问题进行探讨与回应。
文字,艺萌
编者序言
通过探索社交机器人学(social robotics)的潜力,我们正在尽可能地拉伸社会交往空间的可塑性和界限。在当今这个时代,我们经常默认社会交往空间仅仅属于人类以及人际交往关系。然而机器人作为全新交往“伙伴”——不管是作为人类伙伴的替代还是补充——的出现,都在挑战着我们在各个层面上对自身作为个体和共同体成员的自我理解。对最近这一趋势的一个很有代表性的标志,是谢里·特克尔(Sherry Turkle)创造的术语——“机器人时刻”(robotic moment):
我发现,人类逐渐开始不再仅仅把机器人看作宠物,而是也严肃地把它们看成潜在的朋友、知己甚至爱侣。我们似乎并不关心这些人工智能是否真的“知道”或“理解”我们与其“分享”的人类时刻。在机器人时刻下,它们只要表现出一种紧密的联系似乎就足够了。
然而这还不是事情的全部,因为社交机器人带来的交往体验感受虽然有所欠缺,但可能比一些人际交往的体验感受还要更好(参考上文)。
这本文集的目标,就是在这些科技发展及其前景的大背景下,探索我们与这种全新类型的社交伙伴之间的相遇所涉及的界限、潜力和挑战。这本文集里面的文章是一系列彼此交织、相互结合的社交机器人学研究。我们从哲学的视点出发,但是由于社交机器人学本身是一个真正意义的交叉学科,书中一些章节也会涉及社会学和美学这些不同学科的各种思路。无须多言的是,这些研究绝对不能涵盖机器人学的全部内容。就像我在第六章中说的那样,“机器人”这个术语本身就是很模糊的,我们用它来指称很多类在本质上完全不同的机器——比如扫地机器人、遥控无人机、科幻机器人等等。“社交机器人学”这个词因此同样是模糊的,而非仅仅涵盖了人形机器人(humanoid robots)。文集中的大多数文章都把与人类外观非常相似的机器人作为研究重点,但其中一些章节也会讨论其他的一些机器人应用和交互语境,例如宠物机器人、增强社交机器人科技(augmented social robotic technology)、非本地化的机器人系统(non-localizable robotic system)等等。本书中所有文章的目标,都是为人机交互(human-robotin teraction,HRI)的其中一些方面提供洞见和透彻的理解。社交机器人学的研究和发展要想在社交语境下导向可持续和负责任的机器人应用,就必须深入理解我们这里提到的这些问题。
由于这些技术具有潜在的风险和后果,大多数相关的哲学文献都自然而然地聚焦在伦理学问题上。尽管这本文集中很多章节也都处理了伦理道德问题,但我们这里提及的课题和问题的涵盖范围比这更广。“机器人-哲学”(robo-philosophy)这个可能最早由约翰娜·赛布特定义的标签似乎更为合适,因为这本xvi III编者序言文集涉及很多与哲学有关的思路流派;我们的目的是通过这本文集来开启更多激发理论和实践进展的讨论,而不是仅仅把现有的哲学理论单纯应用到机器人这一现象上。
社交机器人学的诞生,以及它在未来的发展导向,都会对所有学术领域带来挑战。而由于这门学科不断地将技术和想象力推至极限,因此很多对它的短期和长期应用,以及这些应用的语境都只是概念性的。当然这并不意味着它们是不相关的内容。恰恰相反,我们必须不断地去思考这些带来潜在风险的技术的界限、潜力和挑战,并以此来勤勉地保障所有利益相关方都能繁荣发展;这些利益相关方既包括个体,也包括公司和机构,甚至包括社会和人类整体。
这本文集涉及的课题包括社会政治问题、社会感知(social perception)、社会认知(social cognition)和社会认同(social recognition),以及如何在社交机器人学的领域内开展研究和前进方向的问题。这些章节以各种各样的方式相互关联,尽管如此,我希望读者觉得下文中的划分和综述对理解这些章节之间的关系有所帮助。
第一部分:界限
考虑到机器人学领域的现状和短期前景,本书第一部分将会讨论人机交互的界限。更具体地说,第一部分会探究一些细节和概念层面的问题,例如真正意义上的社会交往所需要的认知能力,以及人类对社交机器人产生共情的现象。除此之外,我们还会讨论机器人能否成为道德施动者(moral agent),并探索机器人学在亲密关系中受到的限制。
机器人想要以和其他社会成员一样的身份全面进入我们的社交空间,至少要满足一些特定的最低要求。在第一章“论理解在人机交互中的重要性”中,朱莉娅·卡尼夫卡(Julia Knifka)就探索了哪些认知能力是必要的。通过援引阿尔弗雷德·舒茨(Alfred Schütz)的社会现象学研究,她考察了机器人是如何理解人类交往伙伴的肢体动作和行为的。她具体论证道,机器人不仅需要观察人类的行为并能模仿特定的社交线索;要想成为可以被我们理解的社交伴侣,机器人除了能恰当应对我们的行为之外,还必须同时具有理解、诠释信息以及相关场景语境的能力。她得出的结论是,除非机器人能够拥有我们人类的视角,从而在对他人动机的理解基础上参与共同行为(joint action),否则它们不可能进行真正的社会交往。
在第二章“与社交机器人共情:对‘情绪的想象性知觉’的新探讨”中,乔希·雷德斯通(Josh Redstone)考察了卡特琳·米塞尔霍恩(Catrin Misselhorn)的“与无生命对象共情”这一观念,后者认为这一观念是我们的想象力和知觉之间某种交互作用的结果。雷德斯通指出了“想象力”这个概念的语义模糊性,并论证了我们最好把这里的共情理解为某种知觉幻象(perceptual illusion)。这篇文章不是要拒绝米塞尔霍恩的理论,而更像是对它的建构性改进。雷德斯通在自己之前研究的基础上,修改了米塞尔霍恩的理论框架,并将其运用到了森政弘(Masahiro Mori)的恐怖谷假设(Uncanny Valley hypothesis)上。米塞尔霍恩自己是把恐怖感和共情失败(failure of empathy)联系在一起的,但雷德斯通认为在调整后的框架中,我们在面对高度拟真的机器人时体验到的恐怖感其实不是共情失败,而是共情持续(persistenceof empathy)。这一章的结尾讨论了共情在米塞尔霍恩框架和作者自己的框架中的各自位置。既然机器人不具有真实的人类情感,那么人类对机器人的幻觉性和想象性的共情也就不是真正的共情。
假如机器人真的闯入了我们的社交空间并担负起人类过去担负的某些角色,那么我们就必须澄清机器人在这些新兴交互关系中的道德地位。拉法埃莱·罗多诺(Raffaele Rodogno)在第三章“机器人与道德界限”中批判性地讨论了社交机器人成为道德施动者和道德受动者(moral patient)的可能性。尽管大卫·贡克尔(David Gunkel)和马克·科克博格(Mark Coeckelbergh)持有反对意见,但作者的结论是,机器人在具备特定属性之前仍然不是道德考量的合适对象。作者论证道,由于机器人缺乏人类可辨认的利益诉求,我们没办法理性地解释它们道德考量的客观基础。然而在另一方面,罗多诺却没有排除“机器人是利益诉求的客体”(即机器人是派生的道德受动者)的可能性。至于在道德施动性这一点上,罗多诺采纳了某种形式的道德情感主义,并认为对特定情感的感受能力是获得核心道德知识的必要条件。这也意味着,只要机器人还不能体验到情感,它们就不是真正意义的道德施动者。简单来说,罗多诺的观点是,道德施动性和道德受动性(moral agency and patiency)这两个概念的结构和范围都受到了人类生理及其文化维度的制约。
人类的私密领域,尤其在涉及社交机器人学关注的应用场景和市场时,并不总是一成不变的。查尔斯·埃斯(Charles M. Ess)在第四章“这和爱有什么关系?”中,通过研究人机之间的性关系去探索人机交互的极限在哪里。作者认为,尽管与机器人发生性关系并非不可设想,但机器人仍然没有能力作为真正意义的性爱伴侣与我们人类交往,因此也就无法实现莎拉·鲁迪克(Sara Ruddick)所谓的“完整性爱”(complete sex)。由于缺乏完整的自主性、真实的情感以及其他特质,机器人无法实现充分的亲密关系,因为这种关系依赖那些人类内在特征的双向性(mutuality)——尤其是欲求(desire)这种情绪的双向性。换句话说,完整性爱的特征是双方“欲求着被欲求”(desireto be desired),而社交机器人没有欲求的能力,因此人与机器人之间不可能实现双向欲求。埃斯同时还指出,用性爱机器人来将就凑合是有潜在的负面风险的,因为完整性爱实现和滋养了很多重要的人类美德,例如爱与尊重。即使机器人作为性爱伴侣在某些场景下或许完全合法,但埃斯仍然认为,在缺乏完整性爱的条件下,机器人不能激发和促进这些美德的形成,而这些美德对深厚的友谊关系和完整性爱都是必要的。如果我们把与机器人的性关系和我们在人际亲密关系中能达到的潜能混淆起来,这可能会导致我们无法作为朋友和爱人去实现有美德的幸福生活。
第二部分:潜力
即使面对着诸多界限与挑战,社交机器人领域仍然为跨学科研究和提高终端用户——“人机交互”中“人”的一端——的生活质量贡献了巨大的可能性。这本文集的第二部分会展示社交机器人的潜力以及这些潜力得以发挥的先决条件。在实践操作层面,我们将探索一种用来保证社交机器人能够以可持续、负责任的方式发展自己潜能的工具。我们会讨论一种受人机交互驱动的、自我实现的可能性,并在这之后指出,对去人类化(dehumanization)过程的研究将为恐怖谷现象—— 一种对用户体验造成了严重限制的现象——提供新的解读思路。最后,我们还将展示机器人表现与美学的结合如何向我们解释了人类本性的核心要素。
机器人技术早已被广泛应用于从战争到医护的各种关键任务(mission-critical)之中了。然而在第十二章(第三部分)中,我们会看到,风险相对较低的日常机器人应用同样会对我们产生深刻的影响。在第五章“机器人学与人工智能研究中的伦理委员会”中,约翰·沙林斯(John P. Sullins)分别从短期和长期技术前景这两方面,讨论了设立功能性的伦理委员会的必要性。在我们面临有可能引起混乱的技术时,这种委员会将有效地保障一种负责的、可持续的研究和发展。沙林斯认为,与那些声称“科技发展的现状还不需要这些监管机构”的言论恰恰相反,设立这类机构已经是非常紧迫的事情了。他很有建设性地列出了在个人和组织层面开展伦理审查的利与弊。沙林斯提出,为了保证伦理委员会的效率与可操作性,它们应该满足这样一种核心要求:我们应该对研究人员、程序员和工程师开展充分的伦理教育,以保证个体、社会和工业界把共生共荣看作一致目标。
我们对感觉、信念和欲望的归属问题,和我们对社交机器人的概念化(conceptualization)和理解方式是紧密相连的。第六章“人机交互的技术风险与潜力”将讨论我们对机器人的概念化这一根本问题。马尔科·内斯科乌(Marco Nørskov)将大卫·沙纳(David Shaner)提出的佛教中三重身心觉性(bodymind awareness)的理念应用到了人机交互的案例中。他指出,对机器人进行概念化背后的认识论机制本身就是一种人类的创造。沙纳借此强调了概念化过程背后的道德意涵。他借助这种受佛教启发的思想和海德格尔技术哲学进行了对话和比较,并因此试着辨析社交机器人带来的技术危机和潜力。内斯科乌进一步考察了一种人机交互模式的可能性,这种交互模式不能被还原为单纯的“储备资源”(standing reserve);他随后讨论了一种受到人机交互驱动的、能够滋养人类自我实现的实践的可能性。
第七章的主题是恐怖谷假设,我们在前面的章节中也提到过这个话题。这个假说最早是森政弘教授在1970年发表的。他在那篇论文中认为机器人学研究不应该把机器人设计得太像人类,因为这种机器可能会在终端用户心中引发一种恐怖或怪异的感觉。阿德里亚诺·安杰卢奇(Adriano Angelucci)、皮耶路易吉·格拉齐亚尼(PierluigiGraziani)和玛丽亚·格拉齐亚·罗西(Maria Grazia Rossi)在第七章的论文中也采用了和森政弘一样的标题——“恐怖谷”。考虑到恐怖谷现象对用户体验施加的严峻挑战,三位作者批判性地考察了机器人学和计算机图像学克服这一现象的技术尝试。如果机器人和图像动画达不到足够的逼真度,它们就会掉入恐怖谷之中而无法在人类交互伙伴心中引发共情的感受。如果这些机器人想要在人机交互中扮演社会成员(social actor)的角色,那么恐怖谷现象会为它们施加很严重的局限。虽然在此之前的研究主要关注的都是这种恐怖感的原因,但第七章的三位作者认为存在着另一个尚未被深入研究的领域:在人机交互语境下这种“恐怖感”的本质。这些作者强调了这一问题的哲学性质。他们进一步提议,所有“不愿意把落入恐怖谷的形象看作人类”的抗拒心理,都和认同(recognition)的问题相关。正是在这一语境下,这些作者在结论部分提出了一种新假说——我们对机器人的厌恶(disgust)感是和去人类化的过程关联在一起的。他们预言,对去人类化过程的仔细考察将会帮助我们对恐怖谷现象达成更全面的理解。
考虑到人际社交的复杂性(参考第一部分),我们往往用遥控机器人而不是全自动机器人来弥补相关技术的不足。也正是出于这个原因,遥控机器人在人机交互研究和其他应用领域中焕发了活力,并以各种创新的方式被利用起来。其中一个应用场景就是艺术——比如机器人作为“演员”登场表演话剧。冈希尔德·伯格格林(Gunhild Borggreen)在第八章“舞台上的谎言”中就向我们展示了机器人艺术和美学怎样反哺和启发了机器人学的研究。她的分析主要建立在平田奥里扎(Oriza Hirata)和石黑浩(Hiroshi Ishiguro)联合执导、由两个人形机器人联合主演的戏剧作品《工作的我》(I, Worker)的基础上。但伯格格林同时也讨论了《绿野仙踪》(Wizard of Oz)这部剧,以及它作为一种类似戏剧的、在实验室内开展的人机交互测试设定的概念。伯格格林在文章中专注于“骗局”(lies)这个概念——首先是《工作的我》的机器人演员表演的骗局,其次是《绿野仙踪》中的机器人对实验被试人的骗局(被试人对机器人的内部运作机制一无所知)——并讨论了美学如何揭示出“人之为人”相关的根本问题。在援引了约翰·奥斯丁(J. L. Austin)理论的基础上,伯格格林论证道,我们认为拥有了人类能力的机器人,其实都是按照人际交往范式去行动的“寄生虫”(parasite)——它们的假装(pretense)摧毁了我们现有的人际交往惯例(inter-human praxe)。伯格格林在最后的分析中指出,表现性理论(theory of performativity)和美学都可以有效地揭示,当我们通过特定规范习俗去回应世界的时候,在多大程度上是被社会“编程”了的,以及这种编程如何建立能动性(agency)。
第三部分:挑战
当我们要把社交机器人系统整合进社会之中的时候,这些机器人在本体论地位、社会地位、伦理地位上的模糊性就对我们的现有机构、自我理解和生活方式构成根本性的挑战。这本文集的第三部分会考察这些挑战。更具体地说,这些文章会考察我们在机器人的社会地位不明的情况下是如何对人机交互进行实证分析的。我们会讨论非本地化的机器人系统带来的伦理和法律问题,以及和性别机器人相关的一系列问题。在这之后,我们还会展示机器人系统对我们的意愿和行为施加的限制,以及它们对我们人类自主性和主体性的影响。
“社交成员意味着什么?人之为人又意味着什么?”社交机器人学正在实证和概念的双重意义上质疑我们对这些问题的那些制度性和功能性的理解。松崎泰宪(Hironori Matsuzaki)在第九章“机器人、人类、社交世界的边界”中审视了社交机器人对我们关于人机交互的理解造成的挑战,尤其是我们对社会性,以及如何从事批判性的实地研究的理解。在观察到“人类”(human being)这个概念在文化和历史上都并不稳定,以及论证了“人类”和“社会成员”的外延未必等同之后,松崎泰宪提议,我们应该用分析人际交互的方式来分析人机交互的社交层面。在社会学基本预设的基础上,这样做的结果就是松崎泰宪发展的一个研究人机交互的新框架,其目标是悬置那些潜在的人类学偏见。他提出的三元框架(triadic framework)为我们提供了一个概念工具,让我们可以对机器人交互以及它们在边界案例——比如那些机器人的地位对它的人类交往伙伴来说暧昧不清的案例——中的能动性进行实证分析。
机器人的行为应该归责给谁?制造商,用户,机器人自己,还是别人?无论如何回答这个问题,只要还能指出这么一个人或者一个东西,我们的法律和伦理框架就还有讨论这个问题的具体视点。然而如果机器人根本没有可识别的物理身体,那么这个问题会变得尤其复杂。马修·格拉登(Matthew E. Gladden)在第十章“分布式的智能他者”中接受了这个挑战。他在非本地化机器人的自主性(autonomy)、意愿性(volitionality)和可本地化(localizability)的基础上,发展了一套机器人作为道德和法律行动者的本体论框架。在这个全新本体论框架的基础上,格拉登讨论了机器人的行为在传统语境下的法律和道德责任问题,例如实用工具和群网络(swarmnetwork),以及非本地化机器人的那些现在还没有被严格探讨的问题。作为环境魔法(ambient magic)的机器人、作为分布式动物他者(diffuse animal other)的机器人、作为受爱戴的立法者和道德灯塔的机器人是格拉登在文章里考虑的非本地化机器人的其中一些类型。最后,他还讨论了我们现有的伦理和法律理论如何应用和解释这些全新类型的实体。
社交机器人被有意设计成能够触发我们把周遭事物人格化的自然倾向的模样——例如我们会赋予某些事物以感受能力。性别在这方面也不是例外,它也作为机器人工程师的线索库之一被用来影响人类用户在交互中对他们的机器人产品的喜爱态度。格兰达·肖-加洛克(Glenda Shaw-Garlock)在第十一章“性别设计”中,针对机器人设计这一语境,提供了与性别研究相关的研究现状综述,这些研究基于人机交互研究、传播学研究和科学技术研究之上。随后她讨论了社交机器人的性别化意味着什么,并探讨了赋予机器人性别的一些后果。她考察了很多关于性别机器人带来的后果的研究文献,还讨论了这一问题的伦理维度。不仅如此,肖-加洛克还展示了一些克服性别刻板印象的建构性策略。最后,文章强调了机器人设计师在设计中接纳那些性别敏感的研究思路的重要性。
马丁·海德格尔(Martin Heidegger 2000)指出,当技术被看作某种中立的东西时,我们就会面临很大的风险——因为科学技术构成了我们对这个世界和自身的理解。米歇尔·拉波特(Michele Rapoport)在第十二章“劝导性机器人科技与选择行动的自由”中向我们展示了,即使那些从事例行程序和日常琐碎活动,以及那些正在家政市场上销售的机器人科技,都在制约着我们的意愿和行动空间,并最终影响着我们的自主性和主体性。拉波特论证道,像智能冰箱、半自主汽车、健康监测装置这样的高科技设备都影响和控制了我们的自我监督机制。它们通过哄劝、规定和限制人类的决策和实施行为这些核心能力的可能性领域挑战了我们的个体自由。尽管这些设备看上去没什么问题,而且一开始也确实很有益处,但我们付出了将这些重要的人类能力外包给设备的代价,因为这些设备被编程好的监督功能并不总是对应着我们那些真实的、转瞬即逝的偏好。不仅如此,随处可见的智能科技不仅要指导我们的行为和选择——当我们没有作出“正确”的选择时,它们在预期上可以直接接管行动,因此对我们的自主性和主体性也有着深刻的影响。虽然这些新科技或许能以更有效的方式参与对人类主体的“哄劝”和规训,但它们也凭借自己在人类日常活动中的无处不在和无孔不入,创造了一幅全新的伦理图景。
马尔·内斯科乌
奥尔胡斯(丹麦)
2015 年
观点资料来源:博古睿研究院
转载及合作请发邮件:scb01@pup.cn
# 往 期 精 彩 回 顾 #
往期推荐
▼点击名片 ⭐标关注我们▼
点赞、收藏和在看