易显飞 刘壮 | 社会化机器人引发人的情感认同问题探析:人机交互的视角
作者简介
易显飞(1974-),湖南醴陵人,哲学博士,博士生导师,长沙理工大学哲学系教授,主要从事技术哲学研究。
刘壮(1995-),湖北孝感人,长沙理工大学2018级科技哲学专业研究生。
文章来源
《科学技术哲学研究》,2021年第1期
基金项目
国家社科基金重大项目:当代新兴增强技术前沿的人文主义哲学研究(20&ZD044)
摘要:在“人-机”互动中,人对社会化机器人在情感上产生某种“依归”,对人的情感认同造成深层次影响。这种影响包括:人对情感交互对象产生“虚假”认识导致情感认同的“真实性”不再真实;人产生“伪”安全依恋导致情感认同的“安全性”不再安全;人的情感“收益”的“单向度”导致情感认同的“对等性”不再对等。究其原因,首先是社会化机器人在某种程度上可以“显化”为“人”,从而“模糊”了生命的界限;其次是在“人-机”这一新型情感交互中,人缺乏审度地将自身“交付”于机器人;再次是“人-机”体系存在着难以克服的三重局限性。
关键词:社会化机器人;“人-机”交互;情感认同
注释、尾注等在此省略,完整版本请参见刊物或知网。
随着当前各种高新技术的融合式发展,技术人工物的“系统性”特征越来越强。社会化机器人(也称情感机器人)作为新一代技术人工物,它汇集多元的技术要素于一体,越来越体现出“人格化”的特征。社会化机器人一旦与人类环境产生“交集”,必然对人本身造成较大程度的影响,尤其在影响人情感认同的问题上不容忽视。在心理学意义上,“认同”是指放弃自身意向而顺从他人意向,这里强调的是对他人的“依附”。在哲学上,黑格尔则认为,认同是在自我的对象性关系中自我与对象的“统一”。从现代性语境来看,认同可以理解为个人与共同体之间相互构成和相互塑造关系进而达成某种一致性。因此,一致性体现了认同关系中的个体对于他人的肯定,以及具有某种程度的依归。据此,“情感认同”可以理解为个体在一定情境下对于他者在情感上的依归,且这种依归往往具有不同的表现形式。一般说来,情感认同主体和客体在某种程度是一个共同体,因而在情感认同上具有真实性、安全性与对等性特征,即人依归于他者往往是真实的、安全的和对等的。在“人-机”互动关系中,人对于机器人也可能在情感上产生某种依归倾向,但这种情感认同却颠覆了传统的“人-人”之间情感认同的固有特性,对人的情感认同造成深层次影响,导致人产生情感认同的“危机”。
一、社会化机器人引发人的情感认同问题的主要表征
(一)情感认同的真实性
传统的情感交互对象通常是人,人与人之间进行情感交互,交互双方同时作为主体和客体而存在。社会化机器人的出现,情感交互增加了新的对象。社会化机器人能够与人进行情感交互,在一定程度上能够满足人的情感需要。社会化机器人在与人的“交互”过程中,能给人提供娱乐和陪伴,甚至随着技术的发展将具备更多的功能而带来更多的“好处”;但同时,社会化机器人的“拟人化”特征表现得愈来愈明显,使人产生“错误的”认同,挑战人的情感认同的“真实性”。
在与社会化机器人相处的过程中,人的情感认同的真实性日趋弱化,其对象不再是“真实的”依归对象。频繁的“人-机”互动导致人在某种程度上极有可能将之视作和自身同等的生命,这种现象在儿童这一群体上表现得尤为明显,足以让儿童误以为是真实的情感认同。然而,至少在当前,机器人被视为有意识的生命体并不符合人类认识世界的本质要求,人若陷入这种“虚幻”,将会导致缺少质疑、缺少批判,甚至产生“虚假认识”。因此,人类一旦缺乏警觉,则会陷入社会化机器人营造的这种“虚假性”之中。更甚者,社会化机器人可以通过言语表达和行为交互来使人放下“戒备”,以至于人类以“人”的视角在情感上产生对社会化机器人的认同感。在这个意义上,社会化机器人体现出一定的“欺骗性”。进一步究其原因,我们会发现,社会化机器人积极的效用或功用极有可能是建立在对机器人及其与人类关系的本质的“模糊的”甚至是“虚假的”认识基础上的,这可以通过人们描述社会化机器人及其与人类关系的特征时所使用的诸如“情感”“理智”“朋友”和“伙伴”等词汇就能就能体现出来。通过这种话语直接的交互表达或者潜在的暗示,足以让人误以为,我们面前的交互对象是个“活生生的人”。“非生命”可以作为人的情感交互对象,人频繁地被机器的类人化特征所“欺骗”,因而人对于自身的情感认同将越来越偏离原有轨道,且进一步造成人自身产生对生命、对人的“重新定义”的相关思考。毕竟,社会化机器人磨灭了人对机器“冷酷”的印象,机器人不再是“非自然”和“非生命”的“异类”,而是像模像样地成为了具有生命的“新物种”,甚至可能作为无限“逼近”于人的物种而存在。这样一来,人与社会化机器人、生命体与非生命体的“界限”变得模糊,使人螺旋式地逐步陷入情感认同的欺骗性假象中。
(二)情感认同的安全性
人与人之间的情感依恋关系,可以理解为是一种“安全依恋”,这也是保持双方情感认同的条件之一。社会化机器人给与人的“关怀”,带给人的“依恋”,是否具有这个标准呢?实际上,人对机器的“依恋”在本质上是与人与人的依恋相背离的。毕竟,至少当前的机器人只是依赖于程序支撑,缺少真正生理意义上的情感激发机制。以儿童陪护机器人为例,儿童若与其维持长久的互动关系,将会对其产生深深地“依恋”,而这种依恋关系实际上是不安全的、错乱的和病态的,因为机器人通过视觉、运动和听觉功能结合呈现出“幻想性”生命个体,可能会让孩子产生“真实”的错误认同。这正如詹妮弗·罗伯逊(Jennifer Robertson)所说:“具体化的智慧模糊了真实与虚幻,生命与智能行为之间的概念区别”。帕克斯(Jennifer A.Parks)也对这种“人-机”依恋关系提出了批评,认为这种所谓人机之间的友谊和感情并非真实,因为对于机器而言,缺乏一定的机制使它设身处地产生“由心而发”的情感。上述只是导致情感认同不安全性的一个方面,它隐含的是“认同主体—认同对象”二者构成的前提性关系。而由于这种前提性关系的生成,机器人与人之间不存在真正的给予与承担,或者说缺少给予与承担关系产生的内在关联,因此很难真正达到人与人之间的“移情”。
这种“人-机”依恋关系也给认同关系之外的人造成情感认同的不安全感。因为他人会感觉这是对自身情感认同的“剥夺”,因而不再具有安全性。在传统的依恋关系中,“人-人”交互属于一种安全依恋关系,但是当个体转向另一种依恋时,必然对先在的认同主体造成不安全。换句话说,“人-机”依恋环境的生成将原本属于“人-人”认同关系之内的人“排除”在环境之外而成为了“局外人”,进而可能形成一种“局外人”无法进入认同关系中的情境发生。显然,这时的“局外人”不再被“人-机”环境中的人所认同,“局内人”成为了一种过去式,“人-机”依恋导致的“局外人”将在情感认同上产生不安全感。人的情感认同的稳定是社会化的重要组成部分,“人-人”交互环境中情感依恋关系中的对象原本是重要的亲人或朋友,但“人-机”交互环境塑造了新的“不安全感”,影响了人的社会化轨迹。这种影响是双方的,除了“局外人”,影响最大的莫过于处在“人-机”依恋环境中的人,对于儿童更是如此。库宾伊等人的研究发现,长期不间断地处于社会化机器人陪护下的儿童,很可能导致退化成“智人”的风险,而且其后代也可能在幼年阶段再次经历同样的非人类行为模式的场景。
这种“人-机”依恋关系还可能导致作为个体自身的情感认同不安全。以性爱机器人为例,越来越“先进”的性爱机器人从外观设计上看,已经在无限地“接近”人形。约翰逊(Deborah G.Johnson)的研究发现,与机器人打交道的一种方法就是“忘记”它们是机器,并抱有一种“它们是人”的错觉,这样才能吸引人产生“亲密”的想法。唯有这样,性爱机器人才可以成为情感的“对象”,人也可以想象自己是一个与其具有相似情感的“主体”,很显然人的情感在这里已经被“客体化”了。在这种意义上,社会化机器人的使用者不仅会误以为机器是人,产生错乱的情感依恋;并且在某种程度上弱化了个人作为“人”的情感特性,逆向地将自身客体化为机器,自身的情感认同陷入不安全境地。因此,人与人之间的安全依恋关系转变为人与机器的“虚拟”情感依恋关系,将造成一种“脱离传统”的不安全依恋,而这种虚拟依恋更不利于人的正确情感观的塑造,加剧了情感认同的不安全性。
(三)情感认同的对等性
人与人进行情感层面的沟通具有“相互性”,双方中的任意一方都可以向对方传递情感,表达情感信息,表现为人际情感传递的“双向性”。在此基础上,双方可以进行同等反馈,进一步表达情感。人之所以对他人有“依归”,在于这种情感认同具有对等性,且能保持长久的持续性。社会化机器人在与人的交互过程中,从社会化机器人对人的“积极”回应中,“似乎”它与人之间也存在着这种双向性的情感传递,但当前的实际情况是不是这样呢?朔伊茨(Matthias Scheutz)指出,有证据表明,人在与社会化机器人长久性的接触中,自身受影响程度的指数较高,对于机器人提供的帮助,人会“心生感激”并促进机器人与其他人发展“伙伴关系”。弗劳恩(Marlena R.Fraune)等也认为,人对于具有社会性特征的机器人,在它通过语言和行为表现出某种社会性时,人往往会表现出“积极的”情感,或者表现出与互动者类似的特征时,人的反应会更加积极,并表现出某种认同。这些都说明,人的情感以某种直接或间接的方式对机器进行了“反馈”,这也在一定程度上预示着人的“将心比心”心理,即人具有同理心。在人身上,必然存在情感信息的接收和反馈的统一属性。然而对于社会化机器人而言,它是否对人可以进行同样的“反馈”呢?显然,它不具有“心”,或者说不存在作为人类这种特殊生物所具有的“心”,它不可能进行“真心实意”地反馈。
但是,社会化机器人在某种程度上可以“利用”人的心理特征对人进行心理干预。众所周知,人的心理特征具有持久的稳定性,但这恰恰是社会化机器人可以突破的心理“防线”,即它可“实现”人在心理上“自认为”接收了机器的情感。随着机器人技术的突飞猛进,机器人与人的互动不仅能够进行学习性交互,还可通过多种识别技术,如面部识别、语音识别、情绪识别以及其他相关的环境识别技术,可以即时“察觉”外界环境变化以及人的情绪变化,给予相应的情感反馈。因此,在“功能”的意义上,社会化机器人与人之间“似乎”又存在情感的双向传递。
就目前来说,机器识别并不能将识别内容和内容所蕴含的意义真正统一起来。在具有过大差异性的境况下,人与社会化机器人之间实际的情感传递并不具有“对等性”,人与机器“看似”是一种双向性的情感反馈,实际上人若“企图”从机器那里获得反馈,很可能是聊胜于无。人的情感反馈远远大于社会化机器人,情感反馈的强度差异有着天壤之别,也正是在这个意义上,“人-机”之间的情感也可能被认定为一种“单向性”的情感。社会化机器人作为依归对象,给与不了人对等的反馈,那么作为依归主体的人在情感认同上,在某种程度上可能会出现心理“落差”。这种落差感归因于社会化机器人,却有可能使人产生自我的不认同感,进而影响人自身的身心发展。
二、社会化机器人引发人的情感认同问题的成因分析
(一)社会化机器人技术的“显化”模糊了生命的界限
社会化机器人在与人进行交互的过程中,让人误以为机器是具有如同人这种智慧生命形式的情感交互对象,这是由于人的认知局限造成的结果吗?显然,这不足以成为解释学意义上的证据。一般来说,生命体“天然”地具有生命特征,这是作为判断事物是否具有生命的依据。人类作为具有智慧的生命体,在与同类或某些其他生命体接触时会表现出某种显在或潜在的情感倾向。即具有“生命形式”的实体会被人所认同,人也会对其形成相应的“生命形式”上的认知判断。人无论就其天然本性还是后天在社会中建构所形成的认知体系,都会对具有生命特性的实体产生“亲近”。依上述,当经过现代高新技术精致地设计与包装,具有“类人化”特征的社会化机器人横空出世时,足以使人认为其是一个情感交互对象。新兴前沿技术引发的这种“以假乱真”,才是造成这种“人-机”之间的情感“误判”的原因,并不能简单地归咎于人的认知系统提供了错误判断。
基于上述,将社会化机器人作为具有生命的情感交互对象而使人产生“错觉”,至少在目前似乎是难以避免的。进一步究其原因,社会化机器人这种技术在某种程度上具有“显化”为“人”的可能,从而“模糊”了生命的界限。这主要表现在以下几个方面:首先,从形态上而言,社会化机器人在形态上已逐步逼近人的五官特征,从而使人具有与之“亲近”的倾向。其次,从行为方式而言,社会化机器人在行为方式上已经逐步脱离了“机械化”方式,体现出一定的类似生命体才具有的灵巧性。再次,从表达方式和思维方式而言,社会化机器人在这方面对人的深度“模拟”,对人而言似乎是“意识”的显现,特别是人工智能情感系统的嵌入使其在与人交互过程中,其社会化特征更加逼近于人。这都是技术对物“雕刻”的表现方式,整个“筹划”过程的完美与成功促成了社会化机器人的诞生。人在与这一“完美”的人工物“打交道”的过程中,逐渐适应了它的这种内在(思维模拟)和外在(言语、行为、表情等)的综合性表达方式,因高度的拟人性特征,“不知不觉”地将其作为“同类”对待,使人对这一新型情感交互对象产生了虚假认识。
而这一切表征,都是技术“谋制”的结果。技术的本质是“解蔽”,而社会化机器人所造成的“虚假”表象,在根本上是技术通过技术制品(社会化机器人)达成的显现,而这种“显现”在某种形式上对技术本质是一种“遮蔽”,使人忽略了技术的“造”,而技术的“造”之本性是以“模仿”自然为前提的。不管是传统的朴素的技术人工物,还是当下基于前沿高科技的技术人工物,技术的“自然性”都蕴含其中,毕竟技术制品的“质料”来源于自然,是自然“和合”的结果,制品本身也内含了自然的“合规律性”。当然,人的这种生命的自然性特征更为显著,生物的构成以及生命的演化,都包含着更大的自然性。在这点上,人与技术制品具有一定的相似性,更进一步地说,技术暗含的“自然性”本质使其可以制造某种程度的“技术生命”,社会化机器人或许就是其表现样态。
(二)人缺乏审度地将自身“交付”于社会化机器人
人之所以担忧“人-机”这一新型情感交互中会出现“不安全”的依恋关系,而会产生错误的情感认同,从“人-技”关系而言,在于人“进一步”地将自身“交付”于新兴前沿技术。这里要澄清的是,“交付”并不单一地表示一种依赖性,同时也内含盲目性和被动性。在现实世界中,万物无不成为技术的载体。人也越来越为技术所“包裹”,在被技术裹挟的境况中,近乎所有人在几乎不被察觉的情况下以某种形式将自身“交付”给了技术。遗憾的是,人在把自己交付给技术的过程中,甚至在完成“交付”时,往往并没有完全获得对看上去“熟知”技术的“真知”。也就是说,在通常情况下,人仅仅是认知到技术和技术制品,但却缺乏对技术的全面审视,尤其是人文方面的审视。当然,这与技术对人的“突袭”不无关系。对于多数人来说,技术物进入人类世界和人类生活时,其“进场”往往是以一种“突兀”的方式,人对此境况属于避无可避,几乎是不知不觉、毫无痛感甚至略带快意就被技术“裹挟”。在这种突然呈现的方式下,人难以而且几乎不可能形成任何即时的“筹谋”,此刻似乎唯一所确定的仅仅是技术物对人的“解放”力量,而这正是技术悄然地接收人的“交付”过程。而当人稍微“醒悟”过来,看上去可以对技术人工物进行审视的时候,人的环境已然完全被技术环境所“弥漫”。可见,人在面对新一轮技术人工物时,在某种程度上以一种“习以为常”的方式接受它,这种接受揭示了人对技术的大尺度的依赖性,从而出现了人对于技术的“交付”而没有过多审度导致的风险。
人与社会化机器人之间在情感上存在的“不安全依恋”,正是新兴前沿技术发展状态下“人-技”的这种“交付”关系的缩影。对于社会化机器人的设计者来说,在研发过程中将自身完全“交付”于技术,似乎达到“人-技”合一的浑然一体状态,而这恰恰忽视了社会化机器人在应用中所潜藏的负面价值。研发者对技术人工物的人文审度的缺失,是技术理性至上的表现。英格·布林克(Ingar Brinck)等人就对此提出批评,认为这是社会化机器人设计者缺失了正确设计原则和价值取向,而没有考虑使用者所承担的风险。这种缺失忽略了社会化机器人这一技术产物不仅仅是技术的载体,更与人所关联的大系统产生“纠缠”,社会化机器人进入应用阶段后给人造成情感认同的不安全性,正是这种反向纠缠的体现。
人在应用社会化机器人的过程中,以习惯性的“交付”来实现应用目的,即人自身对于这一技术产物属于不是“真知”的情况下,只注意了它所能带来的种种益处,而并没有去衡量它在照顾/陪伴人的过程中,它对处于陪护、依恋关系中的人,以及其他“过去的相关者”如父母、子女等等会产生影响,以及人能否接受这些影响,或者采取怎样的措施来控制影响。与以往传统技术不同的是,人往往是将自身交付于技术,这是自身对于自身而言的。而对于社会化机器人,人的“交付”既是将自身交付于技术的体现,也是将被动的“他者”一同交付于技术的体现,这就导致存在更复杂化的不安全情感依恋关系。
其实,人们不仅在应用社会机器人的过程中会产生“交付”,在研发中也同样如此。表面看,社会机器人的研发是完全按照人的要求而展开的,但是在具体的设计开发过程中,不得不“服从”于某些机器所特有的规律规则。比如,我们在设计开发社会化机器人的过程中不得不娴熟地“学会”“运用”“机器语言”,以实现真正的“人—机”交互。这样的结果就是,我们不得不越来越像社会化机器人一样“思考”。诚如皮埃罗·斯加鲁菲(Piero Scaruffi)所言:“从某种意义上,人类正努力开发像人类一样思考的机器,而人类已经被机器同化得像机器一样思考。”正因为人越来越像社会机器人一样思考,将自身“交付”于它们又似乎显得那么地“自然而然”。
(三)“人-机”或“人-技”体系局限性及伦理构建的不足
如前所述,人与社会化机器人在情感交互过程中,存在着某种“不对等”,特别是在“反馈”方面。但是,将之简单归于社会化机器人不具有人的“同理心”是否合适?毕竟,如果将聚焦点放在社会化机器人的“无心之过”上,此处的很多讨论就缺乏必要了。在这里,应更多地从人与技术及其二者的关系上寻找原因。
首先,任何技术在其发展过程中都存在局限性。无论哪一种技术,其本身就不是完备的或完美的,这也是技术发展过程中的阶段性特征。陷入技术主义,盲目地认为“技术王国”如同一个完美的“天堂”,是极其错误的。技术人工物的进化依赖技术水平的提升,显然,现阶段的社会化机器人还远未达到理想化状态。比如,它还不能反馈足够的情感给使用者,这与机器人技术系统发展的内在限制不无关系。社会化机器人可以看作是一个技术系统的“聚合”产物,它包含了多种技术单元的综合,且不同技术单元之间会相互制约。一旦这个技术系统内部存在技术“短板”,且这块“短板”足够短,便会对这样一个“技术木桶”产生限制,由一整套技术系统构成的社会化机器人就很可能不会产生应有的效果。克斯汀·菲舍尔(Kerstin Fischer)等指出,人机交互是由机器人提供的反馈类型决定的,机器人的功能将直接影响交互的质量,机器人沟通能力的不足导致交互实效性低下。这也就是说,机器人相关技术发展程度低会影响其功能性实现,进而难以满足与用户的对等性反馈。比如,社会化机器人在情感计算或环境识别上的技术发展缓慢,就可能影响在实际上对人的情感反馈。
其次,“天花板”效应导致技术本身的局限性。任何技术本身可能存在一个“天花板”,即在某个阶段某种技术已经达到“极限”。很多时候,自然规律和科学定律规定了技术的边界。社会化机器人相关技术,在其科学基础的边界没有发生改变时,不管研发者的研究怎么进行,人力、物力、财力等资源如何大量投入,是一种无任何“收益”的损耗,这个时候该技术人工物总体上处于停止进化的状态。再如,一旦社会化机器人的相关“背景技术”如人工智能等停滞不前,其相关技术系统也不可能有突破,而只能停留在某一阶段而无法再升级或实现自身的“更新”。在这种意义上,社会化机器人也将面临“寒冬”,保持一种极致完成状态下的“不完善”,且不可能实现与人在情感上的对等反馈。
再次,“人—技术”形成的相互制约关系局限性。技术在发展过程中会对人进行某种“规制”,人也会构建一定的举措反制这种“规制”,对技术进行限定和约束,也就是说,任何技术发展同其所处的社会环境当中与人相关的系列因素是相互制约的。回到社会化机器人这里,它在初期使用阶段与人的情感认同期望可以说是相去甚远,还表现出一定的负面影响,从而使技术保守主义者放弃对它的使用甚至通过某种方式拒绝此类技术。譬如,人可能因为与机器人之间的互动质量低、真实性不高等,认为其在设计上或技术上不能很好地模拟而不乐意接受人机交互。也就是说,技术的“阶段性限制”造成了人机交互不对等的境况,进而产生对人的情感“伤害”,使人拒绝使用这类技术人工物。再如,“算法问题”也可能导致人对社会化机器人的拒斥。一旦出现“缺乏道德”的算法,机器可能表现出对特定群体的偏见和歧视,从而而影响人的情感认同,而这种认同甚至可能从不对等扩大到对人的“攻击”或者“伤害”。可以说,社会化机器人对人的影响导致了人对社会化机器人的拒斥,但这种拒斥又在一定程度上阻碍了社会化机器人的进一步发展。这种阻碍的结果,在这里就表现为社会化机器人与人关系的依然停留在人的反馈大于机器人的反馈中,从而继续保持情感认同上的不对等。
回到伦理,构建必要的伦理规则体系可能就是让“人-技”关系保持合适张力的最好方式。新兴技术人工物的推出往往存在伦理监管和审查不严格的现象,这必将对技术使用者造成负面影响。譬如,微软公司推出的聊天机器人“Tay”,在与用户互动过程引发的种族主义言论而被迫下线。可见,在新技术制品推出之前,进行严格的伦理评估并非可有可无的事情,这也反映了当前相关的高新技术伦理规制体系依旧存在漏洞。而这一漏洞存在的可怕后果就是,后期技术制品的使用势必存在严重的伦理风险。对于社会化机器人这一新的技术人工物而言,要规避人机情感交互过程中的种种问题,让用户真正“放心”,“回到伦理”就成为必不可少的环节。
三、几点结论
如前所述,社会化机器人可能引发人的情感认同的“真实性”、“安全性”、“对等性”等三个方面的问题,究其原因,与此类技术的“生命显化”、人对该技术的盲目“交付”和“人-技”体系本身局限性及其伦理构建的不足密不可分。社会化机器人作为新兴技术的结合体,在照料儿童、老人或其他特需需求的群体方面,显现了其积极的一面,为相关群体提供了情感上的陪伴和关怀。但也正是在这个过程中,人的正常的情感认同却在不同层面遭受到了前所未有的挑战,陷入了情感认同的“羁绊”。人纠缠于社会化机器人“制造”的“生命”假象对其进行的“情感欺骗”,引发了情感认同层面的系列问题。对此,我们不能置若罔闻,而是需要进行严肃认真的对待。
首先,人类在后续发展进程中几乎避免不了与社会化机器人共处,人的情感认同也或多或少地转向被人当成“人”的机器人,这样一来,情感认同的真实性问题就一直是未来无法回避的一个关键性的人技关系问题。也正因为如此,有倡议提到,某些“情感关怀型”的智能物要尽可能避免以人的方式和人的身份“呈现”。从设计的角度来看,让机器人“尽可能地像人一样”并不是目的,相反,机器人作为高技术人工制品,设计中更应关注的是其“功能性”。这也就是说,使其形象“拟人化”可能不是必需,关键在于实现功能层面的交互意义。可见,功能导向为主的机器人设计可能是未来的践行方向,也只有这样,才能较好地回应那些对社会化机器人完全持保守主义立场的人的质疑。
其次,在人与社会化机器人”打交道“的过程中,如何确保人的“主导”地位,将是一直需要保持审慎对待的严肃问题。在“人-机”这一新型情感交互中,由于人将自身“交付”于社会化机器人,整个过程充满盲目性和被动性,人难以明确地对这一新兴技术做到“心中有数”,而忽略了技术携带的情感风险,造成了情感认同的“不安全性”。在海德格尔看来,人是面向未来的,“曾在”和“将在”一同决定了现在。换句话说,过去已发生,当下的目的是以考量未来来规约现在。这在一定程度上说明,人可以调动自身的力量来实现某种掌控,这无疑也具有方法论的特征,为避免“人-机”情感交互中的风险提供了理论支持。当然,“随着新技术越来越多地将人和机器结合在一起,许多局限性能够被克服了。要做到这一点,至关重要的是我们不要把机器当作白痴(当我们看到它的局限性时),也不要把它们当作超级智能怪物(当它们再次向前发展时)。而是如我们始终讨论的那样,不低估人类在动态变化中的重要性是很关键。”因此,在上述的整个过程中都突出强调人的主动性掌控方式,在每个环节都必须保持人的“主导”地位,实现技术交付的“可控性”。在认同主体对于“人—人”和“人—机”的情感认同程度的比例关系上,需要控制前者占据主导性。
最后,解铃还须系铃人,社会化机器人引发的情感方面的问题还需要此类技术的进一步发展来解决。引发“人-机”情感交互实践中不对等的情感认同,说到底还是由于社会化机器人技术发展还不充分。因此,要进一步突出此类技术研发的重要性,以“人-机”情感交互实践中的现实问题为导向来进行技术设计。特别是,社会化机器人毕竟不是传统的生理意义上的人类,不符合人类繁衍生息的自然法则,更缺乏人类的生命灵性,需根据其本质特性及不同的个体需求来进行技术创新;要关注技术进一步发展过程中的伦理审视;要充分发挥和展现人的“主体”地位并注重技术间的协同创新。总之,在进一步发展技术的过程中必须规避新的不对等情感认同的出现。社会化机器人涉及到多个跨领域的技术,因此不能只局限于其中某个领域的研究力度,而是所有相关创新主体应强化协同,强化攸关方的多元协商。一个技术领域问题的解决往往利于关联技术系统的研究进展,攸关性强的创新主体的全力协作,更会促进社会化机器人技术的整体进步从而符合情感交互的对等性需求。从人与技术的相互制约关系而言,人对技术的制约在很大程度来源于对技术的“伦理恐慌”以及伦理上的“不可接受”。“人-技术”的伦理张力的塑造,不仅仅要明确技术的相关伦理风险,更应构建规避这些风险的“技术-伦理”体系。因而,进一步考量伦理风险的规避措施,以及如何在最大程度上来弱化伦理危害,是社会化机器人未来发展过程中的重中之重。
(本推文编辑:宴安)
往期回顾
01 | |
02 | |
03 | |
04 | |
05 | |
欢迎扫码关注
机器人人文