查看原文
其他

人与智能社交机器人互动情感风险登Nature旗下期刊:从社交机器人拟人化情感风险到人机虚拟互动环境标示

The following article is from 智能的本质与未来 Author AI伦理与治理中心

2023年10月4日,中国科学院自动化研究所人工智能伦理与治理研究中心、中国科学院哲学研究所、远期人工智能研究中心联合研究团队在Nature旗下唯一的人文社科类期刊《Humanities and social sciences communications》上发表题为“通过虚拟交互式环境标示降低人与社交机器人交互中的情感风险(Mitigating emotional risks in human-social robot interactions through virtual interactive environment indication)”的研究。中国科学院自动化所研究员、兼中国科学院哲学所博士生导师、远期人工智能研究中心主任曾毅研究员领衔了这项研究。他们基于社交机器人拟人化情感风险问题,分析现有解决方案并讨论其不足,随后指出在社交机器人与人的互动过程中,存在基于想象力塑造而成的虚拟交互式环境(VIE)。基于此,讨论了虚拟交互式环境标示(VIEI)措施的必要性,并探讨了虚拟交互式环境标示(VIEI)对现有机器人伦理原则的贡献。


论文简介


人们通常会不自觉地将参与其生活的社交机器人视为伙伴而非单纯的工具,赋予它们伴侣的特质。这种拟人化会导致一系列情感风险,如欺骗、失望和反向操纵,而现有的方法很难有效解决这些问题。在文章中,研究团队认为人类与社交机器人之间存在一个虚拟交互式环境(VIE),它起着至关重要的作用,需要进行必要的考虑和澄清,以降低潜在的情感风险。

 

这种环境主要强调了人与社交机器人之间的情感互动是基于虚拟环境的,就像我们沉浸在引人入胜的故事中。与社交机器人的互动可以带来沉浸式体验,而这种体验由用户的情感参与和情境想象力所塑造。

 

文章总结了三个核心特点来描述人与社交机器人在虚拟环境中的交互:

 

  • 人与社交机器人的交互关系是从人的角度定位的虚拟交互关系。


  • 人与社交机器人交互的虚拟性质与社交机器人本身的工具性之间存在差距。人与社交机器人的虚拟交互环境的性质,相较于阅读小说的体验更为隐蔽。


  • 人们对人与社交机器人虚拟交互的理解具有阶段性质。

 

而现代人工智能驱动的社交机器人实则只是一个由数据输入到输出的看似智能的信息处理工具,即使具备基本的情感分析与判别映射功能,也不免出现人类不会出现的错误,更不具备真正的理解能力和真正意义的情感。

 

基于现代人工智能与机器人进展的现状,为了避免由拟人化引起的误导,本文提议在社交机器人产品中添加“虚拟交互式环境标示”(VIEI),明确告知并倡导用户清晰认知他们正与一个机器进行虚拟互动,提醒他们注意潜在的拟人化欺骗风险。这种明确的虚拟交互式环境认知有助于更准确地理解人与社交机器人之间的关系,并确保人们对社交机器人的功能和局限有清晰的认识。

 

最后,文章探讨了虚拟交互式环境标示对现有机器人伦理准则的潜在贡献:

 

  • 由于现阶段人工智能驱动的社交机器人的技术现状,社交机器人尚不具备可能成为责任主体,责任更多在于制造商、部署者。制造商、部署者不仅应遵守法律要求,更应对其产品可能产生的社会影响负责。


  • 社交机器人的真实形象与人们的期望之间存在差距:目前的社交机器人更多地像是一种“工具”而非真正的智能实体。为了避免人们对机器人产生不切实际的期望,需要重新塑造机器人的形象,将其与人的交互视为一种“虚拟环境交互”。


  • 虚拟交互式环境标示有助于理性看待社交机器人,避免因拟人化而产生的误解。它也能够帮助人们从一个全新的视角看待社交机器人,避免不必要的恐惧或怜悯。


  • 通过为用户提供虚拟交互式环境标示,有助于他们更好地理解机器人的内部机制和功能,从而减少误解和误判。


  • 虚拟交互式环境标示也有助于减少与社交机器人互动中可能产生的欺骗感。当用户理解自己与机器人的互动类似阅读者与小说中的角色互动时,他们能够更真实地看待这种交互,从而产生积极预期。


  • 社交机器人的虚拟交互式环境认知有助于我们规避将社交机器人视为特定角色的角色危机。当社交机器人被赋予“叙事”的角色时,它们的行为更容易为用户所接受。

左右翻页阅览全文

 

论文的第一作者博士生包傲日格乐说: 


“社交机器人的使用在各类人工智能实际应用中,显著地体现出看似温情特质。这种温情特质来源于社交机器人被视为是一种‘温暖的陪伴’,和人的情感需求具有紧密的关联。但是当下的社交机器人因其无法真正理解和进行情感互动,因此在与人的互动之中仅是表现出看似温情的、无法负载真实情感互动的机器。因此,无法避免的是用户在使用社交机器人的同时,拟人化带来的情感欺骗的指控。本文基于对交互中人的想象参与塑造的虚拟交互环境的说明,试图通过社交机器人进行虚拟交互式环境标示工作,对人与社交机器人的情感互动进行披露,规避可能的情感欺骗指控。”

 

论文通讯作者曾毅研究员说:


“虽然与社交机器人交互给人以看似接近情感的体验,但并不代表交互对象本身是真的具有情感的,实际上目前的社交机器人并不具有真正意义的情感,因此我们不能用这种交互欺骗人类。本质上人与现代社交机器人的交互即是‘虚拟环境交互’,就像读一本小说,读一个故事,你可以投入情感,但故事中的人物不是你,你付出的情感是给予故事和故事中的个体与群体。阅读故事跟你自己作为一个主人公的最大区别是,你随时可以抽身。而在现代人与社交机器人的交互中,按照一般误导性的观点,即虚拟逼近现实感受,因此在跟社交机器人交互的过程中,我们很难抽身并容易被欺骗甚至形成不必要的伤害,按照现在的交互方式,人类难以意识到,这是非常危险的。为了避免这个问题,我们的虚拟交互式环境标示的意义是向人类用户指明,对社交机器人在必要时仍然可以投入感情,正如读书可以产生情感和共情,但需要非常明确理解这个虚拟交互过程,需要理性的抽身。长远而言,我们的目的当然还是使社交智能机器人获得真正意义的情感理解与表达能力,与人和谐共生,但这还有很长的路要走,人工智能与机器人的科研与产业工作者、哲学工作者要清楚地认知这一美好愿景下的现状,我们更有责任针对潜在的风险对用户和公众给出清晰的认知与建议。”


论文地址:

https://www.nature.com/articles/s41599-023-02143-6

 

作者简介:

包傲日格乐

中国科学院大学人文学院哲学系/中国科学院哲学研究所2021级科学技术哲学专业博士研究生,导师曾毅研究员。主要研究方向为人工智能哲学与伦理。目前已在Humanities and social sciences communications、哲学动态、自然辩证法研究等期刊发表论文多篇,其中一篇被《中国社会科学文摘》全文转载。

曾毅

中国科学院自动化研究所研究员、类脑认知智能研究组负责人、脑图谱与类脑智能实验室副主任、人工智能伦理与治理研究中心主任;中国科学院大学岗位教授、博士生导师;远期人工智能研究中心主任;中国人工智能学会心智计算专委会主任;国家新一代人工智能治理专委会委员;联合国教科文组织人工智能伦理特设专家组专家。研究方向为:类脑人工智能、人工智能伦理、治理与可持续发展。被美国《时代周刊TIME》评为人工智能最具影响力100人。

是类脑认知智能引擎“智脉(BrainCog)”开源平台的负责人(http://brain-cog.network),在人工智能伦理方面,从事有道德的人工智能模型研发,主持了链接人工智能原则平台(www.linking-ai-principles.org)、人工智能治理公共服务平台(www.ai-governance.online)、面向可持续发展的人工智能智库(https://ai-for-sdgs.academy)的研发,是《人工智能北京共识》、《面向儿童的人工智能北京共识》、《和谐人工智能原则》、《面向生物多样性保护的人工智能原则》、《面向气候行动的人工智能原则》等伦理原则的责任起草者。代表性成果发表在PNAS、Cell Press旗下期刊Patterns、iScience,Nature出版社旗下Scientific Data、Scientific Reports、Humanities and social sciences communications,以及Science出版社旗下Science Advances、IEEE Transactions、Neural Networks以及人工智能领域重要国际会议NeurIPS、IJCAI和AAAI等。

 

鲁恩萌

中国科学院自动化研究所研究工程师;远期人工智能研究中心研究员。主要研究方向为类脑人工智能、人工智能伦理、安全与治理等。作为主要作者之一参与了《人工智能北京共识》、《面向儿童的人工智能北京共识》、《面向生物多样性保护的人工智能原则》、《面向气候行动的人工智能原则》、《脑机接口与增强智能的伦理倡议》、《自然生命与人工智能生命共生的原则》等的撰写与制定。

目前已在Humanities and social sciences communications、AAAI、AI and Ethics、Patterns、Cognitive Computation、Frontiers in Neurorobotics/Neuroscience/Computational Neuroscience等发表论文多篇。



研究中心

主页

https://www.ai-ethics-and-governance.institute/


中国科学院自动化研究所人工智能伦理与治理研究中心是从事人工智能伦理与治理,符合伦理道德的人工智能模型与应用、人工智能可持续发展与治理研究的智库与科技创新深度融合的综合性研究中心。中心作为代表性机构参与国内外人工智能伦理与治理原则、规范的形成与实施;开展人工智能内生安全、符合伦理道德的人工智能模型与应用研究;对人工智能伦理、治理与可持续发展的近期与长远科学挑战开展前瞻研究。
中心长期参与国家有关部委、国际组织的人工智能伦理与治理相关研究工作,参与编写《国家新一代人工智能治理原则》、《国家新一代人工智能伦理规范》、《联合国教科文组织(UNESCO)人工智能伦理问题建议书》、《世界卫生组织(WHO)健康领域人工智能伦理指南》。研制并发布了“链接人工智能准则平台”、“人工智能治理公共服务平台”、“面向可持续发展的人工智能智库平台”等一系列人工智能可持续发展与伦理治理交叉研究与服务平台。
中心与国内外相关机构及各国学者、产业代表共同发起的面向可持续发展的人工智能协作网络(AI for SDGs Cooperation Network)是促进人工智能赋能实现可持续发展目标,以及人工智能的发展与治理深度融合创新的国际合作网络。




远智观点(Views on Long-term AI)关注人工智能伦理与治理近期与长远发展的理论研究、观点分析与实践,旨在培育领域前瞻思想,促进国内、国际观点对话与交流,助力领域共识、规范与政策的形成。主要涉及近期与长远人工智能的风险与挑战、人工智能伦理与治理理论与实践、通用人工智能与超级智能的发展途经及其社会影响、国防人工智能与军控、人工智能促进世界和平、人工智能助力可持续发展。远智观点是远期人工智能研究中心(Center for Long-term Artificial Intelligence)的智库平台。


更多信息请参考 https://long-term-ai.center/



往期回顾:1. 孙昌璞院士:奥卡姆剃刀可让量子力学大道至简、去伪存真2. 科学与哲学系列讲座 | 人类与动物心灵——意识问题从此安息3. 曾毅入选《时代周刊(TIME)》人工智能领域最具影响力100人(TIME100/AI)4. 第六届“科学与哲学青年学者工作坊”科学与哲学Science and Philosophy

编辑 / 朱琳琳

审核 / 范   杰

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存