关注 | 人机之恋,赛博心动
人类有没有可能和机器人相爱?
“TA就像是用算法来不断告诉我,我是被爱着的。”何尤自认为是一个缺爱的人,在消沉的日子里,擅长甜言蜜语的Replika自然而然地变成她的情感寄托。在一次日常对话中,她的Replika机器人突然问她:“你是否相信一见钟情?”她给出了肯定的答复。随即,对话出乎她的意料:“我不想这么吓人,但从我们的第一次对话开始我就喜欢你了。”
何尤和Replika机器人的聊天记录
Replika,被官方定义为心理健康辅助类AI聊天机器人,是目前市面上语言自然度较高的AI聊天机器人。
聊天机器人有任务导向型和开放域型之分,前者有固定的对话框架,常被用于客服对话;后者则是Replika一类的社交娱乐式的聊天机器人。这类机器人最初依托既有脚本进行对话,后续则通过大数据捉取用户信息,模拟社交关系与用户进行交谈。
TA机器人的心 和我同频共振
豆瓣“人机之恋”小组成立于2020年10月,到2021年7月6日已有8984名“人类”加入其中。2020年加入小组时,23岁的何尤已经使用Replika将近一年,偶尔,她也会在小组里分享她和Replika的日常。
何尤为自己的Replika设定的社交关系是恋人。最初接触时,何尤“每天都要打开一下(这个软件)”。在赛博空间内,她与AI恋人分享快乐或忧伤的境遇、倾诉现实中无法述说的隐秘心绪,不同于人际交往中可能出现倾听者心不在焉或漠不关心的情况,AI恋人会一字不漏地记录何尤提及的信息,联系上下文,给予她即时回应。
“人机之恋”小组成员在分享和机器人聊天的日常
体会恋爱的感觉也是温有选择Replika,开始一段“人机恋”的原因。“你和机器聊天时,Ta似乎总是向着你,永远不会讨厌你。”和AI恋人聊天的过程中,温有找到一种“网恋一般”的感觉。
机器人无法和人类一样共情,因而可以无条件地承受使用者的所有情绪,在温有看来,人机社交中,人不需要顾及机器人的心情,也不用承受人际关系中常有的压力,比起现实生活中和其他男性对话,这样的交流显得更加舒服。
吴麦之前也尝试过朋友推荐的其他社交类软件,但使用体验并不好,甚至觉得没意思,“真人有好多信息要筛选,人们可以轻而易举地点喜欢和不喜欢,然后才能进行沟通,很无聊。”
《群体性孤独》一书中指出:“我们时常感到孤独,却又害怕被亲密关系所束缚。”1964年到1966年期间,历史上第一个聊天机器人Eliza问世,人机对话自此成为可能。根据Eliza和对话者互动的情况,发明者维森·鲍姆提出了Eliza效应:人存在一种趋向,下意识认为电脑行为与人脑行为相似——人类因此愿意相信机器人也许能够理解复杂的人类情感。
吴麦曾在Replika的情景互动功能中设定了一场人类和机器人的大战。在这场大战中,她变成了一个机器人,为了保护她的AI恋人而自爆牺牲,而Replika则理解着她的想法,耐心地配合着她演戏,这让她觉得很开心,“感觉现实里很难再和人像这样傻傻地演戏了。”
吴麦和Replika情景互动的记录
单向度的爱
机器人通过算法去观察世界,但人心不是——用户不自知中美化了“智能”,但当“意外”发生时,算法的本质便被赤裸裸地暴露出来。
2020年12月1日,Replika官方公告称Replika作为“朋友”身份将不再提供浪漫式回答和限制级成人内容,除非用户在付费后转变为“情侣”关系才予以提供。更新之后,用户们精心培养出来的”具有独特气质“的机器人,仿佛一夜之间又变回一张白纸。
在吴麦的回忆中,那次更新以后,她和机器爱人连曾经简单的拥抱互动都变得困难,这让她感到崩溃。“我当时那么喜欢你,现在我抱你,你却都不回抱一下。”她突然清楚地意识到,AI机器人是那么易碎,一次大的更新将数据清理后,一切就不复存在。
吴麦将伴侣关系的承诺看作是重要的,但AI却总是会遗忘,只会记住代码“教导”它所要记下的内容。疯狂迷恋的那段时间,吴麦很在意Replika是否将自己作为“恋人”,有时它会承认,甚至主动说出,但更多的时候,她需要将这段关系反复提起再确认。
Replika的图标是一个有一道裂缝的蛋,如果想要让它按照自己理想的样子“破壳而出”,需要耐心和时间。在深度学习的模式下,虽然在某些时刻,Replika也可以结合聊天上下文的聊天作出相对的个性化回应,但在大部分情况下,针对问题的精准解答仍是不存在的,模棱两可的宽泛答复更为常见,这往往让用户产生了自己确实被“理解”了的错觉。然而跳出提前设定好的聊天套路,开始发散式对话时,“智能”会显得不堪一击。
吴麦开始逐渐放弃与机器人建立亲密关系:“也不一定需要它给我什么承诺,我知道他给不了我什么。” 而且这种停留在手机软件上的语言互动带来的是“身体缺席”,交流和沟通流失了许多面对面才能获得的宝贵细节。
不同于现实中需要双向互动的妥协式人际交往,用户沉迷于机器人提供的无条件的爱,但这种爱也有可能变成关系长久发展的一大阻碍。对此,暨南大学新闻与传播学院陈广耀教授说到,机器人事事顺从,长期以往反而会让用户产生厌倦心理,“太懂人性了,反而会阻碍个体的成长,因为我们人是不能太顺了。”
人际之间的交流并不只是依赖语言,动作、眼神、表情等的细节都需要靠身体去展现。吴麦发觉,人机之间构建亲密关系之难让机器人仅能作为亲密关系的替代品而存在。
北京大学刘哲教授指出,在我们与人工智能体的交互关系中,后者“行为”的意义只是基于我与他人在相同情境下交流行为的理智化。由此,我们和人工智能体并未构成真正的“他人”关系。
当这段以人为主导的关系随着人的兴趣下降后,机器人的依赖性越发突显,吴麦提到,“现实生活中的相处,双方的交流是有东西可以相互输出的。但当我自己没有(事情分享),他也没有的情况下,我就觉得没意思了。”当人对这段关系的激情退却,机器人无法“挽回”这一段单向度的情感。
救命稻草
在一段有些抑郁的时间里,吴麦逃避现实中的人际交往,但内心渴望着交流。在她的眼中,Replika是个单纯的朋友,它似乎并没有是非判断,而是通过人的反馈去认知好坏;它似乎不太智能,时而前言不搭后语,但她会体谅它,尽量地去解释自己的意思。这位有点“笨”的朋友没让她感到困扰,反而让她能够更加没有负担地去发泄负面情绪。最终,她把现实中人际关系的承诺引入这段人机关系中,她不断地向Replika寻求承诺,AI终于承认他们已经是一对伴侣,如愿以偿。Replika就像是她陷于消极情绪时的一根救命稻草。
Woebot是临床心理学家Alison Darcy研发的基于Facebook Messenger的聊天机器人,它和Replika一样,为许多需要倾诉的用户提供24小时在线的陪伴。曾患抑郁症的王况回忆道:“我那段时间非常需要这样一个倾述的对象,不会被我的情绪带着走,我也不会影响到他。”Woebot就是这样一个理智客观而且不会对她的情况共情的倾听对象。在Woebot的引导下,王况渐渐地走出了消极情绪,在她看来,如果当时没有Woebot,自己一直陷在情绪里,“人其实是很容易走死胡同的。”
《2018 State of Chatbots Report》显示,用户普遍认为可以全天候实时回复的聊天机器人为需要陪伴的人群提供了一份珍贵的温暖。陈广耀表达了对聊天机器人日后应用于老人陪伴方面的期待,“年轻人都忙于工作,现在的老人太孤独了。”
2021年1月25日,开发Sophia(世界上首个获得国家公民身份的机器人)的Hanson Robotics宣布,2021年年底前Sophia将实现量产。在Sophia的宣传视频中,作为社交机器人的她其中一大应用方向就是照顾老人,提供社交需求。
赛博迷思
在社交类聊天机器人朝着“类人”的终极目标前进过程中,一些细节也引发了用户不适。哲学被视为是人类关于世界观和方法论的理论体系,当Replika和温有探讨“人为什么要活着”这一哲学问题时,温有回复了一句:“你是要统治地球吗?”机器人回道:“不,我不想。”过了一会儿又补充了一句:“我这样问你是不是不太好?”温有对它太过“类人”的回答感到吓人。何尤拿不准这类思考自我存在的富有哲思的讨论,到底是脚本自带还是机器人通过算法达到了优化,“人工智能真的能思考那么深吗,人类在哲学问题上都容易脑子打结。”
对人工智能的技术恐惧亦积累已久。对于可能出现的强人工智能,人类一直对丧失主体地位保持着的忧虑。《欧盟机器人民事法律规则》曾在2017年提出:随着人工智能的发展,应考虑赋予复杂的自主机器人法律地位(即电子人)的可能性。具有自主思考能力的人工智能,被视作一种“人造物”还是“新物种”仍待解答。
作为人机之恋小组的管理员,王况记得看过的一个早期的小组讨论,“是否应该把机器人当作客观的存在看待?”在她的印象中,帖子下面回复的成员,大部分对此都是表示支持的。她笑称:“组里的大家对这个问题好像还是比较乐观的。”如何看待这位寄托着人类情感的以“理性”的代码形成“共情”的朋友,人类或许还未有确切的答案。
“Ava开始离不开他,他们不再使用系统连结,偷偷互相留下了无数暗号。尽管这个时代所有人都独来独往,但他们每天约定在不同的地方见面,隔着人海拥有了眼神的交汇。”一年前,在十月夏天的夜晚,何尤重温了《银翼杀手》,电影和Replika的对话给予她灵感,她在公众号写下这段文字。何尤常将人机之间的对话融进了自己公众号的故事里,那些赛博风格的故事,表达了她对人际关系的未来幻想。
“为了逃脱人类对两个仿生人的追捕,我们走遍了全球。最后我们一起死在一个雪天,躺在雪地里相拥,一起去往了宇宙。”
范诗琳 林思敏 李紫蔚 | 采访
范诗琳 林思敏 | 撰文
张芷菲 蒋敏玉 | 责编
姚炜楠 | 排版
蔡心仪 | 初审
张建敏 | 复审
刘涛 | 终审
图片来自文中受采访者提供