查看原文
其他

AI 的回复,算不算我的回复?

Will Colowell TechXAcademy 2022-10-19



自然语言处理的语义分析以及神经网络架构搜索等技术的介入,开始让我们在互联网上的发言也变得“智能”了起来。当 AI 也可以用来帮我们发推文或者回复消息时,你会因为害怕说错话或者不知道该如何回复别人,而选择向 AI 求助,或者干脆直接自动托管吗?


那么在那一天来临之前,简单而真诚的“人话”又会不会变成一种奢侈?


(以下内容共计:6500 字,阅读需要:17 分钟)


2021 年 5 月,因用户信息滥用和一时头脑发热的草率改革而臭名昭著的 Twitter ,推出了一项“提示”功能, 建议用户在发送推文之前三思而行。接下来的一个月,Facebook 宣布为群组提供人工智能“冲突警报”,这样管理员就可以在可能存在 “有争议或不健康的对话”时采取行动。


电子邮件和消息的自动回复每天为我们完成数十亿句话的传送。亚马逊在 2020 年推出的 Halo 是一款健身手环,可以监测你的语音语调。健康不再仅仅是跟踪心跳或计算步数,也包括我们与周围人相处的方式。正在开发的算法治疗工具,可以预测和预防负面行为。


图源:unsplash


斯坦福大学传播学教授杰夫·汉考克(Jeff Hancock)将人工智能介导的传播定义为:“一个智能代理通过修改、增强或生成信息来代表传播者运作,以完成传播目标。” 他说,这项技术已经在大规模部署。


在这一切的背后,是一种蓬勃发展的信念,即我们的关系离完美只有一步之遥。


自新冠疫情开始以来,我们更多的人际交往依赖于计算机中介渠道。在网上争吵、有毒的 Slack 信息和无限的 Zoom 的汹涌海洋中,算法能否帮助我们对彼此更友善?一个应用程序能比我们自己更好地解读我们的感受吗?或者说,将我们的沟通外包给人工智能,是否会削弱人类关系中的人性化因素?



你可以说贾伊·基松(Jai Kissoon)是在家庭法庭系统中长大的。或者,至少是在它周围。他的母亲 凯瑟琳·基松(Kathleen Kissoon)是一名家庭法律师,当他还是个少年时,就在母亲位于明尼苏达州明尼阿波利斯的办公室里闲逛,帮助整理文件。那是一个还没有 “高级复印机 ”的时代,当贾伊在律师事务所的走廊里翻阅无尽的纸堆时,他无意中听到了关于家庭破裂的多个版本的故事。


从这个意义上说,贾伊没有什么变化,他是 OurFamilyWizard 的共同创始人,这是一个为离异和共同抚养子女的夫妇提供的日程安排和沟通工具,于 2001 年推出。这也是凯瑟琳的想法,而贾伊制定了商业计划,在一开始将 OurFamilyWizard 作为一个网站推出。


它很快引起了法律系统工作人员的注意,包括詹姆斯·斯文森法官,他于 2003 年在明尼阿波利斯市亨内平县家庭法院开展了平台的试点项目。该项目选出了基松所说的 “最难搞的家庭”中的 40 个,将他们安置在该平台上——“他们从法院系统中消失了。” 确实还有人最终被送上法庭,但那是两年后,也就是在父母停止使用该平台之后。


二十年过去了,OurFamilyWizard 已有约一百万名用户,并在美国各地获得法院批准。2015 年,它在英国推出,一年后在澳大利亚推出。它现在已经进入 75 个国家;类似产品包括 coParenter、Cozi、Amicable 和 TalkingParents。


美国律师协会家庭法分会秘书布莱恩·卡普夫(Brian Karpf)说,现在许多律师推荐共同抚养孩子的应用程序作为标准做法,特别是当他们想对一对夫妇的沟通方式产生 “寒蝉效应 ”*时。这些应用程序可以对骚扰行为起到威慑作用,在沟通中使用这些应用程序可以得到法院的命令。


*寒蝉效应:即负面效应,政治、法律、新闻领域的常见用语,特别指在讨论言论自由时,民众由于害怕政府的刑罚或高额罚款而不敢发声,就像蝉在寒冷的冬天噤声一般。


为了鼓励礼貌,人工智能已经成为一个越来越突出的特点。OurFamilyWizard 有一个“ToneMeter”功能,它使用情感分析来监测应用程序上发送的信息——“这是一种让步信号”,基松说。


情感分析是自然语言处理的一个子集,是对人类语言的分析。这些算法在庞大的语言数据库中进行训练,并根据其中包含的单词和短语对文本的情感和情绪进行评分。在 ToneMeter 的案例中,如果在一条信息中检测到带有情感色彩的短语,一组信号强度条就会变红,问题词就会被标记出来。


例如,“我们迟到了,这是你的错”,可能被标记为 “咄咄逼人”。其他短语可能被标记为 “羞辱性”或 “令人不安”。这取决于用户是否还想点击发送。


图源:unsplash


ToneMeter 最初用于信息服务,但现在正被编码用于应用程序中父母之间的所有交流点。首席产品官谢恩·海尔格特(Shane Helget)说,很快它不仅会阻止消极的交流,而且还会鼓励积极的语言。他正在从大量的互动中收集洞察力,以期该应用程序可以用来主动促使父母在常规对话之外对对方采取积极的行为。可以提醒他们提前沟通日程安排,或者提出交换生日或假期的日期——这些姿态可能不是必须的,但可能会受到欢迎。


2019 年推出的 CoParenter 也使用了情感分析。父母通过文本进行谈判,如果信息内容过于敌意,就会弹出警告——就像人类调解员可能会对他们的客户嘘寒问暖一样。如果系统不能达成协议,可以选择让人加入聊天。


将这种充满感情的谈判交给一个应用程序,并非没有问题。基松有意识地不允许 ToneMeter 根据父母的积极或消极程度进行评分,而卡普夫说他已经看到了对用户行为的明确影响。他说:“沟通将变得更加机械化。但你是在为信息被阅读而写,难道不是吗?”


共同抚养孩子的应用程序也许可以帮助引导有问题的关系,但它们不能解决它。有时,它们会使情况变得更糟。卡普夫说,一些父母将应用程序作为武器,发送“诱饵”信息,让他们的配偶上当,诱使他们发送有问题的信息。


“混蛋父母永远是混蛋父母”。基森回忆起他启动试点项目时与一位法官的对话。“关于工具,需要记住的是,我可以给你一把螺丝刀,你可以用它修理一堆东西。”这位法官说。“或者你也可以拿来戳自己的眼睛。”



2017 年,阿德拉·蒂蒙斯(Adela Timmons) 是一名心理学博士生,在加州大学旧金山分校和旧金山综合医院进行临床实习,她在那里为那些有来自低收入背景的幼童的家庭工作,这些幼童曾遭受过创伤。


在那里,她注意到一个模式的出现。患者会在治疗中取得进展,但在疗程之间却在混乱的日常生活中消失了。她相信技术可以 “在治疗师的房间和现实世界之间架起桥梁”,并看到了可穿戴技术的潜力,它可以在问题出现的那一刻进行干预。


在这个领域,这就是“及时适应性干预”。从理论上讲,这就像有一个治疗师准备好在你的耳边低语,当情绪的警钟响起。“但要有效地做到这一点。”现任佛罗里达国际大学生态系统技术干预(TIES)实验室主任的蒂蒙斯说,“你必须感知感兴趣的行为,或远程检测它们。”


蒂蒙斯的研究涉及建立人类行为的计算模型,主要是创建能够有效预测夫妻和家庭行为的算法。最初,她专注于夫妻。在一项研究中,研究人员为 34 对年轻夫妇安装了手腕和胸部监测器,并跟踪体温、心跳和汗水。他们还给他们配备了智能手机,以监听他们的对话。


图源:unsplash


通过将这些数据与每小时的调查进行交叉比对,在调查中夫妻双方描述了他们的情绪状态和任何争吵,蒂蒙斯和她的团队开发了模型,以确定一对夫妻何时有较高的争吵机会。触发因素将是高心率、频繁使用 “你”这样的词,以及背景因素,如一天中的时间或房间里的光量。


“没有一个单一的变量可以作为不可避免的争吵的有力指标。”蒂蒙斯解释说(尽管在洛杉矶的交通中驾驶是一个主要因素),“但是当你有很多不同的信息被用于一个模型中,结合起来,你可以更接近于拥有在现实世界中真正起作用的算法的准确水平。”


蒂蒙斯正在扩大这些模型,以研究家庭动态,重点是改善父母和子女之间的联系。TIES 正在开发移动应用程序,旨在使用智能手机、Fitbits 和苹果手表被动地感知积极的互动(其想法是,它应该可以与现有的消费技术相结合)。首先,收集数据——主要是心率、语音语调和语言。硬件还能感知身体活动以及父母和孩子是否在一起或分开。


图源:unsplash


在夫妇的研究中,该算法在检测冲突方面的准确率为 86%,并且能够与自我报告的情绪状态产生关联。在家庭背景下,希望通过检测这些状态,该应用程序将能够进行积极干预。“它可能是一个提示,比如‘去给你的孩子一个拥抱’或‘告诉你的孩子他或她今天做得很好’。”蒂蒙斯说。“我们还在研究能够检测到消极状态的算法,然后发送干预措施,帮助父母调节他们的情绪。我们知道,当父母的情绪得到调节时,事情往往会好转。”


语境信息有助于提高预测率这个人前一天晚上睡得好吗?他们那天是否锻炼了身体?提示的形式可以是建议冥想,尝试呼吸练习,或参与一些认知行为治疗技术。正念应用程序已经存在,但这些有赖于用户在他们生气、不安或情绪失控的时对它的使用。


“实际上就是在那些你最不能够调动你的认知资源的时刻。”蒂蒙斯说。“希望我们可以通过提醒他们需要使用这些技能的时刻来满足当事人的要求。” 根据她与家庭合作的经验,传统的治疗结构,即每周一次 50 分钟的治疗,不一定是产生影响的最有效方式。“我认为这一领域逐渐对我们是否能扩大心理干预的科学性有了明确的兴趣。”


这项工作得到了美国国立卫生研究院和国家科学基金会的资助,作为创建商业上可行的技术系统的基金的一部分,蒂蒙斯希望这项研究将导致可获得的、可扩展的和可持续的心理健康护理。一旦她的实验室有数据证明它对家庭是有效和安全的,并且不会造成意想不到的伤害,那么就需要做出如何部署这种技术的决定。


随着数据驱动的医疗保健越来越广泛,隐私安全成为一个问题。苹果公司是最新一家进入这一领域的大型科技公司;它与加州大学洛杉矶分校的研究人员在 2020 年启动了一项为期三年的研究,以确定苹果手机和苹果手表是否能够检测并最终预测和干预抑郁症和情绪紊乱的情况。


数据将从 iPhone 的摄像头和音频传感器,以及用户的动作,甚至他们在设备上的打字方式中收集。苹果公司打算通过将算法放在手机上来保护用户数据,而不将任何数据发送到其服务器上。


图源:unsplash


在 TIES 实验室,蒂蒙斯说,除了与伤害或虐待有关的情况,没有数据被出售或共享。她认为,开发这些技术的科学家必须考虑到可能的滥用情况。“科学界与立法者和公众的共同责任,是在这个空间内建立可接受的限度和界限。”


下一步是实时测试这些模型,看看它们是否有效,以及来自手机的提示是否真的会导致有意义的行为改变。“我们有很多很好的理由和理论,认为这将是一个真正强大的干预机制。”蒂蒙斯说。“我们只是还不知道它们在现实世界中的效果如何。”


传感器和算法可以理解人类互动的复杂性,这一想法并不新鲜。对于关系心理学家约翰·戈特曼(John Gottman)来说,爱情一直是一个数字游戏。自 1970 年代以来,他一直试图量化和分析亲密关系的炼金术。


戈特曼对情侣进行了研究,最著名的是他在华盛顿大学的 “爱情实验室”,这是他在 20 世纪 80 年代建立的研究中心。爱情实验室其中的一个版本今天仍在西雅图的戈特曼研究所运作,该研究所是在 1996 年与他的妻子朱莉·戈特曼(Julie Gottman),也是一位心理学家同行,共同创建的。


约翰·戈特曼


从爱情喜剧的角度来看,爱情实验室就像《当哈利·遇见莎莉》的开头部分,与《拜见父母》中罗伯特·德尼罗让他未来的女婿接受测谎的场景拼接在一起。人们被两两配对,并要求在他们之间进行交谈,首先是关于他们的关系史,然后是关于冲突。


同时各种机器追踪他们的脉搏、汗水、语气以及他们在椅子上的坐立不安程度。在一个装满显示器的密室里,每一个面部表情都由训练有素的操作员进行编码。爱情实验室旨在收集有关夫妇如何互动和传达他们的感情的数据。


这项研究诞生了 “戈特曼方法”,一种关系咨询方法。保持积极与消极互动的 5:1 比例是很重要的;33% 的人没有回应伴侣的关注请求,这等于一场 “灾难”;转动眼睛则与婚姻厄运密切相关。约翰·戈特曼在他位于华盛顿州奥卡斯岛的家中说:“亲密关系并不那么复杂。”


戈特曼夫妇也正在步入人工智能领域。2018 年,他们成立了一家初创公司:Affective 软件,创建了一个用于关系评估和指导的在线平台。它始于一次 IRL 互动*;多年前,朱莉·戈特曼在校门口接女儿时遇到了微软的老员工拉斐尔·利西萨(Rafael Lisitsa),这段友谊由此而生。


* IRL 互动:即 “in real life”,发生在现实世界中的互动。


利西萨是 Affective 软件公司的联合创始人和首席执行官,他正在开发一个虚拟版本的爱情实验室,在这个实验室中,夫妻双方可以通过他们的电脑、iPhone 或平板电脑上的摄像头对他们的关系进行同样的 “X 射线”诊断。


同样,面部表情和语音语调以及心率都会受到监测。这是情感检测或“情感计算”发展到何种程度的一个指标;尽管最初的“爱情实验室 ”有屏幕和设备的支持,但最终还是需要一个受过专门训练的人观看显示器并正确编码每个提示。


戈特曼从不相信人的因素可以被去除。他说:“能够真正敏感地编码情感的人非常少。”他说:“他们必须是音乐人。他们必须有一些戏剧方面的经验......我从未梦想过机器能够做到这一点。”


并非所有人都相信机器可以做到这一点。情感探测的人工智能是波澜不惊的领域。它在很大程度上建立在人类有普遍的情绪表达的想法上——这一理论在 20 世纪 60 年代和 70 年代随着保罗·埃克曼的观察而发展起来,他创造了一个面部表情编码系统,为戈特曼夫妇的工作提供了参考,并成为许多情感计算软件的基础。


图源:unsplash


一些研究人员,如东北大学*的心理学家丽莎·费尔德曼·巴雷特( Lisa Feldman Barrett),质疑是否有可能从面部表情中可靠地检测出情绪。


尽管已经被广泛使用,但一些面部识别软件已经显示出种族偏见的证据;一项比较两个主流程序的研究发现,它们对黑人面孔分配的负面情绪比白人面孔多。


*东北大学(Northeastern University),一所世界闻名的研究型大学,也是全美最大的私立大学,位于波士顿。


戈特曼说,虚拟爱情实验室是在包括所有皮肤类型的面部数据集上进行训练的,他的互动编码系统已经在美国不同群体中进行了测试,包括非裔美国人和亚裔美国人群体。


他说:“我们知道文化确实调节了人们表达或掩饰情感的方式。”我们已经在澳大利亚、英国、韩国和土耳其进行了调查。而且看起来我所演化的特定情感系统确实有效。现在,它在所有文化中都有效吗?我们真的不知道。”


戈特曼补充说,爱情实验室实际上是通过社会编码系统来运作的;考量的维度涵括谈话的主题、语气、身体语言和表情。它不太注重检测当下的单一情绪,而是分析互动的整体质量。


戈特曼说,把这些放在一起,你可以更可靠地得出一个类别,如愤怒、悲伤、厌恶、蔑视。


当一对夫妇参加时,他们被邀请回答一份详细的调查问卷,然后记录两个 10 分钟的对话。一个是关于过去一周的讨论;另一个是关于冲突。


在上传视频后,夫妇对他们在对话的不同阶段的情绪状态进行评分,从 1(非常消极)到 10(非常积极)。然后,该应用程序分析了这一点,以及检测到的线索,并提供结果,包括积极与消极的比例、信任度,以及可怕的“末日四骑士”:批评、污蔑、防卫和沉默抵制。它旨在搭配治疗师一起使用。


治疗和心理健康服务越来越多地通过视频通话提供——自从新冠疫情以来,这种转变已经被超常化。据麦肯锡的分析师称,自疫情以来,风险资本对虚拟护理和数字健康的投资增加了两倍,而人工智能治疗聊天机器人,如 Woebot ,正在成为主流。Lasting 等关系咨询应用程序已经基于戈特曼方法,并发送通知,提醒用户,例如,告诉他们的伴侣,他们爱他们。


图源:unsplash


人们可以想象这让我们变得懒惰,但高特曼夫妇认为这是一个教育过程——用最终会成为第二天性的工具武装我们。该团队已经在考虑一个简化版本,可以在没有治疗师的情况下使用。


对于戈特曼夫妇来说,他们的灵感来自于如此多的夫妻都停留在他们的智能手机上,技术开辟了一条使咨询民主化的途径。戈特曼说:“人们对技术作为一种语言变得更加舒适。”并且这些工具,“将以各种方式改善他们的生活。”



这种技术已经无处不在。它可能在你不知不觉中影响你的关系。以 Gmail 的智能回复(包括那些关于你如何回应电子邮件的建议)和智能撰写,它提供了完成你的句子的建议。智能回复是在 2015 年作为一项移动功能加入的,智能撰写是在 2018 年推出的;两者都是由神经网络驱动的。


康奈尔大学的博士研究员杰斯·霍恩斯坦(Jess Hohenstein)在 2016 年谷歌 Allo(现已停用的短信应用)推出时第一次遇到了智能回复。它有一个虚拟助手,可以生成回复建议。她觉得这很令人毛骨悚然。“我不希望算法影响我的说话模式,但我认为这一定是有影响的。”


2019 年,她进行了一些研究,发现人工智能确实在改变我们的互动方式和相互关系。在一项使用谷歌Allo 的研究中,113 名大学生被要求与伙伴完成一项任务,其中一方、双方使用或双方都不使用智能回复。之后,参与者被问及他们在多大程度上将任务的成功或失败归因于对话中的其他人(或 AI)。第二项研究的重点是语言效果;人们如何回应积极或消极的“智能”回复。


霍恩斯坦发现,人们在使用智能回复时使用的语言偏向于正面。人们更有可能接受积极的建议,而不是消极的建议——参与者也经常发现自己处于这样一种情况:他们想提出异议,但只得到同意的表达。其效果是能让谈话更快、更顺利地进行,霍恩斯坦注意到,这一点使谈话中的人对彼此的感觉更好。


霍恩斯坦认为,这在职业关系中可能会产生反作用。这项技术(加上我们自己的暗示性)可能会使我们不愿意挑战别人,或者根本不同意。


在使我们的沟通更有效率的同时,人工智能也可能将我们的真实感受抽离出来,将交流减少到互相回复“喜欢!”和“听起来不错!”对于那些在传统上认为更难开口的工作场所的人来说,这可能会增加他们这样做的积极性。


图源:unsplash


在完成任务的研究中,霍恩斯坦发现,人类为积极的结果邀功;当出错时,人工智能被指责。算法保护了人类关系,为我们自己的失败提供了缓冲。这提出了一个更深层次的透明度问题:是否应该透露人工智能已经帮我们做出了回应?


当伴侣在使用智能回复时,它最初让接收者对对方感到更积极。但当被告知有人工智能参与时,他们感到很不自在。


这强调了贯穿此类技术使用的一个悖论——感知和现实并不一致。“人们对它感到毛骨悚然,但它正在改善与你交流的人的人际感知。”霍恩斯坦说,“这是反直觉的。”


在他的论文中,汉考克强调了这些工具如何“可能产生广泛的社会影响”,并概述了一个研究议程,以解决在我们眼皮底下发生的技术革命。


以人工智能为媒介的通信可能会改变我们的说话方式,减轻偏见,或加剧偏见。它可能会让我们怀疑我们到底在和谁说话。它甚至可能改变我们的自我认知。


他写道:“如果人工智能将发件人的信息修改得更积极、更有趣或更外向,那么发件人的自我认知是否会转向更积极、更有趣或更外向?如果人工智能接管了我们太多的关系,那么我们真正剩下的是什么?”




来源:《连线》杂志

原文地址:https://www.wired.co.uk/article/artificial-emotional-intelligence

作者:Will Colowell

翻译 & 编辑:兵书

排版:灵〇


Hi~ TechXAcademy 的读者朋友们。为了改善我们公众号的阅读体验,给大家呈现更好的内容,我们在近期特别推出了「读者体验升级计划」,欢迎扫描下方卡片二维码,参与我们的问卷调查,你们的反馈对我们来说十分重要!问卷仅需 3 分钟填写完成,提交成功即有机会参与我们的抽奖送周边活动,我们将选出幸运读者并送出特别定制的 XA 周边礼物,感谢你们的参与~

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存