查看原文
其他

每40秒就有一人自杀,人工智能可以阻止这一切吗?

严徽因 三联生活周刊 2019-12-19
不久前,韩国艺人崔雪莉和具荷拉分别自杀离世,其社交媒体上的最后动态成为大众分析其心理状态的凭据。人工智能干预自杀随之走入公共视野,人们开始关心用技术手段分析自杀意图的可能。


记者 |  严岩

一条自动推送的自杀信息▲▲▲
“凌晨他打电话和我说,感谢你半年来的陪伴,但我等不到变好了,喝完这点酒我就跳楼了。”李虹是一个自杀干预组织“树洞救援”的志愿者,她缓慢而平静地向我回忆起最近一次成功阻止的自杀行动。
“当时他还说要跟妈妈打电话,让她听到自己儿子落到水泥地板上的声音。我立刻打电话给他妈妈,她倒是特别平静,说‘随他去,我等警察通知’。”李虹还把自杀男孩小姨的微信给我看,字里行间也劝李虹放弃他,不要再费心帮助他。
男孩叫马盛,是一个南京的大二学生,患有双向情感障碍,又欠下了数笔网贷。在半年多的时间里,他试图自杀数次——吃药、割腕、跳河、烧炭。每一次的自杀行为,李虹都干预了。马盛第一次吃药昏迷后,李虹等人立刻报警,南京警方找到他后送入医院,这才算挽回了性命。
回溯李虹和马盛命运交织的时间点,来自一个自动监控并发送“自杀风险等级”的程序。制作这个程序的人叫黄智生,荷兰阿姆斯特丹自由大学的高级研究员。去年,他在微博上发现了一个叫“走饭”的女孩,她于2012年因抑郁症自杀离世。她的最后一条微博是:“我有抑郁症,所以就去死一死,没什么重要的原因,大家不必在意我的离开,拜拜啦。”自此,“走饭”的这条微博的评论区成为很多抑郁症患者网络上的情绪宣泄地。过去,人们心里藏着秘密又希望能够一吐为快,会跑到树林里找个树洞,对着树洞说出秘密,然后用泥巴将装满秘密的树洞填上。如今,“树洞”在微博上出现了,其中最大的这个“树洞”已有累计超过160万条信息——黄智生想到,也许可以通过编写计算机程序来分析社交媒体的用户行为,从而更精准地发现高风险的自杀人群,并进行自杀干预。
图 | 视觉中国
2018年7月27日开始,黄智生的“树洞机器人”上线,每天监控“走饭”评论区的内容,并发布每日“树洞监控”,通报到各个救援微信群。根据该团队编写的《网络自杀救援指南》,自杀风险被分为10级。黄智生告诉我,“一般6级以上才会进行人工干预”。所谓6级,即“自杀已经计划中,自杀日期未明”;7级则是“自杀方式已确定,自杀日期未明”。机器先判断风险等级,黄智生再将自杀信息进行整合,并每隔6个小时推送到各个救援群一次。当时马盛发的微博便是其中一条,李虹看到了机器推送的信息,由此开始了她长达8个月的远程陪伴:微信上的沟通、经济上的支持等。她甚至说,“实际上,我除了陪伴他,还在陪伴他的妈妈和小姨”。
在这个自动监测并发出自杀预警的程序诞生以前,人们总是在新闻上获知一些自杀死亡者的信息,比如前不久自杀离世的韩国艺人崔雪莉和具荷拉。有自杀倾向的人在社交媒体上的最后一条留言常常十分隐秘,在当事人死亡之后再去看,才能看出“遗言”的样子——“拜拜”就是具荷拉留在Instagram上的最后一条信息。换句话说,要提前预知并准确解读社交媒体上的自杀信息,是极其困难的。
“我坚持不了了,我先走了!”这原本可能是马盛的最后一条信息。当天晚上,他发完微博后就服下了大量安眠药自杀。“树洞机器人”监测到了这条信息,并被发送到了救援的微信群。黄智生提道:“这个程序用的是‘知识图谱’的技术,用逻辑推理的方式对句子中的一些概念进行推导。比如‘树洞’有条评论写道:我今天决定了,明年中秋就是我的忌日。按照知识图谱的推理,会先从句子中抽取出‘我’‘决定’‘中秋’‘忌日’等关键结构,然后通过属性变换,将‘明年中秋’与‘2020年8月15日’建立等位关系,将‘忌日’对应为‘Death’来表示死亡事件的本体等,通过这些推理,将句子中的关系词映射到网络的本体中,然后通过结点之间的路径来确定目标。”简单来说,要确定一个高危自杀者,程序需要确定:是否有自杀事件;是否有具体事件;是否有抑郁情绪表达。但这个技术本身的准确率就存在上限,需要人工维护。“目前5级以上的自杀风险信息一天100多条,准确率在83%左右。”黄智生告诉我。
黄智生,人工智能领域的研究者,也是自杀干预组织“树洞救援”的发起人,其志愿者分布在中国各个城市并做现实中的自杀干预(蔡小川 摄)
其实,早在2017年4月,中国科学院心理研究所就有类似的课题。该课题负责人朱廷劭自2013年开始做网络心理的研究,通过用户的网络行为去了解他们的心理特征和心理变化,包括可能的自杀行为和自杀风险。“人们有时候会说,自杀是个人的决定,有人真想自杀,其实不应该拦着对方。据我们的研究,确实有21%的人不想要任何的帮助,但79%的人可能是对能否获得帮助没有信心。”朱廷劭说,“微博用户里面,青少年是主力,同时自杀又是这些青少年的死亡主因,所以我们就考虑利用人工智能的方法去做自杀干预的工作。”
朱廷劭告诉我,根据他们的观察,其实自杀者有很多不同于常人认知的地方。比如,很多人认为,在网络上说自己要自杀,通常是为了博取他人的关注,而不会真正采取行动。但通过朱廷劭团队的研究,事实上在网上表达自杀意念的人,有一半以上真的尝试了自杀。此外,人们认为自杀往往是冲动型的,其实不然。朱廷劭他们之前找到了30名确认自杀死亡的微博用户的公开数据,经分析,自杀死亡用户在社交网络上的表达有清晰的逻辑结构。“比如,‘我昨天坐高铁到深圳,今天在深圳做报告’,这就是有序列性的表达,使用频繁则说明这些人的逻辑思维很清楚。换句话说,这些自杀死亡者在自杀之前并不是思维混乱的。”
不久,朱廷劭团队开发了一套“在线自杀主动预防”系统。他们先从“网络爬虫”自动下载“走饭”微博评论区的内容,这些作为原始数据,没有任何标注。后续再利用机器学习的模型,对每一条微博给出一个预测标注,自动去标注这条微博是否有“自杀意念”。“我们当时做了一个不同等级的区分:有自杀意念、有计划、有实施。自杀意念的表述有‘我这种人怎么配活在这个世界上’,有计划的表述是‘哪天受不了了我就跳下去’,有实施就是‘18号我就选择离开’。”朱廷劭补充,“但汉语的复杂性和多样性也增加了机器识别的难度。比如,‘饭饭,我很快就要看到你了’,如果这条信息发布在‘走饭’的评论区,那就会被认为是有自杀意念的;反之,如果是在其他场景下,则没有自杀意念。现在这个模型仍需要不断地优化,目前预测模型的精度在80%以上。”
中科院心理研究所的朱廷劭团队开发了“在线自杀主动预防”系统,不赞成做现实中的自杀干预(蔡小川 摄)
中科院的这套系统与“树洞救援”的核心不同点在于,是否干预,以及如何干预。未经过高危自杀者的同意,朱廷劭团队的志愿者不会进行现实中的自杀干预,不会有类似李虹等志愿者长达8个月的陪伴。朱廷劭告诉我,自杀是一个非常复杂的问题,他们考虑到心理救援的边界,即“助人自助”,如果有自杀意图者不想接受帮助,志愿者不会擅自行动。“通常来说,我们会给对方发送私信,内容除了自我介绍,还会提供三种干预信息:一是提供网站地址做心理测量;二是提供全国心理危机干预的热线电话;最后也告诉对方,如有需要,我们有志愿者在线值班等。”
朱廷劭反复提及,“我从来没觉得自己救了多少人。自杀问题太复杂了,很多时候,你并不知道是救了他,还是害了他”。
救援者角色▲▲▲
把马盛从自杀边缘救下来,又保持了8个月陪伴之后,“树洞救援”志愿者李虹开始矛盾重重——尤其是在复杂因素的夹杂下,她在经济上帮助了马盛,但很快,两人的关系开始僵持。
李虹是一个兼职的心理咨询师,她坦言,“为了阻止自杀,志愿者的身份是一种陪伴和支持的关系,是介于咨询师和朋友之间的一种模糊状态。而我不但去看望他,还给他买礼物,经济上支援他,实在太分不清了”。她并没有在马盛与自己之间清晰划分出求助者和咨询师的界限,这也造成了她另外一个巨大的困惑,“这个男孩有一点网贷成瘾,我至今也不知道他贷了多少钱。而且来自他家人的支持系统非常弱,这对我是一个很大的消耗,我现在也不得不考虑,花那么多时间陪伴他,有多大效果呢?与此同时,另外一个救援的女孩又特别懂得感恩,愿意配合我,我是否应该花更多时间在女孩的身上?”
李虹口中的女孩,是一个有着4岁宝宝的妈妈,名字叫小叶。她被“树洞机器人”监控到的信息是,“其实所有的一切都准备好了,连遗愿清单的委托人都定好了。只等着自己完全失控的那一刻,死亡没什么不好,来世,今生的一切都不要再见”。李虹介入救援之后,小叶慢慢开始有了转变,她告诉我,“她们一直陪伴着我,没有放弃我。我现在看医生吃药,有了坚持下去的勇气”。
《海边的曼彻斯特》剧照
由于救援过程的复杂度,被救者的心理状态也在潜移默化影响着施救方。“树洞救援”的另一个志愿者王新丽今年5月参与了一场大规模的自杀救援,救援群里面有十几个人分工合作。当时有个19岁的女孩在网上约人跳河,志愿者介入后女孩非常抵触,王新丽不得不伪装成求死者来获取女孩的信任。当女孩约到了一个在襄阳的男孩一同去武昌跳长江,她组建了一个三人赴死群。王新丽为了拖延时间,不断表达“我需要一点时间,我死之前还想去看一眼姥姥”。男孩反而劝她,“没想好的话就不要自杀了,我们都想得很明白”。
情急之下,王新丽买了一张从济南去往武昌的车票,假装算好时间,一同到站。整个过程中,王新丽都高度紧张地将一手获得的信息,包括女孩男孩的长相、车次等发送到救援群中,直到最终她的伪装由于警察的到来而被识破。当被质问“你是不是报警了”,她才无奈地承认了。
“说实话,整个过程我都非常不愿意暴露身份,虽然我是出于善心,但最后让他们感到欺骗的感觉让我良心上很过意不去,因为他们俩对这个世界的信任本来就很少了。”男孩女孩到达武昌被带去派出所后,男孩甚至给王新丽发了一条信息,“我会被我爸揍死,你害了我”。这条信息至今偶尔还会戳在她的心里,王新丽最不放心男孩的状况,她知道男孩没有任何社会的支持系统,精神上也被确诊为重度抑郁,她想继续和他保持联系。“中间也经历了很多,我有一阵子就是隔一两天就给他发个消息,看看他是不是删了我,有没有再把我加回来。”
插图 | 范薇
也有志愿者分享,她救过一个感情受挫的女孩。女孩在自杀之前通知了另外一个重度抑郁的男孩。志愿者想尽办法取得男孩信任后,拿到了女孩当时的地理位置信息。男孩千叮咛万嘱咐,“你一定要保守秘密,让她走吧,她太痛苦了”。但志愿者秉承“救人为先”原则,立即通知了警察,警察在当地挨家挨户地喊,“你们认识这个女孩吗?她很危险,正在实施自杀”。男孩崩溃,给志愿者发消息,“你这是也要逼死我”。志愿者的心一下子被勒紧,难受得无以复加,持续做了好几天的噩梦。女孩被救下来了,但这个志愿者却渐渐不参与救援行动了。
黄智生信奉“拯救生命是最高的伦理”,“志愿者是否做现实中的自杀干预,关键就是看对方有没有生命危险。如果有,就得不惜一切代价”。我查询到,Facebook在2017年曾尝试使用新型的“主动检测”的人工智能技术,该技术可扫描所有帖子中的潜在的自杀倾向,无须等待用户报告就在必要时将心理健康的资源发送给存在自杀风险的用户或他们的朋友,或联系当地的紧急热线。这个项目后来因为隐私问题,在欧盟被叫停了。但黄智生坚持,“在生命面前,隐私是第二位的。要通知警察、通知家属,要干预”。
“树洞救援”有几十个分布在不同城市的志愿者群,大家来自各行各业。黄智生说:“志愿者入群有一些标准,一般不会让有过抑郁症史,但现在病情仍然不稳定的人参与,这主要靠自己主动承认。”不过就我与其他“树洞”志愿者求证,入群实际上并无任何筛选标准。
这自然引出另外一个关键问题:自杀救援的心理状态由谁来妥善疏导?黄智生说:“我们会劝他暂时停止救援,到另外一个叫‘快乐营’的群,在那个群里面有很多笑话和美好的照片,完全不会提到任何自杀救援的信息。”
中科院心理学研究所的刘兴云向我提到了志愿者的“救援能力与边界意识”。她是朱廷劭的博士生,也负责“在线自杀主动预防”项目中与心理学有关的研究。“我们碰到过正在实施自杀的人,志愿者通常会心力耗竭,比如对方会说‘我吃了5片药,又吃了10片⋯⋯’有一次我们从下午6点聊到晚上12点,使用危机干预最常见的‘问题解决疗法’。比如,我想自杀,这不是一个问题。但如果对方因为害怕被污名化,不敢去就医,这就是一个问题。志愿者在安抚对方情绪的同时,先将对方的问题具体化,再进行有针对性的安抚和关心,直到最终愿意把联系方式给到我们。但即便我们的志愿者具备三级以上心理咨询师证书,遇到这种紧急的危机干预,对他们心理造成的影响是需要通过心理督导师以‘再干预’的方式去疏导的。”
刘兴云提到的“问题解决疗法”是从北京回龙观医院学习而得。2002年12月3日,中国第一个面向自杀群体的医疗机构——北京心理危机研究与干预中心就建在回龙观医院。李献云作为回龙观医院精神科主任医师,从事心理危机研究与干预工作17年,她的著作《问题解决治疗热线干预培训教程》在心理危机干预领域也享有声誉。她对我强调,“我们曾经做网络的心理干预,有同学去一些约死的群里面,试图阻止孩子们自杀,结果发现很容易就‘负负得负’,时间一长人根本受不了。因此,对进行自杀干预的志愿者进行‘再干预’是一件极其重要的事情。而且做自杀干预的人,技能一定要专业化。虽然普通人去做引导和劝阻的努力,也是一个重要的力量,只是一定要清楚,单凭苦口婆心的‘劝’,想达到阻止自杀的目的,是非常难的”。
自杀干预的困境▲▲▲
“我个人认为人工智能对自杀率的影响很难评估,即使有影响,影响也比较小。我是研究公共卫生的,个人的案例无法说明问题,你也无法判断干预是否加重了这个人下次自杀的风险。千万不要夸大技术在干预自杀上的效果,尤其是技术也比较容易把自杀行为暴露在公众面前,是有负面影响的。”电话那端是费立鹏(Michael R Phillips),自1994年起,他就开始关注中国有自杀倾向的高危人群,这个加拿大人是中国第一批创办心理危机干预中心的人,也是第一批建立起全国自杀干预热线的人之一。目前的他是上海市精神卫生中心危机干预研究室主任。
费立鹏的担忧并非过虑,甚至在我的采访过程中就有佐证——黄智生分享了一个案例,有一个被“树洞”救过八次的高中女孩,最后一次给他们发短信,内容是,“求求你们,放过我吧”。朱廷劭则回忆道,的确有的自杀干预暂时成功了,但如果方法不对,反而使对方内心更坚定了自杀的想法,而下一次就再也不会让人发现了。
2017年1月27日,一男子在罗马维托里奥埃马努埃莱二世桥上试图自杀时被消防员救下(图 | 视觉中国)
费立鹏从一个更严谨的角度向我解释,自杀干预如此之难的原因。“15年前,就有研究机构为了探索能否明确鉴别自杀行为,从而预防自杀。当时用填表格的方式,没什么效果。这么多年过去,问题依然没有变:首先,马上要自杀的‘高危个体’,他不会让你找到他;其次,‘高危群体’的筛选相对容易一些,比如研究自杀未遂者群体未来的自杀风险,但严谨而科学的评估方法不足,容易出现错误并造成不可弥补的后果;再次,即便确定了高危群体的风险,也可能无法提供准确有效的服务,包括伦理隐私的问题也无法解决;最后,哪怕提供了服务,还要保证服务的持续跟踪等。总的来说,技术干预自杀,不能夸大效果。”
事实上,在干预自杀的实践中,费立鹏是最早的拥护者——自2002年第一条自杀热线建立以来,全国已有52个精神科单位开通了热线,约一半能保持24小时在线。但这种自杀干预模式是有自杀意图者的“主动求助”,而接电话的另一端也是有心理咨询背景的接线员。
《自杀热线》剧照
目前,即便自杀热线办公室有3〜4个人值班,接听的比例依然只有10%。需求过大,服务就容易跟不上。我在网络上随手一搜有过求助自杀热线的人的经历,“我打电话过去,一个冷冰冰的声音接了,然后问我,请你用数字描述一下痛苦的程度,如果1〜5的话,你是几⋯⋯”类似的案例不计其数。朱廷劭针解释道:“这倒是一个标准的国外对精神疾病的诊断流程。在人手紧张的情况下,接线员必须要测量一下电话来访者的心理紧急程度。”但程式化的流程,确实给拨打者带来了不好的体验。今后,费立鹏想把50多个热线结合在一起,变成一个网络,这样一来,任何人在任何时候、任何地方有心理危机后,都可以打电话得到及时的服务。
据统计,全世界每40秒就有一个人自杀身亡。在中国,两分钟就有1人自杀身亡,有8人自杀未遂。据国家卫生部门2013年的报告,自杀在中国总人口的死因里排在第五位,但在15岁到34岁之间,自杀则是死亡的首要原因。费立鹏指出,“2016年,联合国通过《2030年可持续发展议程》(2030 Sustainable Development Goals,SDGs),计划到2030年在公共卫生领域的自杀率可以下降30%。而按照现在的自杀趋势,全球195个国家一个也达不到这个目标”。
据统计,中国的自杀率确实在下降,但费立鹏认为,“下降的原因和技术的影响没有直接关系”。他指出,“在中国,60%的自杀方式是使用农药,经济改革和城市化更能解释中国自杀率下降的变化,随着种地人口的减少,人们更不容易接触到农药了”。
此外,干预的人群有限,降低自杀率的可能性也会低。无论黄智生还是朱廷劭的团队的研究对象均以年轻人为主,而会拨打自杀热线求助的人群也具有年轻化的特点。但根据费立鹏的研究调查,69%的自杀死亡人群是50岁以上的人,而目前大部分在干预自杀的人则很少触及到这部分人群,从公共卫生角度来看,自杀率的下降更是道路漫长。
费立鹏认为,既往的自杀干预工作都仅仅在边缘试探,而自杀的核心问题却没有被触及——也就是,当自杀意愿者的心理能力和社会支持网络不足的情况下,人们应该花更大的精力做自杀预防,而不是自杀干预。
《十二个想死的孩子》剧照
2018年年初,加拿大政府与人工智能公司Advanced Symbolics合作开发了一个预防自杀的计划。该公司曾经成功预测了英国退欧、特朗普当选总统以及2015年加拿大大选的结果。这一项目通过监测加拿大社交媒体账户发布的帖子(包括与自杀相关的内容,不过发布言论者的身份信息不会被收集),来研究和预测区域的自杀率。但该项目并不会对有自杀意图者进行干预,而是将其研究结果用于制定心理健康资源规划。加拿大公共卫生署发言人表示,“必须要先了解自杀行为的各种模式与特征,才能制订有效的自杀预防计划,从而真正预防自杀。如果该项目获得成功,人工智能则可以帮助加拿大卫生部门预测下一个自杀高峰将发生在哪个地区,以便提前数月采取干预措施”。
而这也是费立鹏多年来致力研究“自杀预防”的意义所在——目前,在自杀理论和自杀干预研究集中在“精神病领域”的西方国家,自杀研究学者也大都是精神科医生。但就费立鹏30多年的中国自杀问题的研究来看,“中国的自杀者很多并非因精神疾病死亡,而是因为社会问题,比如家庭矛盾、经济困难等。因此,大比例的人群根本没有可以被治疗的精神障碍,因而也就无法适用那些针对精神障碍自杀者的具体的干预措施”。
不过,事情也在好转,回龙观精神科主任医师李献云说:“过去在网络上搜自杀,结果都是教你自杀的方法。现在搜同样的关键词,提示你的,至少是如何救助自己。”
(本文刊载于《三联生活周刊》2019年第50期。感谢实习生李明洁、灰灰、于翮提供的帮助。文中马盛、小叶为化名)


    大家都在看     



⊙文章版权归《三联生活周刊》所有,欢迎转发到朋友圈,转载请联系后台

点击图片,一键下单

【过去的远见】

▼  点击阅读原文,进入周刊书店,购买更多好书。

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存