查看原文
其他

想死?AI不同意!

2017-12-02 读芯君 读芯术

这个星球上每 40 秒就有一个人选择了自杀,根据世界卫生组织估计,每年有 80 万以上的人死于自杀,还有更多的人企图自杀。
对于许多致力于防止自杀的人来说,社交媒体上的帖子可能是一个珍贵的数据库,它包含了人们在尝试自杀前的言行暗示。
现在,Facebook已经推出了新的人工智能,可以主动识别变高的自杀风险。



不会透露它的具体工作原理,也不会与研究者分享它的发现


近期Facebook宣布的这项技术,展现了一个了解和预测自杀风险的绝佳机会。在人工智能工具还未公开发布之前,Facebook就用它来帮助派遣首批急救人员进行100次“健康检查”,以确保用户的安全。该工具的在拯救生命方向潜力巨大,但该公司不会透露它的具体工作原理,也不会与学者和研究人员分享它的发现。


这必然会让该领域的一些专家感到困惑和担忧。


乔治亚理工学院互动计算学院的助理教授Munmun De Choudhury称赞这家社交媒体公司专注于自杀预防,但她希望Facebook对其算法更加透明。


“这不仅仅是另一个人工智能工具,它确实解决了一个非常敏感的问题,”她说。“这事关人的生死。”


Facebook了解这些风险,这就是为什么Facebook产品管理副总裁盖伊·罗森(Guy Rosen)在一次采访中强调,人工智能将如何极大地加快识别陷入困境的用户的过程并给予他们资源或帮助。


但他拒绝在一些一般性的样本之外深入讨论算法的因素,比如来自朋友和家人的担忧,以及用户帖子中的内容。罗森还说,该公司与自杀预防组织建立了合作关系,希望向研究人员学习,但他不愿讨论Facebook如何或是否公布或分享其使用人工智能方面的见解。


 “关于这个方面的内容,我们希望非常公开,”他说。


虽然透明度可能不是Facebook的强项,但在自杀预防等领域,它可以帮助其他专家通过揭示在自杀想法或自杀企图之前出现的行为或语言模式来挽救更多的生命。拥有超过20亿用户的Facebook可以说是拥有世界上最大的数据库。


De Choudhury说,透明度对人工智能至关重要,因为透明度会让人信任,这种情绪是缺乏的,因为人们担心技术会从根本上破坏他们的职业和个人生活。De Choudhury说,如果没有足够的信任,那些有危险的使用者可能会决定不去分享情感脆弱或关于自杀的帖子。


当用户从Facebook收到一条信息时,并不表明人工智能将其视为高风险。相反,他们会被告知:“有人认为你现在可能需要额外的支持,并要求我们提供帮助。”这里说的“有人”就是一个人工管理员,他对人工智能检测到的风险进行了跟踪。
 

Facebook探测到某个用户可能需要帮助


目前还不可能知道人工智能是如何确定某人处于迫在眉睫的风险之下,以及算法的准确性,或者是在寻找自杀想法线索时犯错误的方式。由于用户不知道他们被人工智能标记,他们没有办法告诉Facebook他们被错误地认为想要自杀。


De Choudhury的研究包括分析社交媒体来收集人们心理和情绪健康的信息,因此她也了解开发有效的算法和决定公布哪些数据所带来的挑战。她承认,Facebook必须保持微妙的平衡。例如,分享其调查结果的特定方面可能会导致因为过度关注于表达痛苦的关键词或者其他信号,从而让用户过于简化自杀风险。它还可能给那些意图不良的人提供数据,他们可以用来分析社交媒体上的帖子,识别那些有心理健康问题的人,并针对他们进行骚扰或歧视。

读芯君开扒


Facebook一直在试图解决人们在平台上发布自杀意图的问题,而人工智能变得非常擅长预测自我伤害行为。新的人工智能会基于那些被确认为自杀行为的帖子的文本模式,或者基于那些帖子下评论说“你还好吗?”或者“需要我帮忙吗?”来进行判断。

作为一家私人公司,Facebook也面临着不同的期望和压力。它也许会考虑为公益开发它的预防自杀的人工智能工具知识产权。它也可能希望利用知识产权的特点来加强其对营销人员和广告商的服务;毕竟,确定用户的情绪状态对Facebook的市场竞争力来说是非常有价值的。该公司此前曾表示有兴趣开发这种能力。


无论如何,De Choudhury认为,Facebook仍然可以在不损害人们的安全和公司的底线的情况下,更广泛地利用社交媒体来了解自杀行为。


她说:“我认为学术上分享这个算法是如何工作的会是非常有益的,即使不去揭示出每一个令人困扰的细节。”因为现在人们真的对它一点了解都没有。


https://v.qq.com/txp/iframe/player.html?vid=m1329s05yn1&width=500&height=375&auto=0

读芯君开扒


扎克伯格在他的博文中写道:“在未来,人工智能将能够理解语言的更多细微差别,并能够识别出除自杀以外的不同问题,包括快速发现更多种类的欺凌和仇恨。”但也有人指出,它可能还有其他更令人担忧的应用。Facebook使用人工智能来检测自杀的帖子(包括直播),但它如何确保这不会变成政府用来探查政治异见、辅助分析的工具?谁应该对这项工作的运作方式进行监督?


在今天,越来越多的AI研究工具正在瞄准“自杀”。以今年为例,AI研究人员陆续推出一系列能够预防自杀的技术,包括Facebook,AI Buddy项目,Bark.us以及由卡内基梅隆大学和匹兹堡大学共同合作的项目,都研发出了能够预防自杀的技术——研究人员通过观察人脑在 fMRI 中呈现的结果,分析了自杀个体对生命和死亡的看法、感觉与常人有何不同。然后,研究人员开始训练机器,让机器学习对应的算法来识别这些信号,比如提到“死亡”一词时会出现的额叶活动加剧。这种分类算法能筛选出那些有自杀想法的人,准确度超过 90%。


读芯君认为,AI帮助想自杀的人们挽救生命,但对于那些从来不对任何人倾诉自己有自杀念头的人群来说,未来人工智能的景象就很反乌托邦了:大众被算法机器控制,打算实施自杀的人群被分类。同时,还存在一个伦理问题:如果一个人想自杀,是否就必须阻止?




作者:读芯君

参考文献作者:Rebecca Ruiz

参考文献链接:http://mashable.com/2017/11/28/facebook-ai-suicide-prevention-tools/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Mashable+%28Mashable%29#cSKuQHANyOqF




来自美国、欧洲及国内长期从事AI研究和AI产品应用的专家学者、AI公司科学家、AI产品开发者,共同探讨AI落地的最后一公里。 


 胡平,读芯术特邀翻译志愿者专家。太格出国培训CEO。

100 30371 100 30371 0 0 7791 0 0:00:03 0:00:03 --:--:-- 7791 * Connection #0 to host 37.48.118.90 left intact dy>

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存