查看原文
其他

干货放送:从技法到伦理,尼曼长文报告解析个性化Push

2017-10-26 腾讯传媒 全媒派

算法分发自出现在编辑室中,便引发了许多讨论,当我们怀疑人类编辑的主观倾向时,其实对机器算法也抱着极大的质疑态度。人类究竟需要怎样的编辑方式,去更好地适应这个信息世界呢?


本期全媒派(ID:quanmeipai)授权编译哈佛尼曼新闻实验室(Nieman Lab)关于个性化push的研究报告,以期带来一些新视角,更深入地讨论这个问题。



从“911”中诞生的个性化push


2001年9月11日,当一系列恐怖袭击发生时,互联网用户转向搜索引擎寻找信息。他们一遍又一遍地输入类似于“纽约双子塔”的关键词,可是他们并未能够在那天早晨搜索到任何有关恐怖袭击的信息。


#视频:搜索的演化

https://v.qq.com/txp/iframe/player.html?vid=n05657nkeit&width=500&height=375&auto=0
谷歌为此迅速建起了一个特别网页:“美国有关恐袭的新闻资讯”(News and information about attacks in U.S.,),该网页链接着四十多家报纸和新闻网络的网站,还链接着救灾资金、资源和航空公司与医院的电话号码。这个临时新闻网页的链接在谷歌的搜索栏下面停留了几个星期。这之后一年内,谷歌在其搜索算法中加入了一个新闻过滤器,以便让突发的头条新闻出现在相关关键词的搜索结果列表上。



作为对一个全球性灾难新闻的回应,一个个性化新闻产品的新时代开始了。



算法会使人狭隘吗?


直到今天,谷歌的搜索都使用着同样的算法过滤系统:个人搜索历史、地理位置和其他的人口学信息等等,都会影响谷歌为你提供什么样的信息。然而,你的搜索结果是如何与他人不同的,这是一个谜。即使是那些开发了算法的计算机科学家也不能精确地逆向复盘,因为相同的结果可以通过无数种路径来实现,而且决定哪一个结果先出现的排名因素总是在变化着,算法也是如此。



个性化push创造回音室


虽然新闻个性化可以帮助人们管理信息过载,但它也有可能引发过滤泡沫,进而产生偏见。



“这创造了一个回音室,”Judith Donath,《社交机器:在线生活的设计》(The Social Machine:The Designs for Living Online)的作者,哈佛大学伯克曼互联网与社会中心(Berkman Klein Center for Internet & Society)的研究员如是说,“你获取的新闻是为了让你感到愉悦而设计的。它迎合人们的口味,符合人们对于新闻娱乐性的期待,不断强化你的观点,而不是为了帮助你更好地预测未来,让你了解世界上正在发生的事情。”



“重要的是人们如何利用这个新闻进行讨论,”Donath说道,“你可能与你的朋友、同事都读到了同样的新闻,你产生了不同的看法,才能和他们讨论。而如果你没有看到同样的新闻,你会远离资讯中心,能与你讨论的群体也会变小。”


算法会促进垃圾信息的产生


信息过滤算法,无论对于科技巨头还是新闻机构来说,都是其个性化服务的基础。但是,记者和技术专家是以截然不同的方式,来看待信息过滤环境的。新闻机构希望能够吸引受众的真实信息,而像谷歌和Facebook这样的技术公司则共享的是具有吸引力的、“可能真实”的信息。新兴技术只会加剧现有的问题,算法会促进垃圾信息的产生。



人们对算法知之甚少?


有人担心个性化会窄化信息接受范围,从而产生过滤泡沫,这种担心是合理的——普通用户可能都不知道这个事实。



马里兰州陶森大学(Towson University)的教授Elia Powers研究了学生对新闻个性化的意识,因为他注意到自己课堂上的人似乎没有意识到Facebook和Google对呈现信息的影响:“我的感觉是,他们并不真正了解……那些策划算法的人所扮演的角色,他们的影响力到底有多大。他们也不明白,自己可以在Facebook上扮演相当积极的角色,告诉Facebook,他们希望收到什么类型的新闻,以及Google如何优先呈现(内容)。”



Elia Powers的研究结果发表在今年2月的《数字新闻学》(Digital Journalism)上。研究结果显示,大多数学生不知道算法正在过滤他们在Facebook和Google上看到的新闻内容,只有24%的受访者知道Facebook会对某些帖子进行优先排序,并隐藏其他帖子。同样,只有四分之一的受访者知道,对于同时输入相同搜索词的两个人,谷歌搜索结果会有所不同。



Powers说:“作为新闻消费者,人们需要在他们打开新闻网站之前,明白他们做出的(消费)决定背后是有算法和人在控制的,并且能够知道他们该如何弱化这种影响,或者调整他们的信息源或新闻网站,甚至不再使用个性化功能,这样他们就可以在自己要消费的内容上发挥更积极的作用。”


如何驯服算法怪兽?


实操案例:NPR One


“实际上,算法只是一种现代编辑工具,”NPR One的总编辑Tamar Charney这么说。


算法在负责任的新闻业中占有一席之地。NPR One是NPR旗下可定制的移动音频应用之一。 NPR One使用了某种算法,在内容流中填充可能会引起用户兴趣的内容。但Charney也保证,在这个过程中都会有人工参与:“NPR One的整个编辑概念是,充分利用人类的能力,采用最好的算法,然后将它们结合在一起。”



有一篇名为“Inside NPR”的文章专门研究NPR 个性化编辑伦理,由Charney、首席数字官Thomas Hjelm和新闻与编辑总监、高级副总裁Michael Oreskes共同撰写。在它背后,被称作是“秘密调料”的正是“一个负责的编辑化算法”。 



例如,NPR One知道你何时按下停止收听的按钮,这就能洞察到用户的兴趣所在。当故事被更正编辑过,NPR One也可以将修改的音频置顶到已收听听众的队列顶部。NPR用算法来分析哪些用户听过原来的片段,再通过电子邮件向这些用户发送更正通知。



NPR One将同样的原则应用于故事收听中。如果一个听众错过了故事的某个部分,它会将错过的部分推送给听众,而以前听众在收音机上收听,显然无法做到这一点。“很少有人意识到这也是个性化算法的作用,”Charney说,“我们可以对抗过滤泡沫,我们也可以用这种方式反击虚假的叙述。”


所有的用户都可以看到本地和国家的重要新闻,在这个部分没有个性化的选择。它总是提供当天的头条新闻,以及编辑选择的其他重要信息。因此,虽然NPR One让听众能够选择自己更感兴趣的“非必要”信息,例如音乐评论、体育故事或与艺术家的访谈等,并决定他们自己在某些主题上听到的深度、调高或调低更新频率,但人类编辑最终还是会决定你需要听什么。



“你可能对叙利亚不感兴趣。但如果在这发生了什么你需要知道的大事,我们就会告诉你,但我们会让你免受增量新闻的影响。”Charney说,“个性化的力量也许在于,一方面它会为你提供你想知道的新闻,另一方面又不会让你错过那些必须知道的新闻。”


同样地,Google News读者可以浏览固定的头条,页面的定制工具栏则还可以满足他们的核心兴趣和定位,当然还有搜索。Google News的最新重新设计使其看起来比以往任何时候都更有新闻性,并增加了许多Google在2010年以后首次推出的个性化功能。另外,你还可以预先将自己的兴趣预编到算法中。


Google News的产品经理Anand Paka认为,这个设计体现了谷歌的原创精神:“正是由于信息的泛滥,用户确实希望有一个控制信息超载的方法。换句话说,我为什么要读那些我不关心的新闻呢?”


智能语音:个性化push再升级


2016年10月,谷歌集团产品经理Rishi Chandra在旧金山的一个产品发布会上谈到了Google Home,像Google Home和Amazon Echo一类的智能语音设备,将在新闻个性化中扮演重要角色。



《纽约时报》前创新与战略编辑Kinsey Wilson说,“我觉得这些设备(智能语音)是2007年iPhone问世以来出现的最重要的东西,因为它们打开了物理空间(主要是在家里和车里),它将允许更高程度的互动。”



在某些方面,声音似乎是搜索的自然延伸。像Google Home和Amazon Echo这样的设备,可以让人们在不必键入的情况下浏览搜索引擎。更重要的是,这些新设备的是对话式的。“并不是单纯地问他们一大堆问题,而是对一些话题进行深入探讨,” 卡内基梅隆大学的计算机科学教授Alex Rudnicky说。“我们是基于这样的想法,如果你可以打电话给一位知识渊博的朋友并与之交谈,那不是很好吗?”


这样的个性化因素在于,人通过与机器人的对话,从而加强情感连接,而非只是报纸上大段大段的文字,或一个一直在电视中自顾自说话的人头。像Echo这样的设备,在每一个新的交互过程中都积极地了解人类用户,并相应地调整行为。这也是Google和Facebook所使用的个性化技术:获取大量的个人数据,然后为用户定制服务。



不过,个性化的智能语音面临着一些潜在障碍:如果听起来太像机器是一个问题;听起来太像人又是一个问题。“从心理上讲,人们很容易将这种装置拟人化,使之成为一个真实的实体,并培养人们对它的真实情感。”来自BBC世界广播部数字发展的成员Trushar Barot说。“它是一个放在家里的设备,会越来越了解人们的生活,并可能变得更聪明,甚至主动提出建议或想法,这就带来了具有挑战性的伦理问题。”


NYT读者:别试图成为Facebook


《纽约时报》用定制新闻的做法带来了启示:有些读者确实希望获取所有适合出版的新闻,而不是所谓的个性化推荐。



Then-public的编辑Liz Spayd在三月份的一个专栏谈到,她了解了一些读者的态度,他们对于报纸的某些个性化推荐表示不满。“我只为一个理由付费:编辑和作者的判断和经验成就了这篇文章……不要试图成为Facebook……做《纽约时报》,把它做好。 ”一位读者评论道。



“不要试图成为Facebook”是评论者的普遍观点。正如扎克伯格在2013年所说的那样,他的社交网络与新闻密不可分,该公司试图成为“世界上最个性化的报纸”。


然而,Facebook“热门话题”栏目在2016年曾深陷过“假新闻”的漩涡。首先,它因埋没相对保守的新闻报道而受到指责;随后,Facebook解雇了负责撰写该栏目文章描述的所有编辑人员,并产生了一些灾难性的结果,例如,一条声称“Megyn Kelly是希拉里·克林顿的支持者而被Fox解雇”的假消息,出现在热门列表中。这条假消息出现在USPostman.com博客上,这是一个注册在马其顿的网站,以其强大的虚假信息网络而闻名。今年1月,Facebook放弃了“热门话题”,开始根据用户的地理区域来进行分发。


 审慎为之:一切关乎用户


各大组织使用语音接口,引发了大量与数据收集、隐私和安全有关的伦理问题。普通人并不太清楚这些有关数据收集的隐私政策,但这些数据不仅对那些生成、捕获和分析数据的人具有巨大的价值,而且对科技巨头都有着巨大的价值。



那么,新闻编辑部如何处理受众数据呢?伯克曼克莱因中心的Judith Donath说:“新闻编辑部可能会以一种有用的方式使用个性化(数据)。”这在很大程度上取决于,“你认为新闻编辑室是做什么的?是扮演告诉人们应该知道什么重要的信息的角色?还是扮演一种娱乐角色?”如果是后者,那么对于组织来说,这些受众数据是非常有价值的,可以确保每天都在创造和分发人们想要的内容类型。



据《信息》杂志7月份的一篇报道称,亚马逊正在考虑向开发者提供人们与Echo交流对话的原始文本。新闻编辑部必须努力解决一个问题:使用这些文本中的数据作为营利方式是否合乎道德,因为它肯定会激怒一些有隐私意识的消费者。对于媒体来说,这可能是一个重要的收入来源,但也可能让观众流失,减少信任。


这些担忧当然不是语音技术独有的。2017年9月盖洛普(Gallup)所做的“美国人对大众媒体的信任度”的调查显示,我们有理由担心,个性化只会加剧围绕新闻机构的现有信任问题。



Powers说,新闻机构应该让用户看到一些自己原本看不到的内容,并告知他们如何关闭个性化功能。换言之,不管是收集数据、打开/关闭个性化功能,还是他们看到的内容,都需要有更多的透明度。



或许最重要的是,新闻机构必须记住,他们不能只将个性化留给算法,这样做可能只会减少人们的新闻消费,并可能导致误错误的消息传播。Powers说:“你仍然需要一个真实的人类编辑,以确保热门内容不是假的或是有害的。”



总而言之,个性化应该是人类编辑的助力,更资深的新闻人应该专注于更深度的报道,它们都是这个开放社会不可或缺的组成部分。我们得承认算法的力量,并且将这把利刃用到实处。


全媒派 / Nieman Lab 


Nieman Lab原文链接:

http://niemanreports.org/articles/the-power-of-personalization/



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存