关闭个性化推荐后,我们真的“得救”了么?
2023新传全国考研群 979087703
后台回复“全程班”,享23全程班巨额优惠
2022年3月1日,由国家互联网信息办公室等四个部门联合发布的《互联网信息服务算法推荐管理规定》(简称《规定》)正式施行。
其中,《规定》的第十七条指出:“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项……”
随后,包括抖音、B站、淘宝、知乎等在内的多个APP先后上线了算法推荐的关闭功能,允许用户在后台自行关闭“个性化推荐”。
在绝大多数人眼中,个性化推荐的关闭在一定程度上可以减少诸如信息茧房、回声室等诸多(负面)效应,但实际情况究竟是怎样的呢?关闭个性化推荐这一举措究竟意味着什么?
关闭了个性化推荐的我们是否真的能够获得所谓的信息接触的多元化和高质量呢?更进一步的,在个性化推荐可以关闭之后,我们又应当如何看待算法?如何理解人与算法(数据)的关系呢?
VOL.1
算法推荐:一场信息传播的革命
推荐算法的源头可追溯至1992年,当时Group Lens通过对美国兴趣论坛网站Usenet讨论区里的消息进行排序,将用户指向他们可能会感兴趣但自己尚未发现的话题线索;
1995年3月,个性化推荐这一概念首次出现在美国人工智能协会上,由卡耐基梅隆大学的Robert Armstrong等提出了个性化导航系统Web Watcher。同时,斯坦福大学的Marko balabanovic等也推出了LIRA——一个个性化推荐系统。
21世纪初, 社交媒体开始广泛应用并不断革新算法,而中国的今日头条在2013年前后较早运用推荐算法进行信息分发。
实际上,算法推荐的出现始于这样一种现实背景:
首先,获得这个社会上海量的、全面的、不同类型的优质的信息对于绝大多数人来说几乎是不可能的事;
其次,尽管有条件可以将所有种类信息的铺开在受众面前,他们也会结合自己的需要、有选择地接触自己“感兴趣的”“想看的”信息。
在这样的基础上,算法推荐实现了对于海量信息价值的重新评估和有效适配。信息价值不再有统一的标准, 不再有重要性的绝对的高低之分。你觉得不感兴趣甚至是垃圾的信息, 对于我可能极有价值。
而且,我们必须承认,算法推荐确有其不可比拟的优越性:
首先,它改变了用户传统信息行为模式。信息行为理论认为个体的信息行为主要分为信息搜寻、信息浏览和信息偶遇三种类型。算法技术通过对用户阅读兴趣社交图谱的建构可以迅速实现对用户需求内容的个性化推荐。这个过程不仅是时间上的压缩, 更是感知的重组。机器在用户潜意识的信息需求下, 直接实现了信息需求与信息呈现之间的无缝对接。
其次,它提高了用户信息获取的效率。互联网带来的第四次传播革命,释放了个体的媒介接触、使用、传播的权利,使得我们得以进入信息过载的时代。在这种情况下,寻找恰当的、有用的信息对用户来说是及其费力的,而算法可以让内容智能化精准匹配用户。
更进一步的,基于大数据与人工智能的推荐算法系统的引入, 对传媒领域来讲,其实是一种传统的寡头权力逐步让位于技术逻辑主导的用户权力的过程。算法根据用户的需求与个性推送新闻,使用户自身在一定程度上成为自己的议程设置者,打破了媒体对传播主导权的垄断。
那么,我们可以没有个性化推荐嘛?
按照逻辑推论,如果没有个性化推荐,必须满足以下几个条件:
首先,每个人都拥有明确的信息获取意识,即“我清晰地知道我需要什么类型的信息”以及“我能够筛选出我想知道的高质量的信息”;
其次,我们可以接受花较长的时间在信息搜集、辨别、整理和获取上;
最后,我们可以主动的、有意识地去要求自己接受不同类别的、尽可能全面的信息。
实际上,如果细究下来,所需要的条件还有更多。
VOL.2
个性化推荐:一个必须澄清的误读
对于大部分讨厌个性化推荐的人来说,对个性化推荐首要(最广为人知)的批驳便是——信息茧房和回声室效应(以及一系列诸如此类的概念)。在这些人眼中,个性化推荐(或曰基于用户的协同过滤算法)使用户难以接触到除自我选择或机器推荐以外的信息,久而久之便会造成用户信息的窄化,将用户桎梏在“茧房”之中。
然而实际上,这种看法几乎是完全错误的。
喻国明指出,算法并不是“信息茧房”形成的必要条件,理由有三:
其一,“信息茧房”的本质是用户选择机制中的一种“偏食”行为(即选择性接触)。而这种行为在大众传播时代就已经出现了(只是受制于信息渠道的有限性而无法充分体现),网络媒介只是将用户“潜伏”的选择信息和兴趣的权力予以释放,开启了“人找信息”的便利;
其二,用户在媒介接触和使用的渠道偏好与选择窄化是“信息茧房”形成的前提。这种窄化同样不是算法环境的独享,如中世纪宗教精神垄断时期,当发生“霍乱”时,百姓在对疫情束手无策的情况下,只能听信教廷对女巫作乱的源头解释,而发生大量女性被焚烧事件。
其三,媒介体制的某些特征同样会导致“信息茧房”。由偏颇的议程设置所导致的“信息茧房”的偏颇现象,在任何一个媒介时代都存在,比如你永远无法在激进派的报纸上看到任何对保守派观点客观的评价与描述。
更进一步地,尽管不少研究表明用户的选择性接触对信息窄化和观念极化存在一定的作用,但这种效应往往非常有限,而且在个体之间存在较大的差别,许多人并没有受到影响;
不仅如此,尽管少数研究在一定程度上指出信息茧房/过滤气泡/回音室的存在,然而大多数的实证研究还是都表明,不管是使用“隐性推荐”的搜索引擎,还是使用“显性推荐”的信息推荐平台和社交平台,“被动接受”基于算法推荐信息的用户并没有明显出现信息窄化和视野变窄的现象。
实际上,“信息茧房”是海量信息差异化消费的必然结果,是“独异性”(可以理解为比个性化更个性的)社会的外在表现之一。
正如我们无法要求一个衣衫褴褛的街头流浪汉会关注基金的近期变动一样,我们自己在面临如今信息爆炸的现状,也几乎“丝毫没有兴趣和精力”去搜索和阅读那些与我们生活毫无干系的信息,更枉论除了个性化推荐之外,我们仍然在不知不觉间被进行“隐形的议程设置”,仍然活在别人为我们编织的“信息温室”里。
VOL.3
关闭个性化推荐:有必要or无关紧要
那,照这样说,关闭个性化推荐其实根本无用?不过是一场作秀?
非也。
实际上,个性化推荐的存在正为我们带来远远超过信息茧房的负面影响。
个性化推荐的技术逻辑就在于在为用户和信息产品间建立二元关系的基础上,利用用户以往的选择过程或与其他用户的相似性关系,挖掘出该用户的潜在兴趣对象,从而进行信息的推送。
单纯就信息分发的角度而言, 算法要想实现个性化的推荐,必须了解并匹配三方面的特征:一是用户特征, 包括兴趣、年龄、职业、手机型号、阅读历史等; 二是环境特征, 算法会根据时间、地理位置、网络情况、天气情况等环境特征, 因时因地地给用户做推荐; 三是通过算法去分析文章的内容和特征, 包括关键词、主题词、标签、热度、时效性等。
这意味着什么呢?
首先,这意味着对用户把握的数据化和标签化。在算法主导的逻辑下,一方面,人们被把握成数据,算法(及其背后的人)对我们的理解不再是活生生的、有思想力的人,而是一串庞大的数据。正如彭兰所说:“今天,从用户画像、身体、位置、行为到情绪与心理、关系、评价,人的多种维度,都有可能被数据化,甚至思维方式也在受到数据化的影响。”既如此,我们就不可避免的会被“他者”贴标签、归类等,(在他人眼里)失去了人的主体性。
其次,这意味着对用户隐私的无形侵犯。既然算法推荐的核心是用户数据,那么随之而来的问题是:它为何能够获得用户的信息浏览数据?它是如何获得的?是否经过了用户本人的同意?谁为它授权等一系列隐私问题。
再者,容易造成低俗化信息的泛滥。一方面,由于算法无法对信息中“非数据”的内容进行判断,也无法勘测人真实的心理诉求,因此,其对信息和用户的标签化匹配极容易造成信息的不契合性(想想标题党)。另一方面,在企业控制算法的现实背景下,很多公司往往迎合用户的兴趣最低点、用低俗猎奇甚至虚假的信息赚取注意力从而获得经济利益,这极容易造成低俗化内容的泛滥。
最后,是更隐蔽的偏见与歧视。托马斯·克伦普在其著作《数字人类学》中直截了当地指出, 人类建构的数字系统就是人的镜像系统。“数字系统以清晰的方式, 和它们根植于其中的文化紧密地融合在一起”。
作为同构现实的表征机制,算法新闻的设计是人主导的,不可避免地会受到价值干涉,以客观、公正的科学名义设计出的算法难免会有“变种”的歧视,而且这个歧视会变得更加隐蔽。
2015年,卡内基梅隆大学研究人员阿米特·达塔等人利用一种广告钓鱼软件模拟普通用户去浏览求职网站,结果显示,在关于“年薪20万美元以上职位”的推送中,男性用户组收到1852次推送, 女性用户组仅仅收到318次———女性得到“高薪”推荐的机会, 仅为男性的六分之一。
但是,在这里有必要为个性化推荐“鸣冤”。
必须遗憾地指出,即便关闭了个性化推荐,我们所担忧的问题依然会存在:
信息茧房和回声室效应并不会减少,因为我们总是并且一直会有选择地选择自己感兴趣的信息浏览;
低俗化信息依然会无所不在,因为当下报道低俗化、娱乐化甚至是生产黄色新闻的并不仅仅是掌握算法技术的机构;
隐私侵犯也会依然并且长期存在,而且更为讽刺的是,这种侵犯很多都是我们“默认的”。浙江大学的吴飞教授就曾撰文指出,95%以上的软件都会有一个条款写着它要把用户的个人信息共享给第三方或者合作伙伴,而这些“个人隐私协议”都是用户为了能够顺利使用此软件才被迫同意的“霸王协议”。
甚至连我们最无法容忍的算法歧视,也不会因为关闭了个性化推荐而偃旗息鼓,因为歧视本身就无处不在......
但是,我们必须承认,“选择后依然存在问题”并不是放弃选择的理由,相反地,它是一种进步,至少是意识层面的跨越。
我们最担忧的并不是算法所带来的诸多问题,而是我们没有对我们的个体数据、媒介化生存的方式甚至是媒介使用拥有自由选择的权力。
VOL.4
一个疑问:关闭个性化推荐后,会更好吗
喻国明等人指出,人类的信息分发模式迄今为止大体上经历了三个主要的发展类型:倚重人工编辑的媒体型分发、依托社交链传播的关系型分发以及 基于智能算法对于信息和人匹配的算法型分发。
实际上,正是由于“关系型分发”无法解决用户社交关系爆炸情况之下的内容生产源的爆炸所带来的“信息超载”以及基于社交关系的推荐质量不断降低的问题,算法型信息分发模式才应运而生并渐成潮流。
那么,关闭了个性化推荐,会更好吗?
从应然层面看,关闭个性化推荐后我们确实不再会一味地沉浸在自己的信息舒适圈,我们也有可能接触到不同种类的信息,甚至可以部分减轻我们的媒介成瘾性;
但不容忽视的事实是,算法的存在并不仅仅是个性化推荐,信息的爆炸增长目前也没有更好的解决方式,关闭个性化推荐后,诸如算法歧视、刻板印象、数据监视等问题仍然存在。就像前面所说的,我们真正需要解决的问题并非算法是否存在的问题,而是算法应当如何存在的问题。
从实然层面讲,如果有一天,打开大众点评发现主页推送的菜都不是找自己喜欢的口味,打开淘宝发现自己想找的物品搜了10分钟还是没有找到,当当上买书再也没有【相关系列】可以突然发现宝藏书籍……这样看,生活也挺索然无味的不是嘛?而且,其实关闭后也有一系列的“emmm”想说不是嘛?
马尔库塞认为“技术作为一种生产方式, 作为工具、装置和器械的总体性, 标示着机器时代, 它同时也是组织和维持 (或改变) 社会关系的一种方式, 它体现了主导性的思考和行为模式, 是控制和支配的工具”。
在我看来,关闭个性化推荐功能的上线至少是一个进步,至少我们可以对自己的信息获取有更多(如果可以这么说的话)的控制权和选择权,但其如何执行、关闭后要怎么办,仍然是亟待解决的问题。
VOL.5
写在最后:关于技术、当下和我们
正如复杂性科学奠基人布莱恩·阿瑟在《技术的本质》一书中指出的那样:“我们无法抛弃技术而去谈时代,因为技术总比其它任何事物都更能代表一个时代的特征。我们活在技术的潮流之中, 时代的更迭与技术的发展息息相关。”
1995年,美国学者尼葛洛庞帝在《数字化生存》(Being Digital)一书中提到:“计算不再只和计算机有关,它决定我们的生存”。
我们无法摆脱算法,我们必须学会与其共存,当算法的深渊在凝视我们的同时,我们最有力的反击只可以是:勇敢地凝视它。
作者:小可
编审:大仁
所以,你会关闭APP的个性化推荐吗?欢迎投票并在评论区跟我们交流哦!
有事没事可找爱传播金牌小助手
奶狗E哥
认真考考
中二早早
懂你知知
耿直卷卷
暖心S妹
4月热点 |又有学硕取消统招、行为艺术、刘畊宏、极端女权、海清...
女权、女拳、平权,一场“污名化”的混战...
宁要低分调剂也不要高分的你?这些院校重点保护一志愿!!
1个月熟背两本书?快收藏!这些绝密高效背书技巧!
赠50+院校版全程复习计划!抢高(shi)分(jian)大赛正式开始!
投诉通道:aicb_k(请加点点微信)