跟随信息科技的创新发展和互联网技术的不断精进,新闻资讯的传播与消费模式也经历了前所未有的根本性变革,以算法驱动的个性化推荐系统正取代传统的精英编辑模式,为每个用户推送合乎口味与兴趣的定制化资讯。这种基于个性化算法的“信息投喂”,极大地改变了用户的阅读体验,避免了用户面对海量信息时的“无所适从”乃至“注意力崩溃”,已成为社交媒体生存、发展、壮大不可或缺的技术工具。 个性化推荐算法的成功之道,在于实现了传统媒体无法企及的对受众偏好的深度挖掘与精准把握,完成了“发现受众”的范式转换。这一转换在为用户精准匹配信息的同时,也“窄化”了用户的信息环境。为偏见者推送偏见,为傲慢者匹配傲慢,以致偏见者愈加偏见,傲慢者愈加傲慢,终致极端化、暴戾化,由此引发公众和监管层对算法“过滤泡”现象的普遍忧虑。 “过滤泡”一词最早由互联网活动家帕里泽提出,用于指称个性化推荐系统根据用户偏好过滤掉异质信息后为用户量身打造的“个人信息生态系统”。帕里泽指出,这一系统为每个用户筑起了一道厚厚的信息与观念的“隔离墙”,让用户对新知识、新观点、新思想等重要信息视而不见,最终削弱乃至挤占“有意义的威胁”的生存空间,而这种“有意义的威胁”,恰恰是激发我们的焦虑乃至好奇心,进而鼓励我们发现不同观点的不可或缺的存在。帕里泽认为,算法“过滤泡”的存在,终将引发互联网空间中的仇恨滋长、偏见丛生、群体极化以及民主式微等不利社会后果。 “过滤泡”一词引发的争论至今未曾停歇。而现有的理论研究与经验数据,为帕里泽的主张提供了不一样的注脚:“过滤泡”的确存在,并改变着信息内容的分发与消费方式,但“过滤泡”并不必然引发帕里泽所提到的不利社会后果。而网络活动的现实状况则表明,要达成“不必然”的结果也并非易事。此种情形下,监管层该何去何从?解决之道在于先要厘清社会公众忧惧算法“过滤泡”的症结所在,以便对症下药,实现标本兼治。 事实上,公众对算法“过滤泡”的忧惧,是与算法驱动的个性化推荐系统迥异于传统媒体的“把关机制”及其监管难度增大相关联的。传媒业中的“把关”贯穿信息收集、整理、选择、加工与传播等发布全流程,保障着媒体多样性、公共讨论以及思想多元等公共价值目标的最终实现。而算法驱动的平台媒体的“把关机制”更多依赖于平台与用户的互动、平台对用户的了解与控制以及用户获取信息的丰富程度,具有主体泛化、时点后移、标准多元以及过程自动化等全新特征。脱胎于大众传媒的传统媒体监管范式,此时就难免会面临“圆凿方枘”的窘迫与困境。 要从根本上消除社会公众对算法“过滤泡”的忧惧、重建社会公众对平台媒体的信任,监管层应将算法监管嵌入到平台媒体监管体系之中,调整监管理念、监管思路和监管方式,重构平台媒体监管范式。 应坚持包容审慎的监管理念,处理好权利保护与创新激励之间的动态平衡。既要建立权利人与传播平台之间合理的权利授权机制,又要明确用户和平台的义务边界,以实现双方权利义务的动态平衡,尤其应注意避免为传播平台设置一般性的前置过滤义务而妨碍信息充分流动、遏制技术创新。 在监管思路上,应从传统的事后监管转变为从数据收集、存储、清洗、使用,到算法的设计、测试、评估与应用的全周期全流程监管,而人本理念指引下的风险防控则应成为全流程监管的重点。 尤为重要的是,还应完成从平台内容审查到算法技术审查的监管方式转变,尤其应重点审查传播平台是否从技术上保障了用户知情权和选择权的实现,以防范用户信息获取的片面性,保障信息的有效交流与传播。 算法“过滤泡”的形成,“既有算法推荐技术的推波助澜,也有人性和情感结构的内在需求,还与社会结构和权力息息相关”。面对社会公众日益高涨的算法“过滤泡”监管呼声,监管层虽不必将算法“过滤泡”一戳了之,但却应正确理解算法“过滤泡”背后的作用机理,引导平台媒体技术向善,承担更多的社会责任;明白让算法技术更好服务于信息充分流动的社会需要,才是回应公众担忧的关键所在,以免因为把脉不准而贻误救治某些社会顽疾的时机。
(原文刊载于《上海法治报》2022年7月8日7版“学者评论”,责任编辑:徐慧;见习编辑:朱非)
《李红勃:入户消杀既要谨守法理也应释放善意 | 学者评论》
《杨建顺:“硬核”防疫措施的得与失 | 学者评论》
《李青武:疫情背景下价格管制该如何施策 |学者评论》
《刘德良:健康码非常态非常用底线不可突破 | 学者评论》
编辑 | 王菁
如果您喜欢本文,请分享到朋友圈;想要获得更多精彩信息,请关注我,长按最下方的二维码!
你点的每个赞和在看,我都认真当成了喜欢
点分享点点赞点在看