论文带读 | 藏在余红老师新作中的答题要点
23华科新1016093
后台回复“答题课”,提前预定名额
后台回复“实务突击”,抢先实务起飞
后台回复“实务批改”,实现实务弯道超车
后台回复“论述批改”,锻炼答题意识与技巧
新闻传播伦理与法规是华科新传考纲上的一个重要组成部分,也是华科新传考研的一个高频考点,几乎每年的真题中都能见到对这一内容的考察。
今年九月,余红老师新发表在《中州学刊》上的《算法嵌入传播:平台媒体的权力转移与风险规避》也对算法这一技术伦理问题进行了相关讨论,同时也就算法对新闻生产与传播的流程重塑问题进行了讨论(新技术对新闻生产流程重塑这一话题在之前华科的真题中也有考过)。
这篇文章里的很多表达都可以用在答题上的,23华科新传考研er们拿出小本本做好笔记呦
01
# 算法嵌入传播
算法嵌入内容生产
随着计算新闻的兴起,算法越来越进入媒体内容的生产流程中。“算法转向”是影响媒体行业最为明显和潜在的重大转变。
一是媒体生产组织越来越依赖算法驱动的系统来预测需求,通过自动化生成内容满足信息的时效性需求,大量的机器程序写作开始投入内容生产。
二是内容生产者将算法纳入生产策略,包括在不同阶段对于信息的采集、取舍、编码与呈现。算法开始承担内容生产环节中“信息采集者”与“信息处理者”的重要角色。
三是算法嵌入内容的重要机制还包括对内容的自动审查与删除,对不符合平台规则的内容进行强制执行。
算法嵌入渠道分发
算法已成为“控制我们所依赖的信息流的关键逻辑”,通过在渠道中把关、过滤、排序、放大、分发等方式阻碍或促进信息流的传播。
一是算法把关。算法把关是“世界上数十亿条可用信息被截短并转化为在某一天到达某一特定人群的数百条信息的过程”。
二是算法过滤。算法过滤是程序员对信息的选择、分类与可见性进行优先级排序。当内容的发布与可见性由算法排名决定时,由开发者实施的编码操作有能力塑造用户对文化、新闻与政治的共同认知。
三是算法推荐。在预先设定的推荐程序基础之上,对不同使用者的信息行为进行数据分析与机器学习,在传播的过程中实现千人千面的个性化推荐与分众传播。
算法嵌入关系建构
平台通过连接多种服务与功能,成功地在信息生产者与消费者以及不同组织之间建立了中介关系,并接管了以前由其他组织所掌控的部分权限。在这个过程中,算法以深度中介化的方式嵌入人们的日常交往行为,通过发挥中介效应塑造着多方行动者之间的关系,编织着新型的内容关系网络、人际关系网络与物联关系网络。
算法嵌入价值塑造
在数字化和数据化普遍存在于人们的信息获取与日常交往实践中的今天,算法正成为媒介化的重要手段。它在嵌入传播过程中对价值的塑造主要体现在两个维度:一方面,平台媒体通过算法实现权力主体对其他行动者的价值影响。另一方面,算法嵌入也在进行着价值创造。平台媒体通过算法对用户的使用痕迹进行数据训练,使之能够做出更细致的判断,更好地获取注意力,并将这种注意力转换为商业价值。
02
# 传播权力转移的风险及其治理
作为权力工具的算法风险及其治理
算法的“黑箱”与不可见,在一定程度上使得其权力行使过程具有隐蔽性。算法推荐服务的提供者可利用其作为权力的工具悄然达到特定目的,其中暗含的传播风险值得警惕。
潜在风险
第一,公权与私权的模糊边界。当算法驱动的平台媒体在新闻和信息的生产、传播与消费中扮演着越来越重要的角色,获取越来越多的传播权力却不具备传统主流媒体应有的社会责任和公共关怀时,很容易产生危险。例如,用户在平台媒体的信息行为被算法监视与聚合并以此定制未来的推荐行为,就涉及信息隐私权和数字身份及其保护的问题。要警惕算法成为纯粹私权的工具,在公共传播系统中从事非公共性、排他性的商业资本活动。
第二,算法价值观嵌入带来的算法偏见。平台媒体不是传统意义上的媒体,迄今为止,它仍属于电子商务法的有限责任方。算法作为平台运行的技术支撑,当其嵌入平台媒体的传播体系时,遵循的不是“传统媒体逻辑”,而是“算法逻辑”和“平台逻辑”。嵌入在搜索算法中的排序逻辑再现着设计师及其使用者的刻板信念,这种偏见与压迫往往是潜藏的,普通用户可能难以意识与抵抗这种权力。
第三,权力的集中催生“平台中心主义”。平台为公众讨论公共事务与议题提供了场域,但算法权力集中可能带来信息混乱风险,如错误信息、虚假信息、后真相、深度伪造等以实现某种经济或意识形态利益而故意策划与制作的信息。标榜“去中心化”的网络平台可能隐含着“强中心化”的垄断风险,影响传播的公平和多样性,促成非理性的公共舆论和诱导非理性的信息行为。
治理路径
针对算法作为权力工具的风险,斯科特提出用行动者网络框架(ANT)进行算法治理。将与算法产生关系的多元行动者进行集合,共同参与治理。多元行动者包括控制数据收集、代码设计和算法决策的人,也包括政策制定者、媒体专业人员、法律专家以及平台的用户。
第一,建立平台责任义务体系。平台算法的治理框架需要与平台自身的发展相适应,使它们所行使的权力和应该承担的责任更加协调一致。在治理中,需要纳入公共利益的价值观,规范建立行业准则,将公共利益注入算法的构造与操作中。鼓励平台“科技向善”,加强平台的社会责任和公共义务。
第二,制定国家监管政策。平台所认为的“非法算法操作”和“合法策略”之间的界限往往是模糊的,物质利益驱动着平台的利己行为,且随着平台的业务战略而不断变化,这就需要第三方规则对其行为进行管制。将平台媒体纳入国家的媒体监管体系中,,构建平台管理的规范性与问责监督制度很有必要。
第三,专业媒体应减少对平台的过度依赖。媒体组织要拿回传播权,就要努力减少过度依赖平台发挥新闻媒体的作用,并再次发展自身平台和算法技术,将用户数据掌握在自己手中,避免商业科技平台对媒体权力的垄断。
作为权力主体的算法风险及其治理
与传统的信息控制工具所不同的是,算法具有机器学习的能力,能根据之前发生的事情对未来行为进行预测,并自主决定接下来的行为,它不完全由使用者控制,存在“异化”的风险。
潜在风险
基于平台算法可能的反复无常、神秘甚至带有偏见的方式建构传播内容的生产、流通和消费。达菲等人提出了“算法不确定性”,用以捕捉平台算法系统的缺陷及其算法自身的不可控风险。
第一,技术局限带来的技术偏见。算法似乎是公正中立的,是解决新闻偏见问题的合理工具。然而需要警惕的是,相较于人工编辑带来的偏见,算法偏见可能更加的不易察觉。“技术偏见”来自于技术本身的局限性,包括算法所使用数据库的技术局限性、存储与数据处理能力以及代码中任何可能错误的影响。
第二,技术无意识的隐藏缺陷。算法也同人类编辑一样受到价值观的影响,这可能是有意识的,也可能是无意识的。对于有意识的偏见往往能直接地识别,然而对于算法构成支撑社会生活结构的“技术无意识”部分,由于它们的逻辑通常是“黑箱”,“人”对其往往难以追踪或质疑。
第三,自动化学习的异化风险。人们既要关注算法为谁所用的风险,也要关注算法自身的风险。算法与其他技术最大的区别,在于它具有机器自动化学习的能力,并不完全受使用者控制。由于算法更多的是依赖相关性,而不是对内容的深刻理解,即便算法设计者在设计之初的意图是“善”,但在对用户及周围信息行为学习的过程中也可能发展出意料之外的“恶”。
治理路径
对于权力主体的算法风险可以采用“竞争制衡的替代”和“控制反馈的优化”两种治理路径。
第一,以“技术”治理“技术”的竞争制衡应对技术“缺陷”风险。不断开发完善传播系统中的算法技术,对其存在的技术缺陷进行媒介补偿。在这个过程中应强调“技术性正当程序”,从提高算法自动化决策的透明性以及算法的可解释性,实现对算法程序的不断优化。鼓励引导多方行动者开发算法系统,在正确的价值导向下,在竞争博弈中共同设计出更好的系统,从而规避现有技术缺陷中的风险。
第二,以“解码”优化“编码”的反馈控制应对技术“原生”风险。算法系统是由传播过程中的控制与反馈所共同构成。算法不仅包含了一种预设的嵌入性规则,还在实施规则过程中不断自动化学习与优化。,当算法“代码”制造传播内容的“编码”时,仍需要公众自行进行内容“解码”与意义消化。从这个意义上说,对算法风险的规制,一方面是对算法与算法“编码者”的治理,另一方面也可从提升信息接收者即“解码者”的媒介素养展开。算法的机器学习功能,使其不断地在设定者与使用者之间进行持续反馈循环,因此可以从用户治理的视角,通过提高用户信息素养来规训算法,以算法“解码”优化算法“编码”,进而对潜藏在技术之中且不易察觉的算法风险进行治理。