从“算法神话”到“算法调节”:新闻透明性原则在算法分发平台的实践限度研究
毛湛文,中央民族大学新闻与传播学院副教授。
孙曌闻,中国人民大学新闻学院博士生。
本文系国家社科基金青年项目“未来媒体视野下的新闻生产变革机制研究”(编号:17CXW002)的阶段性成果。
互联网技术在新闻生产领域的应用和发展催生了新的变化:以算法为核心的“个性化推荐新闻”实践层出不穷(陈昌凤,宋云天,2019);社交媒体被期待为提高新闻透明度的使能者(Phillips,2010) ;人工智能技术为内容生产提供了底层支持(彭兰,2018)……随着互联网对新闻分享和消费方式的改变,新闻透明性原则该如何做出适应和更新,成为不容忽视的问题。
在中国,以算法为核心的新闻分发平台建立起信息洪流的储存库,并牢牢掌控住了新闻内容分发的闸机口。今日头条、一点资讯等建立的算法内容分发平台,使信息传播渠道主要由技术公司掌握,平台化的算法分发成为主流模式。基于此,本文以这一领域为切入口,考察新闻透明性原则在新的人-技关系中能否得到更充分的实践。
一
文献探讨:
从“算法神话”转向“算法调节”
算法是一套由计算机运行的明确的指令和步骤,人们可以按此得出目标结果从而解决特定问题(Diakopoulos,2015),其参与生产的新闻就是“算法新闻”(algorithmic journalism),它在分发领域的应用集中于新闻内容的整合、过滤和筛选。
有学者梳理发现“算法新闻运行机制和原理的研究”“算法新闻引发的新闻实践和新闻理念的讨论与思考”和“关于受众对算法新闻的感知与评价的研究”是国外算法新闻研究的三个主要层面(蒋忠波,师雪梅,2019)。但这些已有研究大部分在认识论上偏向于将人与技术的关系进行二元的分割,这使得技术的悲歌和赞歌此消彼长而未有结论。在人与技术二元对立的本体论框架中,一种“算法神话”的话语被制造出来。这一取向在于通过对算法进行“全盘了解”和“加以控制”,以使其达到与记者职业理念等量齐观的道德标准。有关算法的神话叙事往往将新闻分发流程的不透明性归结于算法的不透明,致力于解释“算法透明性”(McBride & Rosenstiel,2013)。算法技术本身因为理解门槛过高而被称作“黑箱”(Pasquale,2015;仇筠茜,陈昌凤,2018a),涉及大体量数据的爬取、文本的识别和复杂的分类模型,增添了人和算法之间不平等关系的想象。
“算法神话”还隐喻了人与算法的二元对立关系:人被视为主体,算法则被视为需要被驯化的客体。算法被认为是“软件形式的静态本质”(Mackenzie,2006),意味着它能够做出不带有情感的中立选择。这种研究视角下,作为客体的算法常被看作是实现目的的工具,比如算法一定程度上解决了“信息传播效率”问题(方师师,2018),削弱了大众媒体设置议程的权力,是一种新闻业的“技术赋权”。但是,随着算法新闻的创设主体、运用主体、收受主体(杨保军,李泓江,2019)等问题被提出,在“后人类转向”(布拉伊多蒂,2013/2016:73)的语境下,重新思考客观性、主观性、人、技术、算法等在新闻业中的地位及其关系问题(Carlson,2018)有了不同的意义。这启发本研究思考:是否存在一种超越“算法神话”的话语,可以从另一个方面解释算法在新闻生产领域带来的变化呢?
荷兰技术哲学家彼得-保罗·维贝克(Peter-Paul Verbeek)继承并批判了布鲁诺·拉图尔(Bruno Latour)的行动者网络理论(Actor-Network Theory)和唐·伊德(Don Ihde)的后现象学,提出了“技术调节”(technology mediation)的理论。该理论在认识论基础上肯定了后二者所阐释的人与技术的关系:技术被概念化为人类与世界之间关系的中介者(mediator)(Verbeek,2005:125)。不同于抵抗的和过于乐观的视角,技术调节在认识论上将人和技术的关系置于一种动态的统一之中,即人与技术是在紧密的互动之间相互形塑的(Verbeek,2013)。技术不仅是帮助人类认识和连接世界的工具性存在,还是人的天性(nature)的一部分(Verbeek,2015),人类可以通过设计(design)来预测和干预技术的调节。
技术调节的视角将人与作为技术物的算法放在同等重要的主体位置来考虑。已有研究者提出,由于人参与了算法的设计、使用和修改过程,算法里也会带有人的偏见和歧视(Bozdag,2013;Gillespie,2013)。算法推荐新闻依赖于算法设计者的新闻价值观(陈昌凤,霍婕,2018;Presuel & Sierra,2019),因而会带有一套涉及新闻分发场景、内容、用户偏好和平台优先级的“算法价值观念”(王茜,2017)。算法的这种“伪中立性”特征(李林容,2018)已经将新闻生产背后的权力关系置于更深层的“后台”。
刘海龙(2017)谈及新媒体的“出世神话”时提出:“现代科技神话一方面是科技的象征性表述,折射了民众对于新科技的潜意识,赋予科技正当性;另一方面也是一种话语行动,形塑了科技的社会功能和社会意义,是技术叙事的元话语。”我们应该意识到,算法神话的流行也反映着各个行动主体的潜意识和元叙事。与其说算法分发平台中的人和算法是预先给定的,不如说这二者是在反复的授权与规定的“脚本(script)”(Latour,1994:56)实践中的一种中介和调节关系的结果。故此,本研究更倾向于在“技术调节”的框架内发展“算法调节”的可能场景,进而捕捉新闻透明性的实践限度和实现路径。
二
研究方法
有学者指出民族志的方法可以“对新闻生产进行具有理论意义的描述和分析”(白红义,2017),而“访问设计人员和进行编码团队民族志”也被列为研究算法的主要方法之一(Kitchin,2014)。据此,本研究选择进入某新闻资讯平台的田野进行参与式观察。该公司在新闻算法分发领域处于第二梯队,保持较强发展势头。本文第二作者以实习生身份于2017年9月18日-2018年1月18日进入田野,每周从事新闻编辑工作4天,参与了每周的组内会、编辑-算法沟通会等会议,对工作场景进行了较为细致的记录和观察。这些都有利于研究者以“局内人”的身份取得研究材料。
在此基础上,本研究还对该平台的两位编辑(用E开头编号)、两位算法工程师(用C开头编号),以及另外一家位于行业头部的平台公司的4位编辑(用R开头编号)进行了平均60分钟以上的深度访谈。所有访谈均在表明研究意图并征得访谈对象同意后进行。
三
研究发现:
新闻透明性在算法分发中面临的限制
(一)透明性的先天障碍:来自组织结构和物理空间的限制
从组织结构来看,该资讯平台公司主要由产品和运营部门、技术部门、编辑部门及行政部门组成,前三者对算法分发都有影响。产品和运营部门负责“大方向”决策,通过采集编辑和工程师的建议、采纳政府政策、收集用户数据,提出算法标准、新闻平台展示策略和优化建议,进而决定了分发的价值取向。技术部门负责算法本身的设计和运行,地位高于编辑部门。“我们标榜是科技公司,所以技术是核心,其次才是内容”(受访者R1),而算法又是“公司技术上的核心部分”(受访者E1)。编辑部门则是以人工的方式辅助、配合内容的推送与审核。
从地理空间上来看,不同公司部门位置安排也有不同。研究者所在的田野中,整个编辑部门与技术部门的一部分位于同一层。与传统新闻编辑室不同的是,编辑和工程师的办公区域完全开放、没有隔断。一进门就能看到二十几排的大长桌,每排桌子的两侧各有5个左右工位。内容编辑分布在南侧,工程师们在北侧,整个工作空间非常开放,编辑们有技术上的问题能够径直走到对应的工程师桌子旁询问。而另外一家平台的空间布局就有所差异:“整个技术部门在公司总部,我们接触不到”(受访者R1),“我也没有其他途径去了解算法那边,我们整个一栋楼都是负责审核的编辑”(受访者R2)。
在不甚便利的物理交流条件下,编辑和工程师之间几乎很少能直接就算法本身和把关标准进行交流。熟悉新闻价值理念的编辑对算法的具体运行逻辑缺少直接的了解渠道。算法之于编辑部门只是辅助工具,几乎没有人愿意主动去琢磨算法。
实际上,研究者所在的公司试图为双方提供沟通平台和机制,但以失败告终。公司曾一度每周召开“算法-编辑”沟通会,但也仅仅断断续续持续了3个月。在会上,由工程师给编辑解释算法模型,编辑们可以提出要求和疑问。但是相比于算法工程师口若悬河的名词和模型讲解,编辑们随意进出会议室、埋首手机屏幕、因茫然而交头接耳的表现则显得漫不经心。沟通会的定期召开收效甚微,最终不了了之。
另外,在算法模型的指标权重“拍板”上,编辑部门参与更有限:“公司里会影响到算法标准的人有三类:运营团队,一个是产品团队,还有就是算法工程师自己”(受访者C2)。“主要是算法工程师在优化,编辑不太参与这个过程。我们会知道大概的逻辑和框架,但细节并不是很清楚。”(受访者E1)有时编辑在工作过程中发现了问题,必须经过运营部门的沟通和允许才能进行操作。从田野观察来看,技术公司各部门在地理空间上的分隔及严格的交流规定,说明算法工程师和新闻编辑之间未必建立足够高效、畅通的沟通机制。新闻分发平台的主要工作者们对算法透明与否漠不关心。虽然各方都曾有过互相了解和开诚布公的尝试,但这种尝试不是决策者优先考虑的问题。
(二)“黑箱”的复杂性:算法运作流程中难以忽视的枷锁
算法因为语言和技术门槛过高而被研究者视为“黑箱”,但田野观察发现,这个黑箱可以由工程师掌握和解释,仍有一定的透明性可言。新闻分发中,算法的运行经历了以用户触发获取新闻为开始、到获取推荐的新闻列表为结束的整个技术环节,通常包括“策略”“召回”和“预测”三个步骤。不过,“策略”步骤理解较为简单,人为干预更方便,“召回”和“预测”则需要依靠“机器学习模型”完成算法对文本的理解、推荐和打分,这是算法运行的核心,也存在于黑箱中被多重枷锁所束缚。
1.机器学习模型:从动态修正到复杂迭代
机器学习模型依据应用场景可分为分类模型和打分模型。算法基于分类模型的运作体现在,通过收集的APP终端数据和各类文章内容进行计算处理、分类后,就可以用数据的形式描绘出“用户画像”和“文章画像”。用户画像是从用户的基本信息和行为信息中被算法抓取的特征数据;文章画像指的是算法通过识别文章的一系列特征对文章进行分类的结果。
编辑也能参与和干涉这个过程。例如,影响文章画像的有媒体源级别、标题分类、正文关键词识别、文章属性分类等因素,它们各自占有提前设置好的分数权重,总分决定了这篇文章的最终样貌。但这一模型和权重并非固定不变,而是处在动态关系之中。一方面,分数是以“阈值”的形式表现的,用户不会因为一次点击就被判定为感兴趣,文章也不会因为一个负面评价而被判定为低质内容。另一方面,新闻匹配过程被视为一个不断调试和修正的试验场——所有的数据都将回流储存,成为优化算法的养分。
相较于标准和阈值都可见的分类模型,用来预测用户行为的打分模型只有输入端和输出端可见,其运行逻辑较难理解、存在着明显的不透明。“以在预测环节负责预估点击率的模型为例,首先它需要输入海量的信息,但是最终输出的仅是一个抽象的点击率预估值。我们最感兴趣的如何评分,也是对推荐排序影响极大的过程,被固化在了这个复杂抽象的模型公式之中。它是对于提供算法透明性的最大障碍。”(受访者C1)各种各样的算法被嵌套叠加在一起,很像人脑的神经系统,越来越复杂难懂。
但这个系统并非一成不变,随着用户需求增多,更多“神经元”被添加进去,模型和数据迭代,复杂程度不断升级。C2回忆公司两年前的模型还较简单,那时他还能给总编辑解释它的参数和权重,后来随着机器学习程度的加深,模型变成了“非常非常复杂的数学函数”(受访者C2),解释颇为困难。但是从目前来看,分工有序的工程师团队依然是算法的绝对主导者:有人负责如何理解文章、识别文章类型,有人则负责如何将用户行为表达成可用数据显示的特征,也有人负责如何优化模型本身。“我们能够把现有的信息转换成编辑需要的具体的功能。”(受访者C2)
2.个性化推荐:不准确的预测和召回
在算法新闻分发平台中,“个性化推荐”表现为算法将用户画像和文章画像进行匹配的过程。但个性化推荐中,被诟病的多为推荐内容低俗、不能精确预测和匹配用户喜好等问题。而这受到算法预测和召回机制的影响,两者都需要充分准确的数据,有赖于设计者、编辑和用户等主体在算法调节中的努力,现实中尚面临着以下障碍。
首先,在算法模型的设计标准上难达到统一。编辑E1曾提到自己和工程师的意见分歧:
我觉得算法在计算用户画像的时候有点忽略用户的主动表达。比如用户搜索了某关键词,或者主动订阅了某频道。这是一个很强烈的信号,因为我是真的关心这个才主动去搜索、订阅。但是工程师那边在考虑用户画像时,并不会把这个信息当做是强烈的信号。工程师会按照自己的思路走下去,他们有自己的一套行为准则。
其次,算法理解用户是一个试探和相处的过程,还取决于用户的交流意愿是否强烈,这反映出算法调节中“人”的灵活因素。算法试图依靠内容引发用户兴趣,让他们花费时间使用平台,进而协助平台收集更多用户数据(Presuel & Sierra,2019)。C1说:“在算法还不了解用户的时候,默认就是推低俗的内容。因为它只能认定你属于大部分的那拨人。但实际上如果你忍受住了这种情况,有意不去点低俗内容。大概两周之后它推荐的效果就会变好,你就看不到三俗文章了。” 这从侧面说明,算法在没有获取足够多用户数据时默认推荐的内容非常具有诱导性,容易把用户裹挟进不相干的信息流中。
最后,算法的运算速度还做不到在刷新瞬间直接从几十万篇文章里挑选出能和用户匹配的内容,它只能先从几千篇事先标注好的文章里进行匹配计算。实现这个目标的过程就是“召回”。算法要通过对小部分用户的召回展开“协同过滤”,然后推荐相同内容给范围更广的画像相似用户。因此,如果说算法的目的是提高内容匹配的准确度和效率,那么“召回”则反映出算法技术还远没有达到这一预期目标。
可见,算法的个性化推荐是颇为复杂的过程。它取决于设计者的价值取向、使用者的自觉意识、数据的充分程度以及算法的发展程度等。推荐过程也不遵循一成不变、一劳永逸的规则,而是一个循环和动态的过程,涉及用户和文章的再识别和算法模型的不断优化。而这正是新闻分发领域“人-技混合体”这一黑箱的真面目。
(三)编辑个体的“数据化”:新闻透明意识的缺失和模糊的把关标准
新闻分发平台以算法为核心,但是编辑的存在也十分必要。“算法是基于模型运行的,它会剔除特别粗糙的内容。关键审核还是靠人工,机器只起到辅助的作用。”(受访者R4)新闻分发平台的编辑承担数据筛选和标注、弹窗推送、内容审核等三大块工作。他们使用公司专用的软件平台,以专属ID作为识别标志,每个人的操作痕迹、推送数量和点击率、覆盖人数等,都会转换为绩效的量化数据。在这种失衡的“人-技混合关系”中,编辑的付出直接在算法化的环境下被简化为一串串数据。从编辑从事的三项工作中就能看出这一点。
1.数据筛选和标注:来自算法的精神消耗
就本研究田野所在的地方新闻编辑组而言,编辑要根据用户的位置定位,为地方用户筛选和推送当地资讯。几乎每个行政区域都有相应的频道,编辑要做的就是对这些按照算法计算排列好的频道信息流进行干预。如排序、“打标签”“加精”和删除等操作,直接管理该频道信息流在用户移动端上的显示情况。
此外,在训练和优化算法模型的过程中,编辑还要对样本数据做筛选和标注。但这部分工作的重复性极强,对编辑来说是一种精神上的消耗。枯燥的数据已经将编辑淹没了,他们很少有时间再去操心其他事情,来自职业新闻理念的透明性原则自然是缺席的。“如果按照透明性原则去理解算法怎么分这些文章给我,还要解释我为什么选了这篇而不是那篇,今天的工作就不用做了。我这个月的绩效会非常难看。”(受访者E2)
2.新闻弹窗推送:过度依赖算法损害自主性
新闻的弹窗推送是编辑最主要的工作,也是体现新闻专业水平的部分。编辑们通常根据算法已经计算出的阅读率和点击率,以及自己的推送经验和新闻直觉,预测内容的推送效果,进而编写标题和摘要。田野的观察和访谈显示,编辑们对于推送效果一般都预测得较为精准。这得益于每周的算法反馈。各个编辑小组每周要撰写“周报”,总结内容运营数据,并据此随时调整推送策略。“其实时间长了,每个编辑都能摸清什么样的新闻受用户欢迎。”(受访者E2)
不过,过度依赖算法计算的数据结果也将会导致编辑自主性的偏移,让“算法调节”陷入失衡。对地方新闻编辑来说,谁分到的地域频道内容优质或用户活跃,谁的数据和绩效就“好看”。而数据好看的地方频道就会放在显著位置,其他则会放在相对不重要的位置,形成无形的偏见。久而久之,这种以数据为导向的算法偏见也会加深编辑个体的偏见,人也在算法技术的框架中按部就班执行,维系甚至强化了既有的偏见。
3.内容审核:难以说清又多变的规则标准
负责内容审核的编辑的工作也遭遇了数据化的管控。除了完成每天规定的工作量,他们还需轮流值夜班进行24小时把关。视频审核编辑R2称,公司要求“每个出现在平台上的视频都必须是有人工审过的”。本研究所在的田野中,推送的新闻还要经过算法的“把关”,算法会根据每天上午的文章点击率情况,自动生成一个五百条以内的已经自动拟好标题和摘要的内容推送池。编辑需要在半个小时之内对这些新闻逐条审核,着重看标题和摘要,筛查风险、评估内容价值。而算法几乎不会生成不符合要求的新闻推送。因为地方新闻的组长的要求是“只要不是特别过分的,可推可不推的都能推”(受访者R2)。对于这种含糊不清的说法,编辑只能靠过往经验把握审核标准。这些难以明确表述的、经验的新闻价值判断标准很难被界定,它们与难以解释的算法审核机制,共同形成了“人-技混合体”下的审核模式(见图1)。
而对于算法干预不够完善的视频内容来说,编辑的任务更为艰巨,需要熟记所在部门的审核规则。即使算法预先将一部分粗制滥造的内容剔除出去了,但是初审的编辑仍然面临着巨大的工作量压力。“我感觉主要还是靠人(来审核),因为机器学习其实非常机械死板。”(受访者R1)最后把关的推送组其实也不轻松:
我进组前要进行一个星期的培训。专门的培训部门会请一批讲师过来讲,关于一些我国的历史内容和政治环境之类的。培训完之后会有考试。没有达到80分,要回去重新学习。三次不过就要被开除。这些规则非常复杂,内容很多,特别难记。还不是理解的问题,就是必须要记住(受访者R1)。
同时,这些规则和标准还会经常发生变动。“是运营部写规则,我们编辑负责执行。如果在工作中发现规则有问题,需要提出来交给运营部商讨。他们再进行规则的修改,就这样来来回回。”(受访者R2)
在算法新闻分发领域,新闻透明性首先应该在具有一定职业素养的编辑部门内被当作常识。但现实是,在决策设计者、算法工程师、新闻编辑和算法技术之间未达成对算法的共识性认知之前,即便拥有互联网开放和参与特质的新闻透明性原则,也会在算法的隐形控制中渐行渐远。回到“算法调节”的框架下,出路又在哪里?
四
治理路径:从“技术道德化”
视角审视算法新闻透明问题
技 术 调 节 研 究 主 张 把 道 德 因 素 纳 入 技 术 当 中 , 提 出 “ 将 技 术 道 德 化 ”(moralizing technology)(Verbeek,2011:90)的论断。Neyland(2016)曾参与机场监控系统的“道德算法”设计工作,展示了将算法系统作为一种新兴秩序,推动不同问责制产生的可能性,具体途径则包括想象预测和加强建构性技术评估。前者鼓励技术设计者在设计之初依据经验和现实进行想象,预测技术与使用者之间可能产生的道德结果,进而在技术应用前给予引导(程海东,贾璐萌,2014)。后者建议开展客观和公开的辩论,在技术设计中开辟协商民主的空间(Verbeek,2016)。这也给实现算法分发领域的新闻透明性提供了思路。
(一)把新闻透明性纳入算法设计的“常规”
为了使技术道德化,设计者需要通过使用情境测验以预测技术对用户特定行为产生的导向性,并且估计技术的社会影响。维贝克认为,设计者首先应该试着去评估技术是否可能导致某种他们不希望产生的调节后果;进一步还要明确地把希望产生的调节形式“植入”产品中(Verbeek,2016)。具体到算法新闻分发,则是把新闻透明性这一伦理规范尽可能植入算法设计的“常规”。
新闻常规是媒介工作者在新闻生产中采用的一套模式、惯例以及重复的行为或形态(张伟伟,2017),新闻实践活动围绕着体系化常规展开。但在算法新闻平台中,新闻透明性还没有被视为成熟的、常规的或主导的新闻价值理念。工程师C1说:“主动引导用户去探索算法原理确实非常缺乏,我也没有见到有公司这么做过。”即使有对算法原理的展示,也十分表层而且并不引人注目。“我们的‘热文’会有‘热文’的标志,本地文章会有‘本地’的标志。剩下的兴趣文章没有进一步的标志,因为它的排序是由算法模型算来出的,去解释它会有一定的困难。”(受访者C2)而编辑们认为新闻透明性可能只是专业主义的自我展演,用户根本无意关注它:“我觉得现在没有哪个平台在考虑这件事情(实践新闻透明性原则),又有多少用户愿意关心这个呢?”(受访者E1)可见,算法过于草率地被投入应用,它对使用者可能产生的行为导向和价值影响,将服膺于效率至上的原则。
由于算法工程师几乎没有经受过专门的新闻职业理念熏陶,而传统的网络新闻编辑们在算法设计环节的发言权也不受重视。因此,在机构范围内建立包括运营部门、编辑部门和技术部门在内的“算法透明性沟通框架”尤为必要。可行的做法是:根据新闻分发的具体情景厘清可能产生偏见和不透明的环节,在此基础上订定算法运行的标准,并及时反馈更新。作为新闻工作者还要对算法的数据(data)、模型(model)、推论(inference)、界面(interface)等方面有所了解(Diakopoulos & Koliska,2017),才有可能把透明性纳入算法设计的“常规”,同时反过来促进职业新闻人坚持、分享透明性的道德信念。
(二)加强算法利益相关方的民主协作
维贝克提出的“技术民主化(democratization of technology)”(Verbeek,2013)倡导把利益相关方纳入到技术调节路径的制定中。这一理念所展示的协商、动态、开放的理念,对“算法调节”而言同样值得尝试。
不过,目前平台公司的顶层设计与传统媒体有着悬殊的价值排序,以往的新闻编辑室以客观性等专业主义为主要价值导向,但在算法分发平台设计中,专业价值被置于商业利益之后。“资讯平台本身不是传统媒体,没有这种使命感,它追求的是流量和数据。除非顶层设计者认为这个东西(新闻透明性)会极大地提升平台的流量和数据,他才会去做这个事情。”(受访者E2)
同时,政策导向更直接影响了公司顶层设计的决策。目前互联网信息管理政策有待完善,新规则制定中平台之间常常会争抢政策红利,以确保自身的“合法化”,这也在无形中消解了对技术道德的追求。“当然我们是要符合上面的高要求。但是上面关注的质量跟用户关注的质量还不是一回事,上面可能注重导向性,用户可能注重这篇文章干货有多少。”(受访者C1)算法的设计是随着政策指令而行动的,算法工程师也是出于满足上级要求的目的才会修改算法参数,“比如外界希望最近有一些事情的舆论要比较平静。那么很可能我们要在算法上做出一些修改,把某些规则变得更严格一些。”(受访者C2)
考虑到算法的价值设计关涉到投资者、广告商、受众和政府的需要,Dörr和Hollnbuchner(2017)提出在媒介系统伦理(机构范围)、个体伦理(专业范围)、受众伦理三个层面去建构算法的透明性准则。在这个动态情景中,新闻透明性或许也可以被视为一种商机和创新形式。在各平台以“个性化推荐”吸引用户时,强调透明理念会让人眼前一亮。“如果我们把算法的过程呈现出来,告诉用户我为什么要把这篇文章展现给你,会给用户更大的阅读动力,满足其好奇心。”(受访者C1)但数据公开同样涉及公司经济利益。这样看,无论是把新闻透明性改造为商业策略,还是保留为专业理念,都需要依靠“技术民主化”的调节,通过多方力量协商与监督,在专业价值、商业价值、政策需求中寻求合适的平衡点。
(三)人与算法关系的重新定调:对话而非对抗
对于新闻业和技术公司来说,在当下的人人时代,如果仍将公众视为“局外人”而轻视他们,将会遭遇从社会治理到商业经营的全面危机(罗昶,2018)。对此,维贝克指出,一方面,技术设计者对于用户的决定和行为要负有责任;另一方面技术使用者也要考虑基于技术的关联的他们要如何去构建自身的主体性(索坦扎德,计海庆,2015)。
转换至新闻分发领域,这样的主体性就存在于算法、编辑、用户之间的“数据性流动”。编辑浏览的新闻是算法挑选和排列好的,参考的新闻热度是算法输出结果,工作成果也是由统计数据体现的。编辑的视角在算法的影响下在向“数据”转移,以往的新闻价值理念反而不那么重要了。“它不需要专业背景。”(受访者R3)“我们审核编辑之间流传这么一种说法。平台就是把你当一头驴,把你拴在磨上,还一直拿鞭子抽你。它把所有的吃的喝的都给你准备好。你就拉着磨转就行了。用户一直在上传,审核工作是永远做不完的。”(受访者R1)
从内容到人的“数据化”将透明性原则实践的情境转译为数据的而非经验的过程。这也是目前能够实现的一种人与算法的“对话”方式了。人需要理解算法,反过来算法也在试图“理解”人。这在某种程度上,让人有信心认为算法新闻分发的客观性能够通过对用户数据的“可观察、可审查和负责任的使用”(Anderson & Sharrock,2013:8)来完成。例如,工程师受访者C1表示从技术层面和社会责任的角度看应该让用户了解新闻内容的推送机制;编辑受访者R2认为编辑并不总是被算法牵着鼻子走,他们个人的主观判断占更大部分;编辑受访者E1感慨用户的主动性比在传统媒体时代高,他们可以自己卸载应用、关注作者、切换渠道,用各种方式满足自己的信息需求。
在算法使用情境中,尽管编辑和用户均不能完全掌握看到信息的路径和方式,但依然能够感知到“算法框架”的存在并在不知不觉中与之对话、共存、沉沦。从长远来看,实现透明性原则还是要依赖人与技术的不断互动,在对话中生成调节的可能。
五
结语与反思
对新闻业而言,无论是面临算法还是其他新出现的技术物,都不应忽视技术调节的框架下技术物对人所带来的规范或引导作用。未来新闻业的可能性图景之一,包括了算法同人类的协作,记者不仅需要更紧密地同工程师、程序员合作开发算法程序,而且也应该学会批判性地审视算法决策系统(Lindén,2017)。尽管从目前看来,新闻透明性原则在算法新闻的分发中仍处于无意识或潜意识的状态,人与算法的复杂关系模糊了需要公开透明的焦点,但人类从未停止对技术物进行理解、解释和反思的尝试,在“人-技混合体”的语境下,这种复杂性值得深究。本文在这里正是起到抛砖引玉的作用,期待更多的研究和思考。
考虑到互联网新闻生产的社会化特点,公众对透明性的需求程度究竟为何,实现透明性的商业成本、法律和道德问题,以及算法推荐造成的个体原子化与透明性提倡的参与性关系等问题,尚有待讨论。不过,有一个值得重视的前提性问题是:在新闻业拥抱新技术走向更加智能化的未来,对技术前瞻性的价值设计和伦理问题的预判,不应当被轻易落下。
本文系简写版,参考文献从略,原文刊载于《国际新闻界》2020年第7期。
封面图片来自网络
本期执编 / 小束
订阅信息
全国各地邮局均可订阅《国际新闻界》,国内邮发代号:82-849,欢迎您订阅!
您也可通过下方二维码或网址https://weidian.com/?userid=1185747182,进入国际新闻界微店,购买当期杂志和过刊。
您还可访问《国际新闻界》官方网站 http://cjjc.ruc.edu.cn/ ,免费获取往期pdf版本。