查看原文
其他

张梦、陈昌凤 | 智媒研究综述:人工智能在新闻业中的应用及其伦理反思

张梦、陈昌凤 全球传媒学刊 2022-04-25




张梦:清华大学新闻与传播学院博士研究生。

陈昌凤:清华大学新闻与传播学院教授、常务副院长。



【摘  要】人工智能已嵌入新闻业的全过程中,本研究梳理了国内外与智能媒体相关的文献,发现研究主题主要包含四类:新闻传播实务变革,表现为人工智能在新闻采集、生产、分发和核查等环节的应用及影响;新闻传播学研究范式革新,主要为新闻传播本体论反思及理论创新;伦理争议,包括“非真实”“偏见和歧视”“低透明度”“违背个人信息保护”和“损害个体自主”;伦理归责,包括伦理责任主体的区分、归责依据的探讨以及伦理责任体系的构建。本文旨在为智能媒体相关的研究提供知识脉络。


【关键词】人工智能;算法新闻;人机传播;本体论;媒介伦理


以算法为核心的人工智能已嵌入了新闻业的诸多环节,引发了新闻传播实务诸多流程以及媒体组织结构等多方面的根本性变革。《新权力、新责任:新闻业和人工智能全球调查》(New Powers,New Responsibilities:A Global Survey of Journalism and Artificial Intelligence)报告①显示,近一半受访者所在的媒体机构已开始使用人工智能进行新闻采集,三分之二的受访者已在使用人工智能进行新闻生产,超过一半的受访者已使用人工智能进行新闻分发(Beckett,2019)。《2021年新闻、媒体和技术趋势及预测》报告②显示,69%的受访者认为人工智能是未来几年新闻业发展的最大推动者(Newman,2021)。


然而,随着人工智能在新闻传播领域中嵌入程度的逐渐深入以及应用范围的愈加广泛,人工智能可能引发的后果如信息造假(Botha & Pieterse,2020)、偏见和歧视(Bozdag,2013)、低透明度(Diakopoulos & Koliska,2017)以及侵犯用户信息隐私(Mittelstadt et al.,2016)等也引起了人们的关注和讨论。皮尤研究中心2018年的调查③显示,58%的受访者认为算法总是会带有设计者的偏见,50%以上的受访者关注算法自动化决策的有效性和公平性以及可能关涉的隐私侵犯和缺少人类参与等问题(Smith,2018)。


事实上,已有大量研究对人工智能在新闻业中的应用及相关的伦理问题展开过讨论。


在Web of Science数据库中,分别以artificial intelligence并含ethics/journalism、AI并含ethics/journalism、algorithm并含ethics/journalism为检索条件,限定来源期刊为传播学领域影响因子排名前15的期刊(根据Clarivate Analytics于2020年最新公布的SSCI期刊影响因子数据得出,检索时间为2021年1月7日),即“Journal of Advertising”“Political Communication”“Journal of Computer-Mediated Communication”“Communication Methods and Measures”“Journal of Communication”“New Media & Society”“Information Communication & Society”“Digital Journalism”“Communication Monographs”“Communication Research”“International Journal of Advertising”“Human Communication Research”“Comunicar”“Journalism”和“Social Media Society”,去重之后,共获得相关文献69篇(截至2021年1月7日22:50),且这些文献分布在2001年(含)至2020年(含)之间。在“中国知网”数据库中,以“人工智能”并含“伦理”/“新闻”、“算法”并含“伦理”/“新闻”为检索条件,限定来源期刊为《新闻与传播研究》《国际新闻界》《新闻大学》《现代传播》和《新闻记者》五本新闻传播学领域的代表性期刊,去重之后,共获得相关文献102篇(截至2021年1月7日23:10),且这些文献分布在2011年(含)至2020年(含)之间。以上共171篇文献是本文分析的重点。另外,这171篇文献中与本文主题相关的某些参考文献也被纳入本文的分析或参考范围内。


通过对上述文献的分析,本文发现这些研究的主题可以概括为四类:其一是新闻传播实务的变革,具体表现为人工智能在新闻采集、生产、分发和核查等环节的应用及影响;其二是新闻传播学研究范式的革新,主要为人工智能应用引发的新闻传播本体论反思及其理论创新意义;其三为人工智能应用引发的伦理争议,主要包括“非真实”“偏见和歧视”“低透明度”“违背个人信息保护”和“损害个体自主”;其四为伦理归责的相关讨论,包括伦理责任主体的区分、归责依据的探讨以及伦理责任体系的构建。本研究旨在为智能媒体相关的研究提供知识脉络。


一、人工智能在新闻业中的应用

以算法为核心的人工智能包括“智能体、机器学习与数据挖掘、语义网络、认知信息技术等非常丰富的内容”(陈昌凤、石泽,2021),而相关技术在新闻业中的应用便催生了各类智能媒体(简称“智媒”),进而促进了新闻业的智能化转型。很多研究者曾探讨过人工智能在新闻业中的应用类型,如Diakopoulos(2019)将其主要概括为“数据挖掘”“自动化内容生产”“信息代理”和“新闻分发”四类;《中国智能媒体发展报告(2019—2020)》则称,人工智能技术与媒体场景融合从而产生了“信息采集、内容生产、内容分发、媒资管理、内容风控、效果监测、舆情分析、媒体经营和版权保护”等应用方向(中国传媒大学,2020)。本部分则对关涉智能新闻采集、生产、分发和核查四个方面的研究进行了归纳。


(一)新闻采集(News Gathering)

新闻采集即新闻线索的获取是新闻生产和分发的基础环节。人工智能参与新闻线索获取主要是以智能化工具或机器人的形式实现,且新闻线索获取或是作为独立的流程,以为记者的后续报道提供素材,如通过机器学习和数据挖掘方法提升调查性新闻报道的质量(Diakopoulos,2019),或是作为新闻自动化生成系统的基础部分而存在。有学者将此过程定义为“计算性新闻发现”(Computational News Discovery),即“在出版之前使用算法将编辑注意力定向到潜在的有新闻价值的事件或信息”(Diakopoulos,2020a)。


国内外的媒体、通讯社和技术公司早已开发出相应的人工智能新闻采集工具并投入实践,且主要用于实现三种功能,包括大规模数据的挖掘、处理和分析,突发事件监测以及事件发展趋势预测,而代表性应用则有CNN、Twitter和Dataminr联合打造的新闻线索发掘工具Dataminr For News、NewsWhip开发的Spike dashboard工具、路透社研发的News Tracer等。在人工智能的辅助下,当下预测性数据新闻(Predictive Data Journalism)的主题已从政治扩展到了体育、文化、商业(Diakopoulos,2020b)和公共卫生健康等领域。


有研究基于以人为中心的社会技术框架,通过对创造或(和)使用计算新闻发现系统人员的访谈,以探究在新闻传播实务中,该系统如何与媒体从业人员进行互动以及这些互动对媒体从业人员的影响(Diakopoulos,2020a)。研究发现,一方面媒体从业人员在新闻线索的开发、价值评估及质量保证方面仍发挥着重要的作用;另一方面,该类系统的运用能够帮助媒体从业人员调整与新闻价值和质量评估有关的评价(Diakopoulos,2020a)。有研究认为,此类操作正在不断深化新闻报道,如果说传统新闻业中的新闻报道更多解决“是什么?”之类的核心问题;而如今在人工智能的辅助下,新闻业中出现了大量探讨“为什么?”“怎么会?”的作品(陈昌凤、石泽,2021)。然而,也有研究证明,虽然人工智能在调查报道方面得到了一定程度的应用,但诸多因素导致此类应用有限,如许多与新闻相关的数据掌握在政府和私人手中,不能公开获取,通常需要收集、谈判或购买;新闻推理需要非常高的准确性或大量的人工检查,以避免诽谤的风险;新闻价值的评判因素往往来自深刻的社会政治现实,因此很难在计算上进行编码等(Stray,2019)。


(二)新闻生产(News Production)

人工智能软件平台和自然语言生成技术的结合,允许将原始数据转换成可理解的语言(Montal & Reich,2017),而由此生成的新闻也被称为“自动化新闻(Automated Journalism)”(Carlson,2015)、“机器人新闻(Robot Journalism)”(Dörr,2016)、“计算新闻(Computational Journalism)”(Anderson,2013)或“算法新闻(Algorithmic Journalism)”(Dörr,2016)。很多研究归纳过此类新闻生产的流程,如Montal & Reich(2017)认为自动化新闻的生产流程为:在数据库和其他数据源中查找和识别相关数据,“清理”并对原始数据进行分类,识别关键事实并对数据进行排序、比较和汇总,以语义结构组织叙事,分发和出版即以各种风格、语言和语法水平提供文本或视觉内容。许向东、郭萌萌(2017)总结自动化新闻的生产流程为采集数据,数据的结构化处理和分析,判定新闻价值并提炼报道选题,套用模板生成规范的新闻稿及润色。


国内外的通讯社、媒体和技术公司早已加入新闻自动化生产的行列中,代表性应用包括“自动化洞察”(Automated Insights)公司设计的Wordsmith、《洛杉矶时报》的Quakebot、《华盛顿邮报》的Heliograf、“新华社”的“快笔小新”、“今日头条”的“Xiaomingbot”、“第一财经”的“DT稿王”、腾讯的“Dreamwriter”以及《南方都市报》的“小南”等。目前,此类应用主要存在于财经、体育、政治和天气等主题的报道中,并且可以文字、视频和数据可视化等不同形式展现(Diakopoulos,2019)。有学者认为,未来新闻的自动化生产可能实现大范围的个性化,每一用户可获取同一新闻的多个定制版本(Carlson,2015)。


然而,自动化新闻生产技术仍具有诸多局限性。首先,该技术能较好地应用需要基于数据可用性和好的数据质量,而一旦报道领域拓宽,语义方面的数据或文本更加多元化,自然语言生成技术可能会无法处理,所以目前该技术的应用领域和主题有限;另外,该技术也无法从矛盾的数据中得到结论,因而数据库必须可靠(Dörr,2016)。再者,很多学者认为,对单一数据流的依赖(缺少多样化的信息源)、新闻角度的提前预测以及新闻模板的预先设置等因素,使得算法生成的新闻缺乏传统报道的背景、复杂性、创造性和人性化元素(Thurman et al.,2017)。最后,新闻的自动化生产可能对真实性等伦理原则造成挑战(许向东、郭萌萌,2017)。


另外,自动化新闻生产带来的算法可信度和新闻可信度问题也引发了学者们的关注和讨论(Wölker & Powell,2018;师文、陈昌凤,2019)。如有实验研究发现,不论文章实际上是由机器还是由人类写作的,受试者对“被宣称”为人类写作的文章评价更高,而实际上由机器生成的文章被认为虽然可读性稍低,但是却更可靠且具备更多的新闻专业知识(Haim et al.,2018)。针对欧洲读者的实验表明,人们对自动化、人类和混合来源的新闻可信度感知相等,但就体育文章而言,人们认为自动化内容比人类消息更可信(Wölker & Powell,2018)。针对新加坡读者的实验证明,人们对于算法、人类和混合作者生成的新闻,在感知信源可信度(Perceived Source Credibility)和信息可信度(Message Credibility)上没有差别(Tandoc et al.,2020)。但是信源类型和新闻客观性之间存在交互作用,具体表现为,如果文章是由人类记者撰写的,那么无论文章是否客观,人们对信源和信息可信度都是稳定的;如果文章是算法撰写的,人们对客观文章的信源和信息的可信度更高;如果文章是由算法和人类合作完成的,那么,虽然人们对客观和非客观文章的信息可信度一致,但当文章不客观时,人们倾向于认为混合作者文章的信源可信度更高(Tandoc et al.,2020)。


(三)新闻分发(News Distribution)

人工智能在新闻分发环节中的应用主要包括个性化新闻推荐、智能化新闻播报以及智能化传播效果分析。


1.个性化新闻推荐

基于决策流程的差异,推荐算法可分为基于内容的推荐算法、协同过滤推荐算法、基于知识的推荐算法以及混合推荐算法(项亮,2012;牛温佳等,2016)。很多研究总结过新闻推荐算法的工作原理(Thurman,2011;Haim et al.,2018),具体而言,其基本原理是算法会根据用户的个人特征(如年龄、性别和兴趣等)、社会特征(如种族、经济状况和社会关系等)和历史足迹(如信息使用、阅读习惯等数据)等信息建立多数据点的用户画像,同时也会对信息和用户的地理环境、技术环境等进行描摹,之后再将用户画像与标签化的信息产品适配,进而通过多种算法手段进行新闻分发(Haim et al.,2018;陈昌凤、石泽,2021)。


新闻推荐算法已被《纽约时报》《卫报》和《华盛顿邮报》等新闻媒体以及“谷歌新闻”“Nuzzel”“Refind”“今日头条”和“一点资讯”等新闻聚合类平台使用。而近些年,得益于自动化语言识别、可接近性、云计算、机器学习以及自然语言处理技术的进步,人工智能语音工具得以进一步发展(张建中,2018),而人工智能语音技术和个性化新闻推荐的结合渐成趋势,由此则催生了新闻机器人/聊天机器人/对话机器人之类的应用,如BBC、澳大利亚广播公司、《人民日报》和《光明日报》等,都已将人工智能语音工具运用于新闻的个性化推送中。有研究探究了新闻聊天机器人的影响,认为聊天机器人重新定义了新闻分发,有助于实现丰富性、趣味性、互动性和定制性的新闻推送,能够提供知识服务,平衡重大政治报道,促进信息的全球化传播(卢长春,2020)。然而,有基于BBC新闻机器人的案例研究发现,BBC的新闻机器人都是基础性的(截至研究者调查的时间),不使用机器学习,也很少被整合到新闻制作中;虽然机器人在一定程度上会重新配置工作实践和基础设施,造成新的编辑和技术挑战,重新定义与观众的关系,但新闻机器人对新闻业的影响程度被夸大了(Jones & Jones,2019)。


总之,算法用于信息推荐的核心是信息个人化,是符合人之本性的技术运用(李凌、陈昌凤,2020),因此备受推崇。但此类应用同时也在全球范围内带来了“信息茧房”相关的担忧和探讨(陈昌凤、仇筠茜,2020),而究其根本,此种忧虑是对智能时代民主制度中媒体角色的反思。有研究者认为,新闻推荐系统既可以对媒体的民主角色构成威胁,也可以为其提供真正的机会,并借助媒体民主理论,开发了一个评估算法推荐系统民主潜力的理论框架,确定了四种类型的民主算法推荐系统,即自由式、参与式、审议式和批判式(Helberger,2019)。


2.智能化新闻播报

智能化新闻播报主要是通过人工智能主播来实现的,在此方面,国内外都取得了一定进展,如“新华社”联合“搜狗”公司发布的全球首个人工智能合成新闻主播、日本放送协会(NHK)的Yomiko等。从技术原理来看,“AI合成主播”技术是基于“自然交互”和“知识计算”,通过“提取真人主播的声音、唇形、表情动作等特征”,运用“人脸识别、人脸建模、语音合成、唇形合成、表情合成以及深度学习等技术”联合建模训练而成(何强,2019;李仁虎、毛伟,2019)。“该项技术能够将输入的文本自动生成相应内容的视频,并确保视频中音频和表情、唇动保持自然一致,展现与真人主播无异的信息传达效果”(何强,2018,2019),从而“极大提升了电视新闻的制作效率,降低了制作成本,提高了报道的时效性和质量”(李仁虎、毛伟,2019)。有研究从理论层面探讨了人工智能主播得以实现和发展的认知交互基础,认为虽然人工智能新闻主播源于离身认知,但却日益走向具身认知,且在发展的过程中不断尝试两种认知的交互融合;具身性、情境认知、认知发展与动力系统是人工智能新闻主播持续创新的关键因素;而离身认知与具身认知走向更高阶的交互是优化人工智能新闻主播的可能进路(於春,2020)。


3.智能化传播效果分析

人工智能可被用于收集用户的新闻阅读情况及相关的体验,从而进一步作用于新闻分发策略的调整。“美联社”与NewsWhip合作开发了一种新工具,可以帮助专业从业人员追踪“美联社”内容的使用情况,并分析这些内容如何推动了会员和客户的社交参与,从而进一步作用于内容的调整,以满足用户未来的数字需求(NewsWhip,2016)。芬兰广播公司YLE开发了Voitto智能助手,该系统没有将点击率(CTR)作为衡量推荐效果的主要标准,而是采用了多少用户继续使用Voitto智能助手以及他们是否对收到的推荐数量和类型感到满意等指标,通过与用户建立持续对话,在锁定屏幕上直接来收集用户对人工智能推荐的反馈(Newman,2019)。还有媒体利用数据驱动的标题测试为各种媒体平台优化内容(Diakopoulos,2019)。


(四)新闻核查(News Verification)

新闻核查技术起源于计算机科学中的欺骗检测,从邮件过滤、简历过滤等应用场景中发展而来,能够在数据挖掘技术的基础上,根据准确性、确定性等指标,进行真假新闻的统计分析,计算未知新闻真实性的概率(陈昌凤、师文,2018b)。新闻核查一方面会嵌入新闻采集、生产和分发等诸多环节中,同时也可作为单独的过程而存在。


根据核查系统输入源和计算原理的差异,可将新闻核查算法分为“基于内容模型的新闻核查算法”和“基于社会情境模型的新闻核查算法”:前者借助自然语言处理技术,将带有真假标记的真假新闻数据输入程序,以计算真假新闻在语义特征(如单词使用、修辞、句法、情感语言等指标)上的差异,进而据此对给定文本的真伪进行判定;而后者“则是关注社交特征和信号,将信息传播过程中的情境纳入考量,根据用户与内容、用户与用户之间的交互等上下文信息情境甄别假新闻”(陈昌凤、师文,2018b)。


近几年,各路媒体、公益和教育机构以及技术公司加快了开发、使用新闻核查算法的步伐,如美联社开发了内部验证工具,可帮助记者实时验证多媒体内容(Newman,2019);而《华盛顿邮报》则开发了TruthTeller工具,以便自动核实实时政治演讲(Carlson,2015)。然而,事实核查技术本身也存在局限性。调查显示,当缺乏人类监督或处理大规模数据时,自动化事实核查工具辨识假信息的能力有限,尤其是在理解语句以及核查信息源方面,自动化事实核查工具受科学发展现状和缺乏数据的限制(Graves,2018)。另外,自动化事实核查工具对特定目标文本的真伪识别依赖此前输入的训练文本的特征,而作为训练数据的语义线索,只能反映部分新闻文本的特性,难以应对新语境下层出不穷的复杂新闻形态(陈昌凤、师文,2018b)。



二、人工智能应用引发的新闻传播本体论反思

虽然大多数研究都在关注人工智能对新闻传播实务造成的变革,且较少基于此进行理论层次上的探讨,但仍有少数研究做出提醒,此类变革需要人们加强对新闻传播本体论层面“元问题”的反思,而此类反思主要集中在新闻传播主体地位的探讨以及对新闻属性的反思。


有研究认为,智能媒体一定程度上已经具备了主体性,而这动摇了传统新闻传播学研究的基础假设,即人与技术的主客对立。如有研究引入了技术哲学的理论资源,以智媒传播中的人机关系问题为起点,归纳了智能化实体人、智能化虚拟人和类人化机器三种人机融合形态,并对主流传播学视阈中人机二元对立的理论预设进行了反思,从而指出人机融合关涉“在人与技术的主客体界限模糊处生成新生命形态的问题”(别君华,2019)。也有研究认为,媒介技术形态演变的表征可以概括为从“媒介即讯息”到“媒介即人体的延伸”再到向“媒介即人”的方向演进,智能媒体本身变成了具有“主体能动性的人”(林升梁、叶立,2019)。有学者基于智能时代中主客界限模糊的现实,进一步反思新闻传播领域中的研究范式,认为既有的传播理论是以人类为中心建立起来的,即认为传播是人类独有的特征,而技术只是一种传播的工具、媒介或渠道,但人工智能却具有传播内容的功能,这就模糊了人和机器之间的本体论分界,技术本身已不再只是渠道而转变为了传播者并可以创造意义,因而既有的“人类中心主义”的传播理论范式已不再适用于智能传播研究(Guzman & Lewis,2020),传播研究的理论框架需要从计算机中介传播(Computer-Mediated Communication)向人工智能中介传播(AI-Mediated Communication)转变(Hancock et al.,2020)。也有研究者建议可以借鉴人机传播(Human-Machine Communication)的相关理论来研究自动化新闻,因为该理论框架摒弃了人是传播者而技术只是一种中介的研究假设,且这种理论上的重新定位还可以提出新问题,如谁或什么构成了一个传播者,社会关系是如何通过人机互动建立的以及由此产生的对自我、社会和传播的影响(Lewis et al.,2019)。但有研究却反对将人工智能主体化,认为智能机器是人的本质对象化的产物,而智能新闻是人作为主体的意志体现,在人机协作的新闻生产传播中,人依然是唯一主体(杨保军,2018)。


另外,也有研究者批判了“算法权威”(Algorithmic Authority)以及“算法客观性”(Algorithmic Objectivity)话语(Carlson,2015,2018),认为自动化新闻生产具有局限性,人性和创造力可以是新闻报道非常重要的内在品质,而人类的特征诸如想象力、幽默感、批判性思维、情感和同理心等,恰恰为之提供了可能性(Carlson,2015)。


总之,上述研究促使我们对新闻传播本体论层面的问题如“谁是新闻生产者/传播者?”“什么是新闻?”等进行反思。而有此反思并进一步明确人工智能技术属性与人类属性的差异,厘清技术、专业从业人员和用户等非人类和人类异质行动者之间的关系及其在新闻传播实务中发挥的作用,既具有现实意义,同时也是创新新闻传播相关理论的关键。



三、人工智能应用引发的伦理争议

与智媒相关的研究对“非真实”“偏见和歧视”“低透明度”“违背个人信息保护”以及“损害个体自主”等伦理争议进行了诸多探讨,本部分将对这些研究进行梳理。


(一)非真实

在新闻传播领域,“真实性”是新闻职业理念的首要准则,“发现真相”是新闻工作者的首要使命(科瓦奇、罗森斯蒂尔,2011)。然而,人工智能在新闻传播实务中的多维嵌入可能对真实性原则造成挑战。有研究认为,人工智能看似具有建设性即增进表象真实,但实际上却以颇具破坏力即混淆真实边界的姿态对新闻真实造成了潜在的消极影响,如争夺媒体从业者的职业主体性地位进而造成身份认同错位,制造新闻事件从而破坏新闻内容的真实性以及制造虚拟情境影响受众体验(刘海明、付莎莎,2019)。


具体而言,在新闻/内容生产层面,数据的错误、不完整等质量问题,可能导致自动化新闻生产错判事实或趋势从而输出假新闻,如《洛杉矶时报》的机器人Quakebot曾错误发布地震报道,United Robots公司的足球新闻摘要中曾出现错误比分,瑞典的Monok混淆某些词(Green,2019)。而“深度伪造”(Deepfakes)技术即“深度学习”(Deep Learning)和“伪造”(Fake)的结合,基于“生成性对抗网络”(Generative Adversarial Network)的机器学习技术将现有图像和视频组合并叠加到源图像或视频上,从而产生假视频,进一步挑战了真实性理念(Botha & Pieterse,2020)。有实验研究表明,“深度伪造”内容会让人们更容易感到不确定,且会进一步降低人们对社交媒体新闻的信任,甚至导致普遍的不确定性和犬儒主义,进一步加剧民主社会中网络公民文化面临的挑战(Vaccari & Chadwick,2020)。在新闻/内容的传播层面,有实证研究证明,“社交机器人可以成功渗入社交网络,改变既有的信息交互结构”并增加人类用户对特定信息的接触(师文、陈昌凤,2020a)。而很多致力于计算宣传(Computational Propaganda)的研究者发现,有人会利用算法有目的地在社交媒体网络上分发虚假或误导性信息,从而影响政治话语或操纵公众舆论(Tucker et al.,2018)。但是,也有研究证明,机器人以同样的速度加速了真假新闻的传播,更可能是人类而不是机器人导致假新闻比真新闻扩散得更远、更快、更深、更广,影响更大(Vosoughi et al.,2018)。另外,有实证研究证明,虽然社交机器人活跃程度高于人类用户,但其影响力相较人类较低;机器人可以促使人类用户主动与其互动,但人类更倾向于与人类交互(师文、陈昌凤,2020a,b)。因此,人工智能到底在何种程度上导致了假新闻/内容的生产和传播,需要通过实证研究,针对具体的技术形态或产品以及新闻/内容的实践环节去证明。


值得注意的是,虚假信息是否有悖伦理规范还取决于当事人的特点、传播的意图以及行动的后果等因素,Facebook的研究人员正在训练机器学习系统识别人类眨眼的照片,并用睁开的眼睛取代闭着的眼睛,而尽管这样做在技术上歪曲了事实,但许多人认为这在社会和伦理上是可以接受的(Hancock et al.,2020)。另外,也有研究提倡,理解人工智能时代的后真相需要超越真假二元论,不仅要关注真假之辨和相关的商业逻辑,还要关注造假发生的具体社会历史语境以及参与者各自的目的(姬德强,2020)。


(二)偏见和歧视

“算法偏差”(Algorithmic Bias)和“算法偏见”(Algorithmic Bias)的概念常被混淆,而这则在一定程度上导致了我们难以明确界定“算法偏见”并据此提出共识性的解决方案。统计学上的“偏差”常指估计的预期值与其真实值之间的差距,因而在此维度上,“算法偏差”是指算法自动化决策的结果与预期结果之间的差距。根据韦伯斯特词典的定义,社会科学领域中的“偏见”则通常关涉“公平”,具体则是指“不合理的判断”,这种判断可能因先入为主的意见或是在没有正当理由或没有足够知识的情况下作出,从而可能对他人造成伤害,因而在此维度上,“算法偏见”是指在算法的整个生命周期中产生的不合理不公正的判断,且这种判断会对某些个人或群体造成伤害。“算法偏差”是可能导致“算法偏见”的重要原因之一,但并非所有的“算法偏差”都会造成“算法偏见”,如使用预期的人口数据而非当下的人口数据训练算法模型以作出医疗资源分配的决策,避免使用某类涉及伦理争议的数据等,非但不会造成“算法偏见”,且还是基于伦理考量特意保留的“算法偏差”(Danks & London,2017)。因而明确这二者之间的区别和联系对于我们探讨产生“算法偏见”的原因,明确“算法偏见”造成的实质性危害,以及提出切实可行的应对措施具有重要意义。


很多研究探讨了可能导致算法偏见和歧视的因素(Bozdag,2013;Diakopoulos,2016;Mittelstadt et al.,2016;Jaume-Palasí & Spielkamp,2017;郭小平、秦艺轩,2019;林爱珺、刘运红,2020;许向东、王怡溪,2020),而通过梳理这些文献我们可以发现:“算法偏见”可能存在于算法的整个生命周期中,即贯穿于“算法设计”“算法实现”“数据收集”“数据处理”以及“结果呈现”五个阶段。


在算法设计阶段,一方面源于社会制度、实践和文化等方面的看法,如个人偏见和社会偏见,可以伴随着设计师的决策,在个人或机构有意识(如通过迎合偏见以获取利益)或无意识的情况下进入算法的整个生命周期中(Jaume-Palasí & Spielkamp,2017),并随着算法的自动化决策被逐步固化。如算法设计师带有“偏见”的决策,可能导致算法自动化决策所依据的标准包括定义和数据化的方式以及相应的权重设计存在“偏见”(Diakopoulos,2016)。另一方面,设计算法所依据的知识原理的局限性也可能引发算法自动化决策的“偏见”:很多排名算法中包含流行度指标,而此类标准代表着大多数人的兴趣和价值观(Bozdag,2013);算法分类以确定性的方式将不同对象进行归类,可能阻碍了替代性探索(Ananny,2016);基于在数据集中归纳的知识和相关性,许多算法做出“关联”决策,而这不仅可能建立“伪相关性”,也很难建立因果关系,且即使发现强相关性或因果知识,也可能只涉及群体层面而非针对个人行为,从而对个人行动指导有限(Mittelstadt et al.,2016)。在算法实现阶段,程序员根据算法写作代码时也可能出现偏差或失误从而导致“算法偏见”。在算法收集数据阶段,数据的不完整、不准确、非真实以及不具代表性等质量问题(Bozdag,2013;Žliobaite·,2017),以及用户与算法系统互动产生的“偏见性”数据等,都可能在输入端向算法注入“偏见”。在数据处理阶段,一方面,算法的自动化决策功能即“排序”“分类”“关联”和“筛选”(Diakopoulos,2016)都可能因设计阶段的社会偏见、人类偏见和知识局限等因素而最终产生“机器偏见”(Machine Bias)。另一方面,己方专业从业人员或他方算法使用者的干预和调整可能导致“偏见”,如一些平台会操纵算法提高自身产品或者利益相关方产品的排名(Bozdag,2013)。再者,若算法遭遇攻击,则可能出现算法模型的准确率降低或算法模型被操控等问题从而引发“偏见”。在结果呈现阶段,结果呈现的方式和位置可能直接影响到用户对信息的信任、关注与使用(Bozdag,2013),而若用户对算法自动化决策的功能及结果的理解有偏差,就可能导致偏见。最后,若算法被不当或脱离最初设定场景使用,也可能造成偏见。有研究认为,算法偏见的产生具有必然性,因为“政治内嵌与资本介入,社会结构性偏见的循环,量化计算对有机世界的遮蔽,必将导致算法的内生性偏见”(郭小平、秦艺轩,2019)。总之,上游环节中的偏见和歧视会随着算法的自动化决策进入下游环节中并进一步固化,最终造成系统化、程式化或制度化的偏见;而我们常说的“算法偏见”则实质上由社会偏见、人类偏见、机器偏见和数据偏见等要素构成。


已有多家科技公司曾遭遇“算法偏见”的质疑。如亚马逊筛选招聘简历的算法系统会给包含“女性”相关词汇的简历低分(Dastin,2018),微软、IBM、Face++三家公司的人脸识别工具在识别男性、肤色较白的人脸上的表现要优于女性、肤色较深的人脸(Buolamwini & Gebru,2018),谷歌的照片应用程序曾将黑色皮肤人的照片标记为“大猩猩”(BBC,2015),谷歌助手、苹果的Siri和亚马逊的Alexa对美国口音、印度口音和中国口音的英语识别准确率并不一致(Kinsella,2018)。总结各类涉及“算法偏见”的争议事件我们可以发现:算法所涉及的“文字识别”“图像识别”和“语音识别”等技术领域常涉及种族、性别和年龄等人类属性方面的偏见和歧视以及消费、就业和犯罪风险检测等应用场景方面的偏见和歧视。


很多研究提出了相关的建议和措施,如有研究认为,算法偏见背离了公平公正的新闻职业规范,挑战了用户的知情权和信息选择权,在某种程度上可能解构社会共识,并引发舆论风险,因此建议从“法律法规、技术创新、第三方审核机构和算法价值观四个层面”治理算法偏见(许向东、王怡溪,2020)。而也有研究则“从保障用户信息选择权和知情权出发”,基于信息权利,提出了规范算法的伦理原则,即自主性、公正性、最优化和透明性(林爱珺、刘运红,2020)。在所有的解决措施中,提升算法利用数据的多元化和包容性往往被认为是避免算法偏见和歧视的重要方式,但有研究者从话语暴力的视角出发,将数据科学和技术的包容性及暴力之间的关系理论化,认为“包容”理念中潜藏着不正确的权力关系,而这种权力关系非但不能瓦解既有的等级权力结构反而会让其正常化(Hoffmann,2020)。


(三)低透明度

许多研究者认为,“透明”理念根植于康德对人的尊严和责任的相关论述中(Plaisance,2007;Craft & Heim,2009)。康德将行动的完整性和人的尊严的完整性联系起来,强调“说真话”的重要性,并为作为一种伦理主张的“说真话”提供了关键的哲学基础;而透明度的概念中本身包含着限制欺骗和错误信息的内容,这与康德的“责任观”紧密相连(Plaisance,2007)。20世纪中期开始,伴随着政治、经济、环保和媒体等领域的相关运动,“透明”逐渐演变成了一种全球化的文化思潮(Schudson,2015)。而新闻业信任危机、新闻客观性理念式微以及新闻业与受众关系的改变(张超,2020),都使得透明度在新闻业中的话语地位愈加重要,并最终成为新闻伦理规范的重要内容之一(Craft & Heim,2009)。早先的新闻媒体“透明度”曾被理解为“新闻业内外人士有机会监督、检查、批评甚至介入新闻流程的方式”(Deuze,2005),然而,人工智能在新闻实践多环节的嵌入,使得算法和人类的作用交叠互构、难以区分(Turilli & Floridi,2009),而高维度的数据、复杂的代码和可变的决策逻辑等因素又导致算法自动化决策本身缺乏可解释性(Mittelstadt et al.,2016)。有研究者通过田野观察和深度访谈发现,新闻透明性原则在算法新闻分发平台的实践中面临诸多障碍,如“平台的组织架构和物理空间带来了天然挑战”,“‘人—技混合体’的复杂性构成实际的’黑箱’”以及“使用者在算法的影响下也逐渐被数据化”等(毛湛文、孙曌闻,2020)。通过对相关研究的梳理,我们发现在人工智能嵌入的新闻传播实务中,四个与透明度有关的问题是研究者们常讨论的重点,即“‘新闻/算法透明度’指的是什么”“落实’新闻/算法透明度’是否可行”“落实’新闻/算法透明度’是否有必要”以及“如何落实’新闻/算法透明度’”。也就是说,目前对于“新闻/算法透明度”的概念、落实过程中可能遇到的阻碍、落实效果以及落实路径,学者们仍在探索的过程中。


就“新闻/算法透明度”的概念而言,Diakopoulos & Koliska(2017)认为新闻媒体中的“算法透明度”可以被理解为“阐明哪些与算法有关的信息可以被公开的机制”,包括“披露算法如何驱动各种计算系统从而允许用户确定操作中的价值、偏差或意识形态,以便理解新闻产品中的隐含观点”,主要关涉数据、模型、推断和界面四个层面。然而,有研究者提出,算法系统是人类和非人类行为的集合(Turilli & Floridi,2009;Gillespie,2014),因而要保证算法系统透明,不仅要公开算法系统的内部信息还要披露异质主体形成的“行动者网络”是如何发挥作用的(Ananny & Crawford,2018)。因而有研究者界定“异质新闻/内容实践网络”中的“算法透明度”概念可包含“信息透明”“理念透明”和“程序透明”(陈昌凤、张梦,2020)。


在“ ‘新闻/算法透明度’ 是否可行”这一问题上,很多研究者总结了相关的阻碍因素,如透明度无法与权力切割开,透明度通常受到专业人士及专业知识排他性、技术、时间、国家安全、社会秩序和私主体权利等方面的限制(Ananny & Crawford,2018;沈伟伟,2019)。在“落实’新闻/算法透明度’是否有必要”层面,很多研究表明,落实“新闻/算法透明度”可能效果有限,这是因为透明可能是有害的,可能会有意掩盖某些真正有价值的信息,不一定能建立信息接收方对信息公开方的信任,而信息接收方也不一定能完全理解公开的信息即信息透明不等于信息可知(Ananny & Crawford,2018)。另外,透明并不意味着相关问题必然能被发现,计算机工程师能确切预测算法与外部运行环境的交互,保证排除第三方对结果的干预(沈伟伟,2019)。而鉴于影响算法自动化决策的主体具有多元性和复杂性,因此仅揭示算法设计者和参与者的身份并确保技术透明度,对于道德责任归因而言,既不够也不可行(Orr & Davis2020)。因而,透明度并不能有效解决算法规制的难题(沈伟伟,2019),也并非智媒治理的充要条件,其使用效果取决于目标、对象、方式以及相关风险和局限的评估(徐琦,2020)。


然而,鉴于“透明度”作为社会和行业共识性的法律和道德规范,仍能发挥一定的规范作用且具有实践意义,很多研究者还是在探索如何落实“新闻/算法透明度”。有研究认为,要落实“算法透明度”首先需要坚持“开放伦理”理念,发挥专业共同体之外的主体如监管机构、用户在建构“算法透明度”伦理话语中的作用;其次则是在“技术社会集合”中明确“算法透明度”的概念;再有就是使用算法的主体要公开算法系统的相关信息,说明信息公开过程中相关信息的生产过程及其中是否遵守了相应的伦理原则,阐明算法透明度与其他伦理原则的关系;另外,技术性与操作化的保障方式,如可解释人工智能、算法审计也能发挥一定的作用(陈昌凤、张梦,2020)。也有研究者提出了“适度透明”(Appropriate Transparency)的概念,认为透明应是有限度、有效、关键以及有意义的,并分析了评价透明是否适度的四个标准,即“可信度标准”“偏见标准”“公共利益和最小伤害标准”以及“用户体验标准”(张超,2020)。总之,研究者们对于落实“新闻/算法透明度”的路径,仍未达成共识。


(四)违背个人信息保护理念

由于诸多研究存在“数据”和“信息”以及“信息隐私”和“个人信息保护权”这两组概念混用的情况,我们首先讨论一下这两组概念之间的关联和区别。事实上,虽然信息和数据概念在语义和内涵两个层面上具有差别,但“在以比特作为信息单元的数字化技术中,两者具有高度的共生性和共通性”,因而“在法律概念的使用上并没有严格区分的必要”(梅夏英,2020),所以本部分的梳理也不再对这两个概念进行区分。但“信息隐私”和“个人信息保护权”这二者却存在明显的区别:首先,二者的客体范围不同,前者的客体主要是私密性的信息,而后者的客体除了私密性信息之外还包含非私密性信息;其次,权利性质不同,前者主要是一种被动的人格权,“通常只有在权利遭受侵害时才能由权利人进行主张”,而个人信息权则是一种主动的人格权,“权利人除了被动防御第三人的侵害之外,还可以对其进行积极利用”;最后,权利内容不同,前者的内容主要包括“维护个人的私生活安宁、个人私密不被公开、个人私生活自主决定等”,而后者主要是指“对个人信息的支配和自主决定”(王利明,2012)。鉴于“个人信息保护权”在诸多维度上包含了“信息隐私”的内容,且其强调个人对信息积极、能动地利用和控制,明显更符合当下法律和伦理规制的理念,因此,本部分使用了个人信息保护这一概念。


人工智能在新闻传播实务中的应用至少在三个层面上对个人信息保护理念提出了挑战。首先,人工智能系统的复杂运作以及其自动化决策的不透明,让用户难以实现相应的知情决策权(Mittelstadt et al.,2016)。虽然各类平台会以用户服务条款的形式告知用户收集其相关信息的意图及范围,但相关实证研究证明,很多用户在未阅读相关条款的前提下仍会接受这些条款(Obar & Oeldorf-Hirsch,2020),有些隐私政策的可阅读性和可理解性很差,需要用户具有平均14.21年的教育经历才能理解(Jensen & Potts,2004),而有些移动互联网APP在隐私保护政策制定和实施方面存在霸王条款、缺乏协商机制、效果不够理想等问题(朱颖,2017)。这些研究表明,用户服务条款可能沦为形式,用户的知情决策权并不一定能得到实质上的保障。其次,用户难以控制被收集数据的使用范围,个人信息的反复流动以及被根据特定场景需求的多维度、多层面的聚合,都可能使用户难以对流动着的数据进行修正或是彻底擦除,进而使得违背个人信息保护的情况不定期、不限时地反复发生(张文祥、杨林,2020)。


最后,当未获得个人身份可识别信息时,算法依然可以通过关联、分类等方式拼凑出个人画像或是在获得群体特征之后侵犯整个群体的信息隐私,而鉴于侵犯群体信息隐私的形式更加隐蔽(Mittelstadt et al.,2016;Jaume-Palasí & Spielkamp,2017;Mittelstadt,2017),因而识别、评估相应的侵权行为和后果也愈加困难。事实上,群体的身份不能简化为个体成员的身份(Mittelstadt,2017),而群体隐私权又被界定为整个群体而非群体成员各自享有的权利(Taylor et al.,2017),因此,人工智能应用对保护群体的信息权益提出了迫切要求。然而既有的与信息保护相关的法律与伦理规范更多是从个体视角出发制定的,因此推动信息保护的法律和伦理规范在个体维度与群体维度上同步完善需要引起人们的重视。


(五)损害个体自主

个体自主通常是指个体具有自我决定的能力,能够“构建自己的目标和价值观”,并以自己认为的“有助于实现目标和增强自我价值的方式作出决定、计划和行动”(Friedman & Nissenbaum,1997),包括“行动者自主”和“行动自主”两部分(王晓梅,2016)。人工智能的应用则被认为在某种程度上损害了媒体从业人员和用户的自主。


1.人工智能应用对媒体从业人员专业自主的影响

对于“人工智能在新闻业中的应用是否损害了媒体从业人员的专业自主”这一问题,人们并没有达成共识。如有质化访谈研究发现,《卫报》和“Reuters.co.uk”的编辑认为人工智能工具没有危及编辑自主权,但《金融时报》的助理、管理编辑则称,编辑自主权可能已经受到了一定程度的侵蚀,而这可能导致新闻业的公共相关性减弱(Milosavljevic’ & Vobicˇ,2019)。


人工智能提升了新闻生产和传播的速度、规模、准确性和个性化(Diakopoulos,2019),可以在高度常规或重复的任务上节省时间和劳动力,这就在一定程度上“解放”了记者、编辑等专业从业人员,让其可以自由地从事更复杂的分析、创意和调查工作(Hancock et al.,2020)。但与此同时,由于人工智能通过数据抓取、处理和推断,能够获取人类无法获得的知识相关性,而这种形式被视为一种超越人类能力的新的知识创造形式,能够消除人类偏见,并从复杂数据中产生意义,可以弥补人类认知的缺漏(Carlson,2015),因而很多人担忧人工智能在新闻业中的应用会部分取代媒体从业人员的职能,挑战其职业权威甚至是造成其失业(Carlson,2015;Milosavljevic’ & Vobicˇ,2019)。但相关调查显示,即使是在人工智能应用方面走在最前面的新闻编辑室,也将人工智能描述为额外的、补充性的和催化性的,认为其还没有被转化为新闻实践中的有机组成部分(Beckett,2019)。而有研究者认为,人工智能及相关的自动化在大多数情况下将成为人类工作的补充而不是替代品,专业人员如设计师、编辑、记者、数据科学家和工程师等,都以直接或间接的方式做出贡献(Diakopoulos,2019)。同样,有研究发现,尽管自动化与新闻生产的相关性越来越大,但人类记者仍然被视为新闻常规化及其目的再表达的主导力量(Milosavljevic’ & Vobicˇ,2019)。但需要指出的是,适应人工智能和自动化新闻实践将会改变媒体从业人员的学习和工作方式,未来媒体从业人员不仅需要审查文件、解开线索、在采访中提出尖锐问题的传统技能,而且还需要开发定量和计算思维、设计实验、编写计算机代码来收集、分析和呈现数据的新技能(Diakopoulos,2019)。这意味着嵌入了多元主体意志的人工智能的技术逻辑,仍然起到了重新界定媒体从业人员思维、学习和工作方式的作用。


媒体从业人员专业自主的讨论还关涉新闻价值和算法价值以及新闻判断和算法判断的关系。新闻价值判断是媒体从业人员实现专业自主的核心,而人工智能在新闻传播实务中的应用已然作用于新闻价值的判断(Carlson,2018),且衍生出了一套区别于传统新闻价值的判断标准——“算法价值”(Ananny & Crawford,2015;DeVito,2017)。很多研究者曾通过实证研究探讨过“算法价值”的构成因素,如有研究者利用内容分析法,通过对算法相关文本、算法推送的新闻等材料的分析,归纳微博“热搜”算法价值的四个要素为时新性、流行性、互动性和导向正确(王茜,2020),“今日头条”算法价值观念主要包括场景、内容、用户偏好和平台优先级(王茜,2017)。有学者认为,在某种程度上算法价值可能取代传统的新闻价值(Weber & Kosterich,2018)。但也有研究证明,“算法价值”本身嵌入了多元主体的意志及判断标准,包括技术逻辑、专业逻辑、商业逻辑和公民逻辑等(Ananny & Crawford,2015)。


另外,新闻自动化实践与媒体从业人员专业自主之间的讨论,还关涉新闻商业性和公共性之间的权衡(Milosavljevic’ & Vobicˇ,2019)。有研究认为,报道信息、提供平台和监督权力为新闻媒体的三大使命,因而新闻具备公共性,其根本价值在于公共服务,但在算法主导下,新闻公共性问题特别具有紧迫性,现状和走向却令人担忧,如信息控制权掌握在几个技术寡头手里(彭增军,2020)。总之,新闻自动化实践导致的新闻商业性和公共属性之间的新张力,值得更多研究去论证。


2.人工智能应用对用户自主的影响

很多学者认为人工智能在新闻业中的应用可能损害用户的个体自主,这主要表现在人工智能可能会导致用户难以对新闻/信息源和新闻/信息真假作出判断,会影响用户对阅读内容的自主选择、对自我和世界的自主认知以及对事物反应的自主行动。


已有研究证明,人工智能的应用不但改变了用户对新闻的认知及理解方式,同时还给人们辨别新闻/信息的真假以及信息源造成了困难,在某些情况下人们无法区分来自人类的信息和来自机器的信息(Lewis et al.,2019)。其次,有基于调查法的研究发现,在使用新闻推荐平台浏览信息的过程中,用户呈现出被动式的使用模式,即往往被动接收新闻推荐,“极少主动将不感兴趣的信息进行标注或进行算法纠正,较少采取主动屏蔽行为”,因而,“自主性总体不高”(杨洸、佘佳玲,2020)。再者,推荐算法可能会引发用户对阅读内容的失控(陈昌凤、师文,2018a),这是因为推荐算法会通过计算新闻和用户以及用户和用户之间的相似度,从而最终为用户作出新闻/内容的推荐,而这就在某种程度上导致了用户并不能完全自主表达并决定自己的阅读兴趣,从而不能完全自主地选择自己要阅读的内容。另外,与特定技术的互动也是个体理解自我和“重新想象”自我的方式之一,因此人类与人工智能的互动可能改变了人们认识自我的方式甚至是人们对自我的认知(Guzman & Lewis,2020)。再有,信息多样性被认为是个体自主决策的有利条件(Bozdag,2013),且遵循协商政治的理想,并被视为评价民主社会中新闻质量的关键维度之一(Haim et al.,2018),因而很多研究者担忧,长期接触同质化信息可能会减少用户接触信息的多样性从而使人陷入“个人议程”(陈昌凤、师文,2018a),即人在认知层面可能陷入“信息茧房”“回音室”或“过滤气泡”等效应中,进而不能去观看与自己认知或观点不一致的内容,也不能关注“公共议程”,而当这种个人状态在具体的舆情事件中发生集群效应的时候,很可能造成观点或行为方面的“群体极化”,从而不利于“协商民主”的实现。然而,有实证研究测试了隐性和显性个性化对谷歌新闻内容和来源多样性的影响,发现除了隐性个性化对内容多样性的微小影响之外,并没有发现其他支持“过滤气泡”假说的证据,因而认为人们对网络新闻背景下算法会导致“过滤气泡”的担忧可能被夸大了(Haim et al.,2018)。另有实证研究证明,推荐算法可扩大用户接触资讯的范围(杨洸、佘佳玲,2020),能够产生多样化的推荐集且基于用户历史的推荐能够显著增加推荐集中的主题多样性(Möller et al.,2018)。也有实证研究证明,算法推荐类APP的使用总体上对用户意见表达和社会参与的正向效应殊为显著(周葆华,2019)。而且,事实上同质化信息的强化并不一定会阻碍信息接收者的公共参与,相反另有研究证明,强化性信息丰富了信息接收者的政治认知和参与度(陈昌凤、仇筠茜,2020)。因而,推荐算法是否真的会作用于用户接受信息的多样性并进一步作用于用户对世界的认知从而影响用户的相关行动,并因此导致用户在“认知—态度—行动”链条的各个环节上缺乏实质自主,需要更多的实证研究证明。


通过对上述文献的分析我们可以发现,在新闻业相关的研究中,与人工智能有关的伦理探讨大量分散在人工智能参与的新闻传播实务相关的研究中,专门探讨伦理问题的文献较少,但近几年有增多的趋势,且在中国学术界这一趋势明显。而在专门讨论人工智能伦理问题的研究中,鲜少有研究建构起比较完善的伦理分析框架。而这其中Dörr & Hollnbuchner(2017)的研究尤为值得关注。两位研究者首先为算法新闻伦理寻找定位,发现作为新闻伦理和赛博伦理的一部分,算法新闻伦理与数字媒体伦理领域重叠,且包含信息伦理、网络伦理、机器或机器人伦理和计算机伦理的相关内容;之后又根据Weischenberg et al.(2006)对新闻领域的分类(社会、组织和职业领域)、Pürer(1992)的责任伦理多重体系和算法新闻技术派生出来的属性(输入、处理和输出过程),建构起了分析算法新闻伦理问题的框架(Dörr & Hollnbuchner,2017)。


四、新闻业智能化转型过程中的伦理归责探讨

考虑到人工智能在新闻传播实务中的参与可能引发上述诸多伦理争议,那么,当伦理争议发生时,相关的责任主体到底包含哪些呢?到底应该如何归因呢?


有研究者认为,在传统新闻业中,媒体从业人员是主要的道德代理人,而人工智能的参与导致了新闻业的“责任转移”(Dörr & Hollnbuchner,2017),原先的媒体从业人员不再是主要的道德代理人,而其他参与新闻传播实务的人类或非人类的行动者如算法、内部和外包的程序员、数据收集者和挖掘者等都可成为道德代理人(Milosavljevic’ & Vobicˇ,2019)。另外,新闻业智能化转型过程中还产生了网络的责任方并由此催生了道德分散(Ethical Dispersion)模式(Orr & Davis,2020),利用德里达(Derrida)和福柯(Foucault)的“作者函数”(Author Function)的概念来解释,就是各利益主体都会作用于人工智能系统的生成和改变,因而人工智能系统的“真正设计者”总是多重的并且处于不断的变动中(Jacobsen,2020),这些共同意志促成了无数不可知的结果(Orr & Davis,2020)。最后,自动化新闻实践还加剧了伦理归责的复杂程度,因为没有一个从业者能够理解人工智能系统的每一技术细节或参与每一次对话,而利益相关者之间又存在复杂的互动关系,因此,从自动化新闻传播实务中提炼出道德代理人,并将责任归于任何一个行动者或利益相关者,都是令人望而却步的复杂任务(Reddy et al.,2019)。


有研究者通过访谈人工智能相关的专业实践者以探究其对伦理责任归属的认知,认为尽管从业者对伦理责任及归属的认知并不代表任何客观的伦理理想,但是却揭示了伦理是如何在程序、决策和物质产品中表现出来的以及这些表现所包含的相关责任(Orr & Davis,2020)。研究发现,在这些人工智能专业实践者眼中,人工智能是一种社会技术系统(Sociotechnical Systems),每个利益相关者都在最终产品上留下印记,而客户、其本身、用户以及人工智能技术,都对人工智能系统在整个生命周期中可能造成的伦理争议负有责任;人工智能专业实践者并不是道德上的自主代理人(Morally Autonomous Agents),而是受约束的自主代理人(Constrained Autonomous Agents)或是中介专家(Mediating Experts),因为诸多因素作用于人工智能实践者的道德伦理决策,如外部惯例、法律、客户和权威人物是他们进行道德决策的指导,专业技术特长赋予了他们个人的道德特权,组织的政策和非正式规范是个人做法的道德基准;另外,受访者认为他们的专家地位使得他们不可或缺,也拥有一定程度的个体自主,在编码他人议程的同时,拥有伴随技术制造过程的道德责任;而立法条例(决策者和立法当局)、组织规范和客户对人工智能系统中参数的设置负有责任;用户也被认为是重要的责任主体,以市场力量或行为自主作用于人工智能系统的参与和评估,用户不仅会拒绝他们认为不道德的系统,支持那些符合文化伦理标准的系统,还可能以出乎意料和创造性的方式使用技术,因而用户参与了人工智能系统的后生产开发(Post-production Development)从而为之负有责任;最后,人工智能技术本身也被认为具有自主性,从而需要为过程中产生的伦理争议承担一定的责任(Orr & Davis,2020)。那么,实际上专业从业人员的伦理水平是怎样的呢?有研究通过对算法工程师的问卷调查发现,“整体而言,传媒业中算法工程师的算法伦理水平一般,相当比例的算法工程师的算法伦理价值观处在一种模糊状态”;将一般伦理即“尊重权益”“诚实可靠”和“客观公正”与专业伦理即“透明”“及时”“分享”和“积极导向”对比,发现算法工程师对专业伦理的认识更为薄弱,且对“透明”“及时”和“分享”三大伦理理念的态度并不积极(袁帆、严三九,2020)。


事实上,专业从业人员需要为自己的专业实践负责已基本成为共识,但技术和用户是否可以成为伦理责任的主体却存有争议。


在“人工智能是否可以作为责任主体”这一问题上,多数研究认为人工智能并不能被当作责任主体。如有研究者认为虽然人与技术相互构成,但应该是人类而非技术为相应的后果负责(Schraube,2009)。有研究认为,算法的自动化决策被认为是算法设计师、数据科学家和用户等所有相关行动者意图的综合结果,因而算法并不能真正做到“自主决策”,也不能作为承担责任的主体,责任只能归因于指导和设计算法过程的人或是那些有机会影响、控制特定算法步骤的人(Jaume-Palasí & Spielkamp,2017)。也有研究认为,从新闻伦理主体性的实践维度和价值维度进行辨析,再结合“社会因素对人工智能伦理主体地位的制约和影响”,可以发现人工智能并不能成为新闻伦理主体,机构如新闻媒体、网络技术公司等和个人如记者、编辑和算法工程师等才是智能时代新闻伦理的主体(薛宝琴,2020)。同样,有研究认为,智能媒体是有限自主的弱智能体,“智能媒体伦理追问适用的伦理架构并没有超出以人为中心的一般工程伦理,其伦理风险的实质是人与人之间的控制与反控制危机”,因此,“智能媒体的伦理调适其实是对与智能媒体相关的人类主体进行规范性约束”(耿晓梦、喻国明,2020)。那么,在经验世界中,当人工智能和人类都违背伦理原则,尤其是当此类决策是由人工智能和人类共同制定的时候,人们到底会如何归责呢?有实验研究表明,在两种联合决策结构(人类监控人工智能或人工智能向人类推荐)中,人们将更多的许可和更少的错误归于人工智能而不是人类,而对人工智能和人类共同错误行为的指责表明,在伦理归责方面,人工智能有可能成为人类的替罪羊(Shank et al.,2019)。


在“用户是否可以作为责任主体”这一问题上,有研究认为,信息/新闻的来源和作者可见,是用户履行道德责任的重要条件,但诸多实证研究证明,用户很难区分人类新闻工作者和算法创造的内容(Clerwall,2014;Van der Kaa & Krahmer,2014),另外,用户也无法确定其接收到的信息是否正确或具有统计偏差,因而虽然用户正在控制算法新闻学的需求和形态,但用户却无法履行其道义上的责任(Dörr & Hollnbuchner,2017)。而有研究则借鉴福柯与美德伦理学家的相关观点,提出了“算法主体化”(Algorithmic Ethical Subjectivation)这一概念,并通过对用户的访谈指出,非专业的终端用户在社交平台算法决策的规范意义指导下,有意识地进行普通的反思实践并改变自己的组成部分进而成为自己渴望成为的人,以实现某种伦理模式。这就提醒我们,在某种程度上用户不仅无法承担相应的责任,且其道德自我都可能被改变,而理解这些技术平台权力的规范性后果尤为重要。


通过上述研究我们可以发现,互动关系以及其上承载的利益和权力关系是进行伦理归责的重要标准。因此,在新闻业智能化转型的过程中,伦理视角也应从单个行为体转向更广泛的网络关系,并要持续关注各主体对伦理关系的影响及相应的结果。而由于人工智能以及其与各类主体之间的关系一直处于动态的变化过程中,因而人工智能伦理是网络化的、动态的、不断变化的,而这种伦理的灵活性,恰恰适用于当人工智能系统朝着不可想象的方向变动时,媒体组织应具有的调整机制(Orr & Davis,2020)。


五、结论

本文通过对国内外新闻传播学核心期刊中智能媒体相关文献的梳理,发现这些研究的主题主要聚焦于新闻传播实务变革、新闻传播学研究范式革新、伦理争议及伦理归责。总体而言,关注新闻传播实务变革的研究最多,这些研究多采用实证方法,能够基于人工智能相关应用的技术原理、技术局限等因素并结合具体实例,探究人工智能在新闻采集、生产、分发和核查等环节发挥的作用及影响,并对由此融合拓展的新旧议题如“算法/新闻可信度”“信息茧房”以及“民主制度中媒体的角色”等进行深入探究。关注伦理争议的研究次之,这类研究多利用思辨的方法探究智媒应用过程中可能引发的伦理争议,包括“非真实”“偏见和歧视”“低透明度”“违背个人信息保护”和“损害个体自主”等主题。少量研究关注伦理归责问题,包括伦理责任主体的区分、归责依据的探讨以及伦理责任体系的构建。少量研究关注到,智媒应用已在新闻传播本体论层面引发了诸多“元问题”的探讨,而此类反思对于创新新闻传播学理论,革新新闻传播学研究范式,具有重要意义。综上所述,本文认为,未来与智能媒体相关的研究可以基于新闻传播实务的变革进行伦理和本体论层面的探讨;在新闻传播实务和伦理争议及归责的研究中需要超越对经验案例的讨论,以进行理论层面的抽象和归纳;而在探讨伦理争议和归责以及本体论的相关问题时,可以基于实证的研究方法,寻找更多的经验支撑。


注  释


①该报告调查了来自32个国家或地区、71家新闻机构中的116名受访者,且大多数受访者都是技术专家,也被称为“数字早期采用者”。另外,报告还结合了访谈、研讨会和新闻发布会等方面的内容。


②该报告调查了来自43个国家或地区的234位受访者,包括52名总编辑、45名首席执行官或董事总经理和29名数字部门负责人,他们均来自世界领先的传统媒体公司和数字原生组织。


③受访者为4594名美国成年人(年龄在18岁以上)。


本文为国家社科基金重大项目“智能时代的信息价值观引领研究”的阶段性成果,项目号:18ZDA307。




本文参考文献从略,完整版请参看刊物原文

原文刊载于《全球传媒学刊》2021年第1期。



全球传媒学刊

微信号  |

GJMS2014 (←长按复制)

   箱  |

gmj2014@tsinghua.edu.cn 

唯一指定投稿系统地址  |

http://qqcm.cbpt.cnki.net

*本刊不以任何形式向作者及单位收取版面费、审稿费、中介费等费用。


望学界业界垂青,我们共同助力中国新闻传播学研究。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存