智能时代的媒介伦理:算法透明度
算法透明度有怎样的内涵?其实施有何种可能?新闻传播中实施算法透明度有何路径?
“算法透明度”是现阶段智能技术(以深度学习/神经学习技术为核心的二代智能)无法避开的难题。智能时代媒介伦理问题的重要解决之道,更是智能时代媒介伦理的重要原则。为此我们写文作了一些探析,这里摘一篇中的部分内容。
一、在“技术社会集合”中探讨“算法透明度”的概念
在信息管理和商业伦理等方面的研究中,“透明度”常被用于指代信息可见的形式,特别是指“通过一系列有意的披露过程,获知信息、意图或行为的可能性” (Turilli & Floridi, 2009)。一般而言,透明度主要包括信息的可访问性和可理解性(Mittelstadt et al., 2016)。
作为处理数据的运算和决策步骤,以“自动化决策”(Jaume-Palasí & Spielkamp, 2017)为核心功能的算法,早已被应用于“新闻/内容生产”“新闻/内容分发”和“新闻/内容核查”三个环节。在“新闻/内容生产”环节,算法可以被用于“获取新闻/内容线索”(NewsWhip,2016)以及“自动化生成新闻报道或文章”(Dörr, 2016)。在“新闻/内容分发”阶段,算法主要被用于实现“智能化新闻策展”(陈昌凤& 师文, 2019)、“个性化新闻/内容推荐”(Thurman, 2011; 陈昌凤& 师文, 2018)、“智能化新闻/内容播报”(张蓝姗& 任雪, 2019)以及“智能化新闻/内容传播效果分析” (Newman, 2019)。最后,“事实核查”(陈昌凤& 师文, 2018b)一方面会嵌入“新闻/内容线索获取”、“新闻报道/文章自动化生成”以及“新闻/内容分发”等诸多过程中,同时也可作为单独的过程而存在,而以算法为基础的自动事实核查工具可以辅助专业从业人员完成新闻/内容的事实核查(Graves, 2018)。总之,算法在上述领域中的嵌入促生了“异质新闻/内容实践网络”,在该网络中,算法和人类的作用交叠互构、难以区分(Turilli & Floridi, 2009)。另一方面,高维度的数据、复杂的代码和可变的决策逻辑等因素又导致算法自动化决策本身缺乏可解释性(Mittelstadt et al., 2016)。这些都对重新解释“异质新闻/内容实践网络”中的“透明度”概念并探究实现“透明度”的路径,提出了迫切的要求。
迪克普勒斯(Nicholas Diakopoulos)和科利斯卡(Michael Koliska)(2017)认为新闻媒体中的“算法透明度”可以被理解为“阐明那些与算法有关的信息可以被公开的机制”,包括“披露算法如何驱动各种计算系统从而允许用户确定操作中的价值、偏差或意识形态,以便理解新闻产品中的隐含观点”。该定义更偏重算法内部自动化决策机制的公开,却并未明确界定算法与其他社会诸要素之间的互动及结果等要素是否也要公开。而事实上,早有学者提出,仅公开算法系统内部信息并不能实现真正的“算法透明度”,算法系统是人类和非人类行为的集合(Turilli & Floridi, 2009;Gillespie,2014),要让算法系统负责,不仅要公开算法系统的内部信息还要披露其与其他主体的互动关系以及由此形成的“行动者网络”是如何发挥作用的(Ananny & Crawford, 2018)。
“技术哲学经验转向”中两种取向对打开技术“黑箱”的论述可以为我们重构“算法透明度”的概念提供借鉴。“面向社会的技术哲学”认为“‘经验’是现实中技术与社会之间具体的、全面的相互影响”,其打开“技术黑箱”的方式包括“将技术看作由众多社会因素共同作用而成,从而去分析技术的具体发展和构成”,“强调技术的情景化运用,认为需要对技术作具体分析”,“探讨技术与社会的协同进化问题”等(Achterhuis,2001;潘恩荣,2012)。而“面向工程的技术哲学”则认为“经验”是工程师眼中的技术研发经验,其打开“技术黑箱”的方式包括强调技术哲学家需要与一线工程师一起工作,且必须首先掌握“工程语言”,“澄清工程实践中使用的各种概念及其体系,如工程、设计、技术人工物、结构和功能”(Achterhuis,2001;潘恩荣,2012)
综合上述讨论,本文认为“异质新闻/内容实践网络”中的“算法透明度”可以被界定为:阐明那些与算法有关的信息可以被公开的机制,包括信息透明、理念透明和程序透明。“与算法有关的信息”包括算法利用的各类数据或非数据信息、算法的内部结构、算法自动化决策的原理、算法与其他社会诸要素之间的互动和这些互动对算法本身的重塑以及算法相关信息公开过程中所涉及的信息等;而“机制”主要指保障算法相关信息公开的理念化和程序化的操作。
二、算法透明度的哲学基础和专业意义(略)
三、“算法透明度”的认识与实践:实施之难与风险(略)
四、实施算法透明度的路径
1.基于“开放伦理”的理念
沃德和沃瑟曼(2010)曾提出“封闭伦理”和“开放伦理”(Open Ethics)这一对概念,他们认为“‘封闭’和‘开放’是伦理的一般特征,主要指如何使用、讨论、批判和改变伦理规范”以及“谁控制讨论”,而二者之间的区别标志着“伦理行为方式的不同”。“‘封闭伦理’的指导原则主要(或仅)针对相对较小的人群,并对非成员参与讨论、批评和修改指导原则的意义进行了实质性限制”,而“‘开放伦理’的指导方针是为了更大的群体,且对非成员的有意义参与,包括影响内容变化的能力,设置了越来越少的实质性限制”,“鼓励对所讨论的伦理话语采取更加开放和参与的方式”。(Ward & Wasserman, 2010)
以“开放伦理”的视角讨论实施算法透明度的路径具有重要意义。一方面,用户作为一种另类的“生产消费者”在算法所嵌入的社会网络中发挥着重要的参与作用,既可以将自己的需求提供给算法及相应的使用主体,以作用于新闻/内容的生产和分发等,又可以在与算法的互动过程中满足自己的信息、认知和使用等需求,既是使用者也是生产者。所以,将用户对算法透明度”的认知、态度与需求纳入“开放的‘算法透明度’”伦理话语建构中具有现实的必要性。另一方面,从伦理论证和决策的程序而言,用户意志的纳入也为打破既有“封闭伦理”话语形式以及专业人士与非专业人士在伦理话语形成过程中的权力不平等模式提供了可能性。最后就是从算法透明度的实现效果来看,若缺少“批判用户”的参与,算法透明度的实现就缺乏最直接的“责任对象”和检验者,而目前很多主体为实施算法透明度而达成的各种妥协,其实是在用户没有完全理解的情况下默示达成的,而这可能导致潜在的损害(Bertino, Merrill, Nesen, & Utz, 2019)。
2.使用算法的主体实施算法透明度可采取的举措
(1)算法相关信息及其生成过程的公开
贝尔蒂诺(Bertino)和美林(Merrill)等学者(2019)提到,数据透明度主要包含记录透明度、使用透明度、披露和数据提供透明度、算法透明度以及法律和政策透明度。迪克普勒斯(Nicholas Diakopoulos)和科利斯卡(Michael Koliska)(2017)曾从数据、模型、推断和界面四个层面总结了算法系统透明度涉及的因素。本文归纳实现“异质新闻/内容实践网络”中的算法透明度应该公开的信息(略)。
另外,公开信息的生产过程及其中是否遵守了相应的伦理原则也至关重要。有学者提出了“数据到信息转化过程的模型”,认为信息透明度不仅意味着披露信息,还应该披露此类信息是如何产生的,包括信息是如何收集、关联和解释的,以及产生这些信息的过程遵循了怎样的伦理原则,而这些都决定了通过“信息透明度”实现伦理原则的可能性。(Turilli & Floridi, 2009)
(2)算法透明度与其他伦理原则关系的公开
特瑞利(Turilli)和弗洛里迪(Floridi)(2009)认为,信息透明度本身不是一项伦理原则,但是却与伦理原则存在依赖和监管关系:一方面,问责、安全、福利和知情同意等伦理原则的实施依赖信息透明度的实现,另一方面,隐私、言论自由和版权等伦理原则的实施则需要监管信息透明度。因此,要明确“算法透明度”原则是否真正起到伦理规范作用,必须明确其与其他伦理原则之间的关系。
(3)技术性与操作化的保障方式
发展“可解释的人工智能”对于实施算法透明度具有重要性(Miller, 2019; Rader et al., 2018)。然而,所谓的“可解释性”基于一种对比的原理,是被选择的且还可能受到某些认知偏见等影响,可能致使“可解释的人工智能”造成重要的社会和计算后果(Miller, 2019)。
算法审计(Algorithm Audits)也被认为是实施算法透明度的重要机制,可以调查算法决策系统如何工作及其影响(Rader et al., 2018; Sandvig, Hamilton, Karahalios, & Langbort, 2014)。桑维(Sandvig)和汉密尔顿(Hamilton)等人(2014)描述了“算法审计”可以操作的不同级别及相应的不同类型的可见性和责任性。但是,“算法审计”通常必须在算法系统供应商同意的前提下进行,而很多供应商通常在其服务条款中禁止使用审计技术(Rader et al., 2018)。
用户服务条款也可以算作实施算法透明度的举措之一。然而,很多用户服务条款太过冗长、用语过于专业化,用户难以理解,易沦于形式化。人们虽然已接受了相关的条款但却并未阅读(Obar & Oeldorf-Hirsch, 2020),有些隐私政策可阅读性和可理解性很差,需要用户具有平均14.21年的教育经历才能理解(Jensen & Potts, 2004)。于是,很多主体尝试开发一些帮助用户理解相关条款的一些人工智能工具(Abdulkader, Lakshmiratan, & Zhang, 2016; Lomas, 2017)。
监管机构与行业自律组织颁布的各种伦理指南或法律法规会对相关主体实施算法透明度起到规范和引导作用。用户也有能动作用,通过反复体验系统而意识到算法,也可以被激励从而进一步去了解算法的自动化决策结果,甚至还可以创建解决方案来避免算法自动化决策造成负面的结果。(Rader et al., 2018)
五、结语
本文重新界定了“算法透明度”的概念,通过分析,我们发现,透明度原则的核心思想被很多学者认为是植根于康德对“人性原则”和“责任”的论述,而这在哲学层面提供了相关主体需实施算法透明度的伦理话语的合法性基础;但从实用功利主义的角度来看,算法透明度的实施有其困难、风险以及局限性。
“开放伦理”可以成为实施算法透明度相关实践和话语的指导理念。需要重视非专业化的组织、群体和个人尤其是用户在其中的重要作用,同时又必须基于具体的实践以及各主体之间的复杂互动关系、不同等的话语权,其中用户的话语权更是被忽视。因而,在伦理原则的制定、伦理判断、伦理抉择以及信息公开等所有实施算法透明度的环节中,都要考虑用户的认知、态度与需求,这对促进“异质新闻/内容实践网络”中各主体的对话,改善各主体在伦理话语权方面的不平等具有重要意义。使用算法的主体可通过“公开与算法有关的信息及相关信息的生成过程”以及“公开‘算法透明度’与其他伦理原则的关系”来实施“算法透明度”。这意味着,算法透明度包括信息的公开即“信息透明”、指导理念和原则的透明即“理念透明”,以及保障各种操作化程序的透明即“程序透明”。通过对相关技术和操作化方式的分析,我们可以发现,可解释人工智能、算法审计和用户服务条款虽能在形式层面实现某种透明度,但却可能导致不良的社会后果,因而我们需要对“用发展的方式来解决发展问题”以及“用技术的方式来解决技术问题”此类理念保持警惕。
作者:陈昌凤,张梦
《新闻与写作》2020.8
相关文献: