【文章精选】王戈、张哲君|任务客观性、情感相似度何以影响算法决策感知公平与接受度? ——基于调查实验的实证分析|2023年第6期
任务客观性、情感相似度何以影响算法决策感知公平与接受度? ——基于调查实验的实证分析
◉王戈 张哲君
【摘要】伴随着新一代信息技术的纵深发展,算法决策极大提升了政府决策的科学性和精准性。与此同时,算法决策带来的算法歧视、决策”暗箱”、责任性缺失和可解释性不足等困境,导致政府面临着新的决策公平性挑战。本研究基于简化理论和计算机作为行动者理论,分别从人工智能算法简化性视角下的任务客观性和拟人化视角下的情感相似度出发,构建了2(算法任务客观性:主观任务vs客观任务)×2(情感相似度:高vs低)的两因素被试间实验,以1356位上海市居民为被试,分析了任务客观性对公民算法决策接受度的因果关系,检验了情感相似度在这一过程中的调节作用以及感知公平的中介作用。研究发现,相较于执行主观任务,公民对算法决策执行客观任务时的感知程序公平、分配公平和接受度更高。相较于高情感相似度,低情感相似度的情境进一步强化了公民对算法决策的感知程序公平、分配公平和接受度。且当情感相似度较低时,感知程序公平、分配公平在算法决策客观性影响算法决策接受度之间发挥有调节的中介效应。本研究对于算法决策简化属性的情境变化和拟人化边界做了思考,并对公共部门如何引入算法进行辅助决策和改进算法设计提出了对策建议。
【关键词】算法决策;情感相似度;感知公平;行为公共管理;调查实验
【作者介绍】王戈:华中师范大学公共管理学院讲师,wangge411@ccnu.edu.cn。张哲君 (通讯作者):华中师范大学公共管理学院硕士研究生,zzj20212021@163.com。
【引用格式】王戈,张哲君.任务客观性、情感相似度何以影响算法决策感知公平与接受度?——基于调查实验的实证分析[J].公共管理与政策评论,2023,12(6):77-95.
—文章结构—
一、引言
二、理论基础与研究假设
(一)算法决策
(二)任务客观性与算法决策接受度
(三)感知公平的中介作用
(四)情感相似度的调节作用
三、实验设计
(一)样本和数据收集
(二)调查实验
(三)变量测量
四、分析
五、讨论
(一)主要结论
(二)理论意义
(三)实践意义
(四)不足和展望
一、引言
伴随着新一代信息技术的纵深发展,大数据、人工智能等新兴技术深刻地影响着经济社会发展以及国家治理,以数字治理为核心特征的政府数字化转型成为全球治理转型的核心议题。算法决策作为以大数据为基础的、以机器学习及深度学习算法为核心的人工智能自主决策系统,可以通过自我学习从大量数据或案例中自动抽取出特定规则,极大地推动了政府治理方式的变革。近年来,算法决策已经在行政执法、司法判决、智慧交通、应急管理等公共领域被广泛应用。例如,在行政审批领域,深圳市的”秒批”、天津市企业登记的”零见面”智能审批相继出现,系统利用人工智能算法自动审核材料完整性和准确性,其领域已经覆盖人才引进、高龄津贴申请、商事登记等环节,显著地提高了行政审批效率。算法决策的深度嵌入正驱动政府治理朝向行政决策自动化、公共服务精准化的方向转型,有效提升了政府治理的时效性、精准性和预测性。然而,算法决策嵌入政府治理也面临着算法歧视、决策”暗箱”、责任性缺失和可解释性不足等困境。
在”政府-公民”互动的情境下,公民对政府决策的感知体验与反馈是行为公共管理研究的重要内容。随着算法在政府决策中扮演的角色越来越重要,公民对算法决策的态度与行为逐步得到国内外学者的关注,已有研究中存在两种基本观点。一种是算法欣赏(algorithm appreciation),即人们更愿意遵循来自算法而非人类的建议;另一种则是算法厌恶(algorithm aversion),尽管人们认为算法在某些方面优于人类,但仍然会拒绝来自算法的建议。与这两种总体观点紧密相关的是公民对算法决策的感知公平和接受度的影响。感知公平是指对决策环境中反映适当性的规则的感知遵守;算法决策接受度是指目标群体对利用算法系统做出的可改变自身态度、行为的决策结果所持有的认可和接受程度。近年来,公民对算法决策的感知公平与接受度褒贬不一,并未呈现一致的研究结果。大量研究表明公民对算法决策的态度与行为具有高度的情景依赖性,会依据具体决策情景的变化而变化。
相比于传统自动化系统,随机森林、强化学习、深度学习等新一代算法模型能够从大量无监督和未分类的原始数据集中自动提取复杂数据,对数据的量化分析能力也得到显著增强。简化理论(theory of reductionism)认为,当外部世界的信息被量化处理时,非量化的质性信息会被删除或被简单表征,这种被简化的感知会引发个体对信息客观度的消极反应。Newman等进一步发现,算法决策的简化属性感知越高,越被认为决策过程中对量化指标的考量和去情景化的程度越高,从而认为人类决策比算法决策更公平。因此,从人工智能算法简化性的视角来看,算法决策在执行不同任务中所展现的信息简化程度可能会影响公民对算法决策的态度和行为。另外,随着自然语言处理等机器学习技术的迭代升级,人工智能拟人化程度不断加深,如OpenAI开发的ChatGPT已经能够学习和理解人类语言,并根据语境与人类进行聊天沟通,满足人类的情感需求。计算机作为行动者理论(computers as social actors)认为,人们对算法的反应是”社会性的”,即人们在与算法交互时,会将人与人交互过程中的社会规则、规范和期望运用到人-机交互情境中。基于该理论,Pelau等人指出,人们希望算法像人类一样具有共情等社会属性,缺乏共情以及处理复杂情况的能力使得人们不愿意接受算法决策。在人机交互过程中,某些特定类型的算法已经部分拥有了人类的社会属性(如共情),开始执行需要与人互动交流的社会活动。因此,从人工智能算法拟人化的视角来看,感知人-机相似度尤其是感知人-机情感相似度也是影响公民算法决策感知的重要因素。
综上所述,随着人工智能算法与政府治理的深度融合,政府治理决策开始呈现一种智能化和算法化的转型取向。一方面,技术的嵌入为政府治理带来了”技术赋能”的效用;另一方面,”技术负外部性”也导致公共部门面临着公平、责任性、透明度、可解释性等公共价值问题。2022年6月发布的《国务院关于加强数字政府建设的指导意见》指出,满足人民对美好生活的向往是数字政府建设的出发点和落脚点,当算法通过辅助决策或直接决策决定各种社会公共问题以及利益诉求时,公民对算法决策接受与否小至影响社会个体的切身福祉,大至关乎民心向背与政权的兴衰存亡。因此,了解公众对算法决策接受度的影响机制对于推进政府治理智能化、建设人民满意的数字政府至关重要。本研究将补充已有算法决策公平性和人工智能领域的研究内容,并为政府部门科学借助算法、人工智能等数字化技术进行数字化转型实践创新提供借鉴。基于此,本研究围绕公共领域中的算法决策感知公平与接受度展开实证研究,具体结构安排如下:第二部分梳理了算法决策的概念内涵及其在公共部门中的适用性,回顾了公民对算法决策的感知体验与行为反馈的现有研究,从而提出研究假设和分析框架;第三部分介绍了2(任务客观性:主观任务vs客观任务)×2(情感相似度:高vs低)的两因素被试间实验设计;第四部分探讨了任务客观性对算法决策接受度的因果关系,检验了感知公平在这一过程中的中介作用以及情感相似度的调节作用;第五部分讨论研究结果,总结本文的研究发现,并说明本文的不足与未来的研究方向。
二、理论基础与研究假设
(一)算法决策
在计算机领域,算法是指计算机可以遵循执行一项任务的一组步骤=。数学领域将算法定义为”计算函数的过程”。这些定义强调了算法是通过遵循某项规则从而实现某项任务。受益于计算机、互联网、人工智能、区块链等一系列数字技术的发展运用,算法的影响力日益增加,在成为人类生产生活基本规则的同时,也重新构建了人类社会的权力关系。从20世纪50年代线性模型的出现,到近年来不断发展的机器学习,算法在生活中已逐渐辅助或取代人类,承担着很多决策任务。算法决策是基于统计模型或决策规则自主地做出决策的过程,而无需明确的人工干预。算法决策是增强决策制定、决策辅助、决策支持系统、专家系统、决策公式、计算机化辅助和诊断辅助的总称。相较于人类决策,算法决策具有更高的处理速度、更少的偏见、更高的精度等优势。
除了私人部门,算法决策也被广泛应用在公共部门的管理决策中。例如,利用算法决策决定收集城市垃圾的最佳方案、估计犯罪行为的可能性、评估教师的绩效、庇护与居留许可申请等。算法决策的引入有助于决策者快速全面获取信息,提升决策精准性和针对性,合理调配有限资源,提升公共服务质量。随着算法决策在社会、经济、生活各个领域的广泛应用,个体对算法决策的态度和行为受到了国内外学者的广泛关注。一方面,在人机协同决策过程中,过往研究着重比较个体对人类决策与算法决策在公平、信任、满意度、理解度、合法性、情绪反映等方面的感知差异,表现出算法趋近和算法回避两种截然不同的态度与行为倾向。同时,个体对算法决策和人类决策的感知与行为差异具有高度的情境依赖性,在不同的决策类型、任务技能、任务复杂性、任务重要性和社会群体代表等具体情境中呈现出差异化的结果。另一方面,在算法独立决策过程中,过往研究主要关注不同类型的人工智能算法应用对个体态度与行为的影响,如Wang等人发现公民通常认为规则驱动型算法决策比数据驱动型算法决策更公平、更容易接受。同时,个体对算法决策复杂态度与行为背后的触发机制同样引起了广泛关注,主要从算法特征、个体特征以及互动过程三个角度加以探讨,如算法特征下的透明度、可调整度、可解释性、可问责性等,个体特征下的熟悉度、人格特征、算法使用经历、算法素养、政治意识形态等,互动过程下的决策重要性、任务情景等。然而,过往研究大多集中在商业、企业管理等私人领域的算法决策感知,鲜有研究从算法简化性和拟人化的视角出发,对公共领域的算法决策态度与行为开展实证探索。人工智能的不断发展推动算法逐渐超越了单纯的工具属性,成为新的权力形态,并在私人领域率先普及,逐渐渗透至公共领域。公共部门决策在本质上是社会公共权威对社会资源和社会利益的权威分配,相比于私人领域以利益最大化为目标,公共领域则是以抽象的”公共利益”为最大目标,远比私人领域复杂。同时,公共领域中公民对算法决策的态度和行为差异可能会加剧不平等感知,破坏政府合法性甚至引发政治冲突,因此公共领域中算法决策的感知公平与接受度至关重要。针对过往研究的不足,本文基于简化理论和计算机作为行动者理论,从人工智能算法简化性视角下的任务客观性和拟人化视角下的情感相似度出发,重点关注公共领域中算法决策感知公平和接受度问题,探究复杂背景下公民对算法决策的态度和行为的影响差异。
(二)任务客观性与算法决策接受度
简化理论认为,当外部世界的信息被量化处理时,非量化的质性信息会被删除或被简单表征,这种被简化的感知会引发个体对信息客观度的消极反应。值得注意的是,还原论(reductionism)的哲学观点与生理还原论(physiological reductionism)的心理学观点存在本质区别:前者认为复杂的系统、概念或现象都可以被分解成更基础的、更简单的成分或规律,并且这些基础成分或规律可以解释或预测原来较复杂的系统、概念或现象;而后者从神经生物学的角度出发,认为人的心理现象和行为都可以被解释为大脑和神经系统的活动和反应。人们将还原论的主要思想应用于人工智能领域并用来解释算法决策的数据输入与结果输出过程,进而发展为简化理论。结合简化理论,不少研究表明算法决策的简化属性感知是造成个体对算法决策和人类决策感知差异的重要内在机制。算法决策的简化过程主要包括”量化”和”去情景化”两个重要环节:算法由于强调量化而忽视了质性信息,导致了人们认为算法是去情景化的,或者说量化算法略去了重要信息而无法准确衡量组合不同信息,进而导致了去情景化,从而最终影响个体对算法决策的态度与行为。具体而言,算法基于强大的数据运算能力,在海量的数据中筛选出需要的数据,利用代码、程序、深度学习等技术对公民产生的大数据快速处理并做出决策,这种强调量化分析的决策方式,往往会忽视非量化的质性信息,导致人们认为算法是简化的和去情景化的,进而影响公民对算法决策的态度与行为。大量研究表明公民对算法决策的态度与行为具有高度的情景依赖性,会依据具体决策情景的变化而变化。Nagtegaal基于决策过程的复杂程度将决策情境分为低复杂度和高复杂度,并发现相较于高复杂度的决策情境,算法决策在低复杂度情境下执行任务有更高的程序公平。Martin和Waldman研究发现随着决策任务重要性的增加,公民对算法决策的合法性感知会逐渐降低。Castelo等提出任务客观性的概念,同时将算法执行的决策情境划分为客观任务和主观任务,并发现消费者对算法执行客观任务的信任程度更高。与任务重要性、任务复杂性等概念不同,任务客观性更加关注的是决策过程中决策信息是否可以量化以及是否需要依靠共情能力对质性信息进行分析,而任务重要性是从决策的重要程度以及决策失误会造成的后果出发,对决策场景进行分类并对其感知差异开展分析,任务复杂性则是从困难程度对任务进行分类并加以分析。任务的客观度并不是给定任务中完全固有的,而是一种可塑的感知,在不同的人之间和随着时间的推移都具有异质性。然而,鲜有研究从任务客观性的视角探讨公共领域中算法决策的感知公平与接受问题。参考任务客观性的普遍概念,我们将算法决策在公共领域中的决策情境划分为主观任务和客观任务。其中主观任务是指该任务很大程度上是需要发挥决策者自身的主观能动性,对质性信息进行分析,依靠情绪识别、共情等能力进行价值判断和政治权衡,往往难以进行量化。该任务的类型一般涉及公共安全、道德伦理、社会权利等问题,例如量刑建议、假释决定等。在现实中,该类任务因无法量化,难以通过建立定量模型对其进行分析。而客观任务是指任务很大程度上是需要关注可量化的数据,通过建立数据模型对海量数据进行分析,而较少涉及价值判断与权利的分配等人类的能力属性,例如交通拥堵管理、征税等。
基于建议者-决策者系统分析框架(judge-advisor system, JAS),过往有关算法决策接受度的研究重点从个体特征、算法特征以及互动过程三个方面探讨影响算法决策接受度的关键因素。从个体特征来看,年龄、性别、受教育程度、过往经历等个体差异能够显著影响公众对算法决策的接受度;从算法特征来看,算法本身的透明性、可控性、规则性、准确性也能够造成公众对算法决策接受度的显著差异;从互动过程来看,任务复杂性、任务重要性等决策情景也是造成公众接受度偏差的重要因素。根据简化理论,算法决策在执行客观任务时,由于此类任务规则清晰,注重量化数据分析,较少处理质性信息,与算法量化特征相匹配,因此,公众更能接受算法决策处理客观任务。相比之下,当算法决策执行主观任务时,由于此类任务需要根据质性信息进行价值判断,而算法基于量化分析的决策模式无法有效整合质性信息,因此公众认为算法决策是去情景化的,进而产生更低的接受度。综上所述,我们提出如下假设:
H1. 相较于执行主观任务,公民对算法决策执行客观任务有更高的接受度。
(三)感知公平的中介作用
第四次工业革命背景下的算法变革引发了人们围绕算法合法性、合理性、公平性的争论。其中公平正义是公共价值的核心要素,随着算法决策深度浸润到人类日常生活和社会管理的方方面面,算法决策公平不仅关系到人工智能技术的成功应用,更影响到整个社会的公平正义。Colquitt将公平定义为”对决策环境中反映适当性的规则的感知遵守”,并将其分为四个维度:程序公平、分配公平、互动公平和信息公平。综合来看,现有关于算法决策感知公平的研究尚未形成一致的结论。从算法欣赏的角度出发,Schlicker等基于209名医疗保健专业人员的调查发现,自动化代理条件下的程序公平比人类决策更高;从算法厌恶的角度出发,Acikgoz等基于面试求职的调查实验发现,人工智能面试通常被认为在程序公平和交互公平方面不如传统的人工面试公平;也有研究发现个体对算法决策和人类决策的感知公平没有显著差异。然而,过往研究更多关注私人领域中人类决策和算法决策到底谁更公平,缺乏对公共领域中算法决策执行何种任务更公平这一重要问题展开探索。
感知程序公平描述了导致决策结果的过程公平,它包括认为过程是无偏见的、准确的以及合乎伦理的。一个决策结果被认为是不公平的,而获得这个结果的过程则可以被认为是公平的。有研究认为,算法善于处理简单和重复性的任务,算法在做出决策时都遵循相同的程序,不受情绪因素影响。算法决策提供了更高的决策程序一致性,进而使人们认为算法决策在执行客观任务时具备更高的程序公平。相比之下,在执行需要价值判断的主观任务时,鉴于公平的程序需要依赖准确的信息,由于算法忽视质性信息的决策过程,导致人们认为基于算法的决策过程是去情景化的,甚至可能存在偏见(因为算法无法衡量并组合质性信息),进而质疑其程序公平性。因此相较于主观任务,公民对算法决策执行客观任务时的感知程序公平可能更高。
感知分配公平是指对结果分配的感知公平,即结果的分配是合适的。感知分配公平得益于算法决策强大的数据分析能力和效率,冉龙亚认为,对于规则清晰、主要涉及定量运算的公共决策,即涉及有限数量变量且相对无争议的量化任务,算法能够准确、快速地制定决策。算法决策具有较好的数据处理能力和更高的效率,在面对客观任务时能够更好地完成结果分配,进而使人们认为算法决策在执行客观任务时具备更高的分配公平。相比之下,在执行主观任务过程中,由于算法决策无法综合考虑质性的决策信息,导致人们认为算法产生的决策结果是去情景化的,进而质疑其分配公平性。如Nobel等人发现,在招聘任务中,应聘者认为算法无法读懂”言外之意”,进而对算法决策的公平感知更低。因此相较于主观任务,公民对算法决策执行客观任务时的感知分配公平更高。
感知互动公平是指尊重和有尊严地对待个人。在面对客观任务时,算法能够准确有效地做出最优决策,公民与其互动过程流畅顺利且感知到的偏见更少。如Lee认为,在需要机械技能且不涉及主观判断和情感的任务中,算法具有更少的偏见。相比之下,在面对主观任务时,算法无法考虑公民的全部信息,忽视了个人的背景和环境知识,进而导致公民认为算法是去情景化的,在互动过程中个人特性湮没。特别是面对不利的决策结果,算法无法有效展现出共情能力并在行为上及时作出回应,公民感知到的互动关系以及对个人的考虑较少,进而质疑其互动公平性。如Schlicker等发现,在休假任务中,被访者认为算法决策无法考虑个性化需求,所以具有更低的互动公平。因此相较于主观任务,公民对算法决策执行客观任务时的感知互动公平更高。综上所述,我们提出如下假设:
H2. 相较于执行主观任务,公民对算法决策执行客观任务有更高的感知公平。
H2a. 公民对算法决策执行客观任务的感知程序公平更高。
H2b. 公民对算法决策执行客观任务的感知分配公平更高。
H2c. 公民对算法决策执行客观任务的感知互动公平更高。
过往研究表明,公民对算法决策的不同感知可能是影响某些算法决策系统是否被接受的重要影响因素。如Grimmelikhuijsen发现,作为算法透明度的两个核心要素,算法可访问性和算法可解释性不仅显著影响算法的信任,而且在一定程度上预测对人类决策者的信任。Lunich和Kieslich发现,对算法决策系统的普遍信任和对特定社会群体接种疫苗的偏好影响了疫苗分配的合法性。Shin和Park发现,公众对公平性、透明度和责任感的评估正向预测了算法服务满意度,且高算法信任感的公众对算法服务更满意,低算法信任感的公众则对非算法特征更满意。这些发现表明,公民对算法决策的不同认知可能在影响算法决策的接受度方面发挥了重要作用。公平理论(fairness theory)认为,人们如果自身感受到不公平的对待时,会首先出现负面情绪进而影响其行为,换言之,公民对决策的感知公平会影响其行为。先前的研究表明,感知公平作为一种目的导向的公共价值,与算法决策的接受度直接相关。一般来说,当公民对算法决策具有更高的感知公平时,越有可能接受算法系统提出的建议。公民在实际接受算法决策之前,可能会对算法决策的公平性进行评估,因此感知公平可能在算法决策任务客观性和公民对算法决策接受度之间发挥中介作用。因此,本研究认为,当公民对算法决策有较高的公平感时会对接受或采纳算法决策产生积极的行为倾向,即感知公平在公民对接受算法决策执行主观或客观任务的过程中发挥中介作用。综上,本文提出以下假设:
H3. 感知公平在任务客观性对算法决策接受度的影响中起到显著中介作用。
H3a. 感知程序公平在任务客观性与算法决策接受度之间起到显著的中介作用。
H3b. 感知分配公平在任务客观性与算法决策接受度之间起到显著的中介作用。
H3c. 感知互动公平在任务客观性与算法决策接受度之间起到显著的中介作用。
(四)情感相似度的调节作用
人工智能的蓬勃发展,使算法决策不再被单纯视为一个由用途来定义的做事工具,而将被引入一定程度的社会属性,成为与人类进行互动的独特自主体。计算机作为行动者理论认为,人们对算法的反应是”社会性的”,即人们在与算法交互时,会将人与人交互过程中的社会规则、规范和期望运用到人-机交互情境中,也就是说,人们在进行人-机交互时会表现出与人-人交互一致的社交反应。该理论被广泛运用在人-机交互的研究中,用来解释和预测人们对技术(如AI等)的情感和行为反应。过往研究表明,个体感知到的人-机相似度是影响机器接受度的重要因素。将人类与算法进行对比时,公民倾向于认为算法本质上缺乏处理质性信息、共情等人类才拥有的社会能力。同时,公众对算法决策执行主观任务接受度较低的一个重要原因是算法无法感知人类的复杂情绪、不具备与人类相似的社会属性,即情感相似度。其中,高情感相似度是指算法能够在认知层面上理解人类所处情境、分析广泛的质性信息、识别甚至评估人类复杂情绪,并在相应行为层面上进行对人类客户的帮助、尊重、同情、回应等言语或行动。而低情感相似度意味着算法无法在认知层面上理解人类所处情境、分析广泛的质性信息、识别甚至评估人类复杂情绪,因而无法在相应行为层面上进行对人类客户的帮助、尊重、同情、回应等言语或行动。当前已有研究注意到情感相似度在公民算法决策感知过程中的影响作用,但鲜有研究从能否共情、是否具备社会能力等社会属性出发探讨情感相似度对公共领域算法决策感知公平与接受度的影响作用。Pelau等人根据计算机作为行动者理论指出,人们希望算法像人类一样具有共情等社会属性,缺乏共情以及处理复杂情况的能力使得人们不愿意接受算法决策。一方面,算法的情感相似度会使公众认为算法能够处理质性信息,有着与人类相似的共情等社会属性,从而提高对算法的信任,增加与其合作;另一方面,根据人工智能中出现的恐怖谷效应,当算法的情感相似度过高时,公众会认为算法威胁到其独特感,他们会对此做出负面反应。因此,可以通过塑造算法的情感相似度,改变公众对算法与情感相似度的认知,以此调节任务客观性对算法决策的感知公平与接受度的影响。
有研究发现,个体对算法的拟人化倾向是影响其算法决策接受度的重要因素。人们做不受情感影响的决策时(如数据计算)更容易接受算法提供的建议,但做需要感受性较强的决策时(如购物销售)更容易拒绝算法提供的建议。因此,在低情感相似度的情境下,算法缺乏处理执行信息、共情等社会能力,凭借其数据处理能力可以较好地执行客观任务,而无法有效地执行主观任务,因此相较于执行主观任务,人们对算法决策执行客观任务的接受度较高。而在高情感相似度的情境下,算法能够执行曾经被认为只有人类才能完成的任务,公民感知到算法在认知上具有识别分析执行信息、识别情绪的能力,进而在行为上能够与公民进行互动,有效执行主观任务,因此公民对算法执行主观和客观任务的接受意愿没有显著差异。由此提出如下假设:
H4. 相较于高情感相似度,公民对算法决策在低情感相似度的情境下执行客观任务有更高的接受度。
决策过程的社会性(如互动、共情)是影响个体感知公平性的重要方面。在低情感相似度的情境下,当算法决策执行主观任务时,算法无法有效识别质性信息并做出与公民互动的行为,进而产生更低的感知公平性;而在执行客观任务时,算法决策具有更高的一致性和准确性,凭借其高效的数据处理能力能够做出公正的决策。因此,在低情感相似度的情境下,公民对算法决策执行客观任务相比主观任务有更高水平的感知公平。相比之下,在高情感相似度的情境下,算法决策具备识别质性信息,甚至识别人类情绪并做出回应的社会能力,这正是算法决策执行主观任务所缺乏的。因此,高情感相似度会弥补算法决策执行主观任务的能力,使公众认为算法决策执行主观和客观任务没有显著差异。综上所述,我们提出如下假设:
H5. 算法决策的情感相似度在任务客观性和感知公平之间起调节作用,进而影响算法决策接受度。
H5a. 相较于高情感相似度,公民对算法决策在低情感相似度的情境下执行客观任务有更高的感知程序公平。
H5b. 相较于高情感相似度,公民对算法决策在低情感相似度的情境下执行客观任务有更高的感知分配公平。
H5c. 相较于高情感相似度,公民对算法决策在低情感相似度的情境下执行客观任务有更高的感知互动公平。
基于上述研究假设,本研究构建了如下理论框架(见图1):
三、实验设计
本研究在收集数据时采用了调查实验中的情景实验方法。情景实验常用于研究多个自变量对一个因变量的关系,向被试随机提供多个由变量组合成的情景,且无须设置明显的控制组和对照组,具有样本代表性高、成本低、易于实施等优势。本研究的情景实验包含了对情感相似度和算法任务特征的操纵,感知公平性和算法决策接受度的测量在情景实验部分之后以测量量表的形式进行,调查还收集了被试的人口统计学特征以及其他控制变量。
(一)样本和数据收集
本研究的实验设计得到了相关伦理审查委员会的批准,所使用的数据来源于2022年4月在上海地区开展的网络调查,通过专业调研平台Credamo进行。上海市是人工智能建设和应用的大城市,是我国人工智能发展的战略高地,2022年上半年上海市政府为了稳岗保就业促民生,发布了许多救助金政策,受试者可以较好地带入文本实验部分所模拟的现实情景。为了更好地设计实验情境,使其具有较高的心理现实性,我们在正式研究之前对30名相关人员进行了访谈,了解他们对算法的了解程度、算法决策在他们生活中的应用,以及他们对算法决策的感知和应对。正式调查之前为所有受访者提供了知情同意书并告知调查是匿名的,他们将在完成调查后获得一定的现金奖励。为了增加数据集的统计能力和可靠性,并减少第二类错误,我们在问卷填写过程中进行了操作检查和填写时间检查。正式调查共发放问卷1 650份,剔除未能通过测试项目的无效样本,最终的分析是基于1356名参与者的数据,问卷有效率为82.18%,表1显示了样本构成状况。一般情况下网络调查参与者的学历可能略微偏高,本研究中拥有本科学历的人数比例略高且偏向年轻化,这与过往有关算法决策感知的实验研究相类似,考虑到算法决策属于前沿的信息通信技术更容易被学历高的年轻人熟悉和接受,因此能够反映城市居民算法决策感知的真实状况。
(二)调查实验
本研究采取的是2(任务客观性:主观任务vs客观任务)×2(情感相似度:高vs低)的被试间因子设计,通过情景实验来验证相关假设。为了给被试模拟算法决策的行动情景,研究采用了与社会救助相关的事例。行动情景的描述采用文字描述,具体内容如下:
为进一步保障疫情防控期间基本生活,S市政府将对困难群众发放生活救助金。由于疫情防控期间,S市政府打算引入一个算法审核系统,该系统可以自动识别申请人的身份信息以及申请材料,进而决定申请人是否具有救助资格。
之所以选择救助金审核作为实验情境,一方面是因为救助金的申请与审核是公共部门与公民打交道中最常见的情景,特别是在新冠疫情背景下,政府发布了大量与生活救助相关的政策。另一方面是因为救助金的审核是一项相对中立的任务,既需要对客观事实进行分析,又需要人为主观做出判断,符合我们的研究问题。在实验中,每个受访者被随机分配到两类情境条件构成的四种虚拟场景中的一种。参照Castelo等人的研究,我们通过操纵算法的定义,提供算法目前是否可以完成创造性任务,来影响人们对算法具备高/低”情感相似度”的判断,从而实现对情感相似度的操纵。了解算法的定义后,被试者会阅读到具体的行动情境。接着我们通过强调完成此类任务所需的不同技能(价值判断还是量化计算)来实现对算法任务客观性的操纵,具体变量操纵过程见表2。
阅读完实验场景后,参与者被要求回答两个题项以完成注意力测试:”结合以上材料,你认为科技的发展使得算法更像人类了吗?”以及”结合以上材料,你认为利用算法判断申请人救助资格是一项相对(主观、客观)的任务”,对注意力测试的错误回答导致立即被取消调查的资格。接着,参与者被要求回答有关算法决策感知公平与接受度的相关问题,然后是关于年龄、性别、教育程度、日常互联网使用状况、算法决策与救助金申请经验等控制变量相关问题。
(三)变量测量
1.感知公平
我们采用Leventhal的四个题项衡量算法决策的感知程序公平,三个项目衡量算法决策的感知分配公平;采用Bies和Moag的三个项目衡量算法决策的感知互动公平(见表3)。参与者被要求用7分李克特量回答,1代表”非常不同意”,7代表”非常同意”,该量表的α信度为0.876。
2. 算法决策接受度
我们采用两个题项来衡量算法接受度。参与者被要求用7分李克特量回答在多大程度上乐意接受算法审核系统所得出的审核结果(1”非常不乐意”到7”非常乐意”),以及在多大程度上认同且接受算法审核系统所发挥的作用(1”非常不认同”到7”非常认同”),该量表的α信度为0.887。
3. 控制变量
过往研究表明,除了年龄、性别、受教育程度等人口统计学变量能够显著影响公民对算法决策的态度与行为,算法决策的学习和工作经历、线下政务服务办事经验以及对算法决策的了解程度也是重要的预测因子,因此本研究将其作为控制变量。其中,算法决策经验是通过询问他们是否学习过计算机技术和相关专业课程(1”否”到2”是”),以及他们是否在计算机和相关行业工作过(1”否”到2”是”)。救助金申请经验是通过询问他们是否熟悉疫情防控期间救济金申请的相关问题(1”否”到2”是”)。对算法决策的了解程度是通过询问他们对算法系统决策的了解程度(1”根本不了解”到7”非常了解”)。
四、分析
对变量的描述性统计结果见表4。公民对算法决策的感知程序公平、分配公平、互动公平和接受度的平均值处于中等偏上水平,这表明大多数受访者认为算法决策在公共事务中的应用是相对公平和可接受的。此外,公民的算法学习经历、工作经历和救助金申请相关事项了解程度的平均值也处于合理区间。对情境的分析表明,客观任务(场景2和场景4)下算法决策的感知程序公平和分配公平平均值相对高于主观任务(场景1和场景3),这意味着当决策情境被认为偏客观时,公众对算法决策的感知程序公平和分配公平更高。
我们使用F检验来检验人口统计学和社会经济特征是否存在显著差异,并确保四个实验组是平衡的。如表5显示,人口统计学和社会经济特征的分布没有系统的差异。因此,四个实验组的参与者可以看做是随机分配的。
我们以算法决策的接受度、感知程序公平、感知分配公平和感知互动公平作为因变量进行了多变量方差分析(MANOVA)。如表6所示,算法决策接受度(M=5.510,SD=0.801,n=92)、感知程序公平(M=5.614,SD=0.759,n=92)和感知分配公平(M=5.561,SD=0.896,n=92)与任务客观性显著相关。这一发现验证了假设H1、假设H2a和假设H2b。此外,我们发现任务客观性与感知互动公平(F=1.840,p>0.05)之间无显著关系,因此假设H2c未被验证。
我们以任务客观性为自变量,情感相似度为调节变量,感知程序公平、分配公平、互动公平和接受度为因变量进行方差分析。结果显示,情感相似度在任务客观性对感知程序公平(F=6.305,p=0.000,η2=0.106)、感知分配公平(F=5.073,p=0.002,η2=0.087)和接受度(F=7.380,p=0.000,η2=0.122)的影响中发挥着显著调节作用,而对感知互动公平(F=0.511,p=0.676,η2=0.010)的调节作用不显著(见下页图2)。进一步做简单效应分析(见表7),当情感相似度较低时,任务客观性对接受度(p=0.000)、感知程序公平(p=0.000)和感知分配公平(p=0.000)有显著影响;而当情感相似度较高时,任务客观性对接受度(p=0.511)、感知程序公平(p=0.304)和感知分配公平(p=0.599)的影响不显著(见图2)。上述结果支持了假设H4、假设H5a和假设H5b。
传统的中介效应检验多采用Baron和Kenny提出的逐步回归方法,这种方法在被广泛使用的过程中也受到了部分学者对其统计功效的质疑。而Bootstrap方法从样本中重复抽样,且不像Sobel检验法要求检验统计量服从正态分布,因此越来越多的学者采用Bootstrap方法检验中介效应。基于此,本文利用PROCESS程序对感知公平在任务客观性和情感相似度的交互作用与算法接受度之间的中介效应进行Bootstrap分析,抽样次数设置为5 000次,置信区间设定为95%,检验结果如表8所示。
从表8中的分析结果可以看出,在情感相似度较低的情况下,任务客观性分别通过感知程序公平(效应量=0.545,95%CI[0.272, 0.899])和感知分配公平(效应量=0.521,95%CI[0.210, 0.9])影响接受度的间接效应为显著正向;在情感相似度较高的情况下,任务类型通过感知程序公平(效应量=0.144,95%CI[-0.089, 0.415])和感知分配公平(效应量=0.075,95%CI[-0.165, 0.328])影响接受度的间接效应未达到显著水平。因此,任务客观性分别通过感知程序公平和感知分配公平对接受度的间接影响受到情感相似度的调节,假设H3a和假设H3b得到验证。而任务客观性通过感知互动公平(效应量=-0.190,95%CI[-0.505, 0.119])对接受行为的影响不显著,且不受情感相似度的调节,假设H3c未得到验证。
五、讨论
随着人工智能与政府治理的深度融合,政府数字化转型已进入新阶段,政府治理决策开始呈现一种智能化和算法化的转型。当前,算法决策在公共安全、智慧交通、司法判决、公共卫生、应急管理等公共领域中的广泛应用,极大地提升了决策的科学性和精准性。与此同时,算法决策在公共领域的应用也面临着算法偏差、算法错误、算法”黑箱”、审查难等问题,造成公共决策在公平、公正、透明和可问责等方面的诸多挑战。本研究基于算法决策任务客观性和情感相似度的视角,构建了2(任务客观性:主观任务vs客观任务)×2(情感相似度:高vs低)的两因素被试间实验,以1 356位上海市居民为被试,探讨了算法决策任务客观性对感知公平和接受度的因果关系,检验了情感相似度在这一过程中的调节作用以及感知公平的中介作用。
(一)主要结论
第一,本研究分析了算法决策任务客观性对感知公平和接受行为的差异化影响。研究发现,相较于主观任务,公民对算法决策执行客观任务时的感知程序公平、感知分配公平和接受行为更高。该研究发现印证了Newman等有关算法决策简化论的观点,即在涉及人事决策的主观任务下,算法决策会导致应聘者感知较高的去情景化程度,进而引发应聘者对算法决策的消极反应。同时,本研究进一步拓展了简化理论在解释公民对公共领域算法决策接受偏差的适用范围。当算法在面对涉及质性信息的主观任务,如招聘、刑事判决时,算法因缺乏主观判断能力,会对信息进行量化处理,进而导致人们产生较低的接受度。
此外,本研究响应了蒋路远等人加强对算法决策互动公平进行关注的呼吁,发现了公民对算法决策执行主观和客观任务的过程中,其感知互动公平没有显著差异。其原因可能在于,互动公平更加强调在互动过程中被礼貌和尊严地对待,当政民互动由人-人交互转变为人-机交互时,算法决策基于代码将复杂的数据转化为有意义的产出,公民对算法的决策过程往往难以理解,算法不能及时给予公民有效回应,公民无法有效地参与到决策过程之中,使得任务客观性对感知互动公平的影响不具有显著差异。未来的研究可以进一步探索其他特征对算法决策互动公平的影响,如公民对机器人形算法或者拟人化算法下的互动公平。
第二,本研究揭示了感知公平在算法决策任务客观性与算法决策接受度之间的中介作用,且该中介过程受到情感相似度的调节。研究发现,当情感相似度较低时,算法决策任务客观性分别通过感知程序公平和感知分配公平的中介作用间接影响算法接受度。而当情感相似度较高时,感知公平的中介作用以及情感相似度的调节作用均不显著。这与已有研究一致,即个体对算法决策的不同感知,如透明度、信任感等是影响某些算法决策系统接受度的重要因素。这一结论表明提升公民对算法决策的感知程序公平和感知分配公平等行为态度是间接提高其接受公共部门算法决策的重要因素,同时在利用算法执行具有主观任务属性的公共决策时,强调算法的情感相似度可以有效提升公民对算法决策的接受度。
第三,本研究证实了情感相似度在算法决策任务客观性影响感知公平和接受度过程中的调节作用机制。具体而言,相较于高情感相似度,公民对算法决策在低情感相似度的情境下执行客观任务有更高的感知程序公平、感知分配公平和接受度。这与前人的研究结论相一致,即人们对算法决策在执行涉及价值分配的主观任务感到不适,而提升算法的情感相似度,不仅可以显著减轻这种不适感,更能够提升对算法决策的接受度。该结论进一步表明,公众对算法执行主观任务的感知公平和接受度较低的原因之一是算法缺乏与人类共情、价值判断等能力。当我们通过强调算法可以完成很多只有人类才能完成的任务后,公民对算法执行主观任务的感知公平和接受度大大提升。
(二)理论意义
本研究理论贡献在于:第一,结合简化理论,从人工智能算法简化性的视角出发,分析并论证了算法决策在执行主观任务和客观任务时对公民感知公平和接受度的影响。Newman等将算法决策的简化属性感知作为解释个体对不同决策主体感知公平差异的重要因素。本研究发现算法决策的简化属性感知并不总会对公民感知算法决策产生消极影响,而是会根据决策任务客观度的变化而变化。当高客观度的任务情景契合人工智能算法信息简化性的本质特征时,能够显著提高公民对算法决策的感知公平和接受度。随着近年来随机森林、神经网络、贝叶斯分类等复杂模型的广泛应用,人工智能算法以降低可理解性和可解释性为代价,更加关注可量化指标,显著提升了算力和预测能力。这也意味着人工智能算法可量化性的不断提高可能会通过影响个体的信息简化感知,进一步影响个体对算法决策的态度和行为。因此,将不同类型的人工智能算法应用到公共决策领域中,要根据具体的任务情境调整人工智能算法的可量化性,提升公众对算法模型的理解能力。本研究构建了公共部门算法决策应用的主客观任务框架,解释了不同客观程度的算法决策任务如何影响公民的感知程序公平、分配公平与算法决策接受度,进一步验证了简化理论在算法决策中的应用。
第二,结合计算机作为行动者理论,从人工智能算法拟人化视角出发,引入情感相似度作为理解产生算法决策感知差异的边界条件,解释了何种条件下算法决策任务客观性能够显著影响公民的感知公平与接受度。Castelo等人发现,倘若区分人类和算法在能力方面的情感相似度,便可显著增强人们在主观任务中对算法决策的信任。在人机交互的过程中,人工智能与情感相似度超过一定程度,人们对它的好感反而会下降,呈现一个情感反应的低谷,即人工智能的恐怖谷效应。本研究发现算法决策拟人化在不同任务情境中的影响作用也存在一定的阈值,即在需要量化计算的客观任务场景中适度降低算法拟人化可以显著提高算法决策感知公平与接受度,在需要价值判断的主观任务场景中增强算法拟人化可以增强公民对算法决策的感知公平和接受度。因此,公共部门引入并应用算法决策时,应考虑到人工智能算法拟人化的边界,根据任务场景适度调整人工智能拟人化,从而对公民的态度与行为产生积极促进作用。
(三)实践意义
本文的实践意义在于:第一,为提升公民对算法决策的接受度,公共部门在引入算法进行辅助决策时,需要注意区分算法决策应用的主客观任务场景,确保算法决策客观透明。具体而言,要明确算法决策的适用场景,为政府治理活动中的算法应用设定边界,对于涉及人类基本生存权利的主观任务场景,应赋予公共部门管理人员一定程度的自由裁量权,审慎对待公共部门算法决策应用。对于涉及重复性程序的客观任务场景,应对算法决策持积极和开放的态度,发挥算法决策处理快、精度高、偏差少等优势,有效提升公民的公平感和接受度。第二,在算法设计和应用中,公共部门应考虑到人工智能算法拟人化的边界。算法设计者可以在物理特征、心理特征、语言、社会动态和社会角色等方面提升算法决策拟人化,如使用拟人化语音进行互动、算法决策界面拟人化、使用人类专家的照片等,鼓励公民与拟人化算法决策进行互动,增加公民对算法决策的情感联系,进而提升公民的感知公平和接受行为。而在需要量化分析的客观任务场景中,应当适度降低人工智能算法的拟人情感特征,突出其数据汲取和分析的能力。总之,随着现代社会智能化程度不断提升,算法对人类的影响也不断深入,作为一种政府工具,算法既不是”灵丹妙药”,也不是”洪水猛兽”,公共部门应当做到权衡与兼顾,将算法引向合适的场景中,更好地创造公共价值,实现公共利益。
(四)不足和展望
本研究存在一些不足之处。第一,仅仅通过情景材料编写人为地创造实验条件可能会使假设检验远离现实情境中的自然状态,本研究借鉴Castelo等人对于任务客观性的干预操作以及相应实验场景的设定可能具有局限性,在一定程度上会增加研究效度受损的可能性。未来研究可以尝试选择两个及两个以上的不同情景实现对任务客观性的干预,例如,选择一个主观任务如司法审判,另一个客观任务如识别超速车辆,进而检验不同任务特征下感知公平和接受度之间的差异,或者采用田野实验、二手数据、情感分析等多种方法检验本研究的各项假设。第二,本研究基于算法决策客观性和拟人化的视角,选取了任务客观性和情感相似度作为理解公民算法决策感知公平和接受行为的关键因素,未来的研究可针对当前算法决策存在的算法歧视、算法”黑箱”、算法操纵等突出问题,进一步拓展算法决策公平感知和接受行为的影响机制。第三,本研究只考察了目标对象针对生活救助金申请的情境,未来可以将算法决策的具体情境拓展到人力资源、所得税征收、刑事审判等其他工作环节,进一步考察算法决策在不同任务场景下的差异化影响。第四,由于常态化疫情防控期间开展实地调查较为困难,本研究依托专业调研平台开展的随机调查实验可能会影响地区样本的代表性。未来可以将研究范围在更多的地区与具有代表性的群体普及以进行补充,比较不同地区城市居民对算法决策态度与行为的差异,进一步丰富算法决策感知和行为的前因变量。第五,与信息公平相关的算法”黑箱”也是十分重要的研究议题和现实关切,由此衍生出的算法可解释性研究也是算法决策研究领域中一个重要的分支。本文在原有设计中包含了信息公平维度,但囿于统计意义不足和篇幅限制,未能充分讨论公民对算法决策的感知信息公平。未来研究中可以通过实验设计进一步分析算法决策感知信息公平的影响机制,以形成对算法决策感知公平全面系统地了解。第六,在样本选择中,被试在救助金申请经历和对救助金的了解程度的均值较低,这可能是由于样本人群偏向高学历年轻人、相关技术能力比较强等原因,而救助金场景的适用人群更可能是低收入、低技术能力、低效能感者,算法对他们来说更可能是陌生的、难以学习理解使用的,进而可能是不公平的,不可接受的。未来研究应注重样本选择与情境设计的匹配性和契合性。
扫描二维码免费下载全文
本期目录
更多精彩 敬请关注
深入学习党的二十大精神
何艳玲、李丹丨“体系化” : 新时代机构改革的特质与逻辑转换
专题研究:实验方法研究
何文盛、何忍星丨数据呈现方式、公众参与和政府信任:一项调查实验
高学德、王倩、沈茜芸丨公众如何评价“街头官僚”的热情和能力?——兼论中国情境下公共管理复制实验的本土化问题
陈琪、李梦函丨垂直型环境监管与企业ESG表现——基于中央环保督察的准自然实验
韩啸、余怡婷、谢琦|智慧城市能够减少犯罪发生吗? ——一项准自然实验
王戈、张哲君丨任务客观性、情感相似度何以影响算法决策感知公平与接受度?——基于调查实验的实证分析
论文
沈冰清、林闽钢丨福利体制如何影响福利态度?——全球视野下的福利体制效应及传导作用分析
刘滨丨高质量发展与地方政府行为激励变革——一个“剩余权管制”视角
高乐鑫丨瑕疵政策承诺的效力辨析
研究综述
朱春奎、王彦冰丨公共服务价值共创:系统述评、内容框架与研究展望