查看原文
其他

成素梅 | 劝导式技术的伦理审视


劝导式技术的伦理审视

文 / 成素梅


摘要:劝导式技术属于新的文理交叉领域,意指能够影响乃至改变人的观念、态度或行为的人机交互技术,已经被广泛应用于我们生活的方方面面,并取得了明显的社会效果。但是,技术劝导产品的新颖性、隐藏性、多态性等特征会掩盖劝导意图、限定用户的自由选择权,也会使用户处于不利地位,使“成瘾”变成新的“鸦片”。避免这些伦理问题的发生,需要对劝导式技术的研发与应用进行全过程的伦理审查。由数据驱动的算法系统的随机性、不确定性等技术性“漏洞”及其多重能动者会对责任归属等提出挑战,应对这些挑战需要超越理论伦理与应用伦理二分的观念,拓展责任概念的语义和语用范围,从被动负责的技术伦理转向积极担当的技术伦理。

关键词:人机交互 ; 数据驱动的算法系统 ; 劝导 ; 问责 ; 有担当的技术伦理


本文发表于《华东师范大学学报(哲学社会科学版)》2023年第2期  #重启科技与人文对话  栏目


作者简介|PROFILE


成素梅,上海社会科学院哲学研究所研究员





目录概览


一 劝导式技术的内涵及其伦理审视的必要性

二 劝导式技术的伦理问题与伦理原则

三 劝导式技术的伦理挑战与伦理应对

四 结语:创建有担当的伦理学体系

全  文

       在由科学技术驱动发展的当今社会,基于计算机的技术与劝导理论的深度融合所研发出的各类计算产品,正在不断地裂变出越来越多的生活可能和新突破。这些计算产品由于蕴含了劝导功能,已经在教育、运动、游戏、广告、金融、社交、社会治理、卫生保健、电子商务、环境保护、疾病管理、平台管理、个人的自我管理等各行各业得到了极其广泛的应用,并取得了显著的社会效果。问题在于,劝导活动在过去是一个人或群体劝说和诱导另一个人或群体改变观念或行为,而在现在这些应用已经将劝导活动转化为交互式计算系统劝导人或群体改变态度或行为,这样,劝导就从有形变成无形、从显性变成隐性、从单一行动变成多态行动,体现出更强大的劝说力和诱导性;但与此同时,具有劝导功能的技术也会产生许多伦理问题并带来新的伦理挑战。因此,我们迫切需要强化伦理治理意识,对劝导式技术的研发与应用过程进行伦理审视,引导其择善而行。本文只是抛砖引玉,通过对劝导式技术的产生及其内涵的简要阐述,揭示技术劝导活动所带来的伦理挑战和所产生的伦理问题,探讨相应的治理原则,以此深化我们对人机交互技术的伦理理解。


一 劝导式技术的内涵及其伦理审视的必要性

     

       劝导式技术(persuasive technology)是由美国社会科学家和行为设计学的创始人福格(B. J. Fogg)在20世纪90 年代提出的概念,意指能够影响乃至改变人的观念、态度、价值或行为的人机交互技术,或者说,能够影响和引导用户的观念、态度或行为向着设计者或商家、机构所希望的特定目标演变的人机交互技术。这里的“人机交互”是指人与计算机系统之间的互动,而不是指人对传统机器的操纵。福格在2003年出版的《劝导式技术:运用计算机来改变我们的所思所做》一书中进一步编撰了“计算机劝导学(Captology)”术语来描述和泛指传统的劝导设计和基于计算机的技术相互重叠而产生的一个新的跨学科领域。“Captology”这个词是“Computer as Persuasive Technology”的缩写,直译为“作为劝导式技术的计算机”,也就是说,计算机劝导学是对如何使以计算机为基础的技术更具有劝导功能,以及如何更有效地改变用户的态度或行为的研究,图示如下:



        福格于1993年进入斯坦福大学攻读博士学位,在攻读博士学位的四年期间,他运用实验心理学的方法来证实,计算机能够以可预见的方式改变人的思想和行为,其博士论文的题目是“有超凡魅力的计算机(Charismatic Computers)”。福格在1997年获得博士学位之后,在斯坦福大学创建了“劝导式技术实验室”(后来重新取名为“行为设计实验室”)。1998年,他在“劝导式计算机:视角与研究方向”一文中,详细地展望了如何能够将力图理解行为和劝导的研究成果与计算机科学相融合,创建劝导式技术这一新型领域的发展前景。上面提到的《劝导式技术》一书是福格对实验室前10年研究工作的经验共享和学理总结。2005年,他的实验室申请到美国国家科学基金的资助,项目名称为:“调查移动手机如何能够激发和劝导人的实验工作”。这项研究极大地推动了“劝导式移动设备”的智能化研发进程。


       2006年,美国、荷兰、丹麦、芬兰、意大利、奥地利、加拿大等发达国家的研究者发起举办关于劝导式技术的国际会议,每年举办一届,到2022年为止,已经连续举办了17届,并出版了17本会议文集,第18届将于2023年4月19日到21日在荷兰的埃因霍温(Eindhoven)召开。显然,国际学术会议的持续主办,既扩大了福格工作的影响力,也深化了劝导式技术的发明与应用范围。2007年,马库斯(Aaron Marcus)参加了在斯坦福大学举办的第2届会议之后深受启发,决定将劝导设计理论与信息设计/可视化理论相结合的概念设计应用在移动设备的软件和硬件的开发中。两年之后,他在自己公司启动了为期五年(从2009年到2014年)的开发移动设备项目,每个子项目都设定了针对具体问题和应用场景来改变用户态度或行为的明确目标,并在设计中运用了以“用户为中心”的设计技巧和劝导设计,这些项目的具体设计过程和操作细节以及设计者的心得体会构成了《移动劝导设计:通过劝导设计与信息设计相结合来改变行为》一书的主要内容。


        劝导理论可追溯到亚里士多德的修辞学,主要描述一个人如何通过劝说和开导来影响乃至改变另一个人的态度、信念或行为。计算机劝导学是研究如何使技术开发者、设计者和研究者将修辞学、心理学、认知科学、行为科学和社会动力学的研究成果,比如,劝导、信息提取、行为改变、用户体验、激励措施等知识,嵌入到人机交互系统中,使计算产品在能够更加主动地服务用户,在更加方便而敏捷地与用户互动的过程中,潜在地影响或诱导用户向着开发者或商家所希望或预先设定的目标行动。事实上,我们现在广泛使用的网站推荐系统、社交媒体系统、图书推荐系统、电子商务系统、智能手表、智能手机等,都在不同程度上内含了劝导功能。


        就劝导的内涵而言,劝导意味着受劝者自愿接受,自愿接受源于人的内驱力;劝导不是强迫、欺骗、洗脑等。强迫意味着对受劝者施加外在压力迫使其改变态度或行为,如父母迫使孩子改掉坏习惯的强迫属于教育,不法分子强迫儿童偷盗,则是不道德与违法的;相比之下,任何欺骗行为都是不道德的,情节严重则属于违法;洗脑是施劝者出于文化或政治等目标,对受劝者进行价值观的灌输或策反,而不是站在真理和正义立场上,向受劝者讲道理。福格将劝导定义为,“在没有任何强迫或欺骗之前提下,改变人们的态度或行为或者两者的一种企图。” 也就是说,在福格看来,劝导式技术的设计者是本着为用户着想的善良动机,将劝导意图嵌入在人机交互的计算产品中,诱导用户改变态度或行为。这种劝导是内在于产品之中的,而不是外在的。


        研发具有内在意图的劝导式技术产品的设计理念和方法是多方面的,主要表现为,其一,化繁为简,即将复杂任务、活动拆分或简化为简单任务、活动,通过提高用户行为的效益/成本比,使用户更容易操作和付诸行动,比如,微信的计步和排序功能更能激励用户去锻炼;其二,投其所好,即使计算系统能够自动预测和满足用户需求,比如,算法系统根据用户的兴趣、消费习惯乃至地理位置等自动推送相关信息;其三,模拟体验,即通过计算机提供的生动、可视的模拟效果,来修改和完善原有的设计规划,比如,关于城市规划的模拟实验;其四,互动体验,即通过提高交互系统的环境感知力和敏感度来使用户享有最佳体验,比如,在电竞游戏中,计算机能够根据玩家的实际水平接招出招,吸引玩家继续玩下去;其五,相似性原则,即通过使交互产品与目标受众的个性相似,来增加用户对产品的认同感,使用户更愿意接受产品建议来改变态度或行为,比如,根据不同人群的心理特征所设计的各类在线教育产品。


       福格在2019年出版的《微习惯:改变一切的小变化》一书中进一步通过大量的具体事例,论证了“行为设计可以改变一切”的观点,阐述了人们养成永久性习惯的“福格行为模型”。这个模型用公式B = MAP来表示,其中,B代表行为(Behavior),M代表动机(Motivation),A代表能力(Ability),P代表提示或提醒(Prompt)。这个公式表明,人的行为的改变取决于动机、能力和提示或提醒三个要素的汇合。2011年,世界经济论坛职业健康联盟选择“福格行为模型”作为健康行为改变的框架,比如,通过APP来督促人们按时完成某个任务等。近年来,随着嵌入式算法或由数据驱动的机器学习算法的发展,劝导式技术的劝导功能更加形式多样,并且,以更加隐匿的方式,镶嵌在我们的日常生活之中。


        虽然福格强调指出,发展劝导式技术的初衷是为了使人们生活得更加健康、环保、便捷、有趣等,总目标是全方位地改善人的体验和更健康地满足人的需求。但从认识论意义上来看,这样的初衷和目标潜在地隐含了家长制的思维方式,认为用户普遍缺乏正确选择和做事的能力,需要被引导、被提醒乃至被管控;从方法论意义上来看,劝导式技术预设了技术解决主义的世界观,把运用技术来解决人的问题作为优先选择或重要途径。另一方面,劝导式技术事实上并不总是能够做到客观、透明、公平、公正等,在实际应用中,已经出现了种族仇恨、性别歧视、恐怖组织招募、网络犯罪、侵犯隐私、加剧社会不公等许多令人担忧的社会后果。


        这种情况要求我们必须提高警惕,用批判的眼光来认真评估劝导式技术的研发与应用,特别是,监督与审查智能化决策系统所优化或所传播的价值导向,从而引导设计者和商家将技术的研发与应用奠基在坚实的伦理基础之上,彻底防止和避免劝导式技术的误用和滥用。尽管当前关于技术伦理的讨论很热烈,政府层面也出台了相应的治理原则,但是,理论与现实之间还是有较大差距。因为相关利益方或道德能动者(moral agents)并没有受到过良好的伦理培训,更是缺乏系统的伦理知识。我们现有的伦理培训和伦理审查只在与医学相关的领域内进行,在一般技术领域内几乎是空白。大多数技术人员依然认为,价值问题是哲学家、社会学家、政治学家或政策制定者等所讨论的问题,技术的善恶在于使用者,而不在于发明者,比方说,刀枪的发明没有对错,刀枪的指向或使用方式才有对错。也许正是在这种意义上,伦理学家普遍将技术伦理说成是应用伦理。


        然而,劝导式技术不仅对这种技术中立论和理论伦理与应用伦理的二分思维方式提出了挑战,而且对相应的概念框架也提出了挑战。因为劝导式技术产品的劝导是主动的和场景敏感的或内在的,劝导意图的善恶既与创造者的动机和运用的劝导方法相关,也与算法系统的技术限制和人机互动过程中信息交互等的路径因素相关,比如,成瘾或游戏化项目在以自动奖励等方式来改变用户的态度或行为时,就有可能凌驾于人性之上。因此,揭示劝导式技术带来的伦理挑战和伦理问题成为规范其发展的必要环节。


二 劝导式技术的伦理问题与伦理原则


       从伦理视域来看,与伦理相关的不是计算机劝导学,而是劝导式技术产品的开发动机、推广应用方式及其社会后果等。这就像研究动物物种的动物学与伦理无关,而对待动物的方式才与伦理相关,研究原子核内在机制的核物理学与伦理无关,而研发原子弹技术则与伦理相关一样。从基本内容来看,计算机劝导学是理论层面的研究,包括劝导系统的软件架构、技术基础设施、劝导系统的设计、行为改变支持系统、劝导系统中的可视化交互作用、量身定制的个性化劝导和游戏化劝导、劝导式的数字营销市场和智能环境(比如,物联网)、电子商务、智慧生态系统、劝导式技术的动机、认知和感知等,概而言之,计算机劝导说是研究如何使基于计算机的技术能够更好地发挥劝导功能的学科,而劝导式技术则是研发出具有劝导功能的特定产品,两者的关系是理论与实践的关系。伦理、劝导、技术、基于计算机的技术、计算机劝导学以及劝导式技术之间的关系如下图所示:



        在这个示意图中,下方的椭圆形区域代表伦理,左边的圆形区域代表劝导理论,在右边的两个同心圆区域中,里面的圆形区域代表基于计算机的技术,外面的圆形区域代表所有技术,劝导理论和基于计算机的技术相会聚构成了计算机劝导学,伦理学、劝导理论和基于计算机的技术三者交汇构成了劝导式技术的伦理学。本文接下来所阐述的内容将在上述示意图中小箭头所指的范围内进行。


        就劝导伦理学而言,在日常生活中,在人与人之间形成劝导关系的前提,通常是施劝者将自己的观点与立场通过以理服人的方式传递给受劝者,这种关系本身意味着劝导双方在多个方面存在着不对称,比如,认知的不对称、信息的不对称、理解的不对称、地位的不对称以及权力的不对称等。因此,施劝者的劝导动机和劝导意图必然与其道德水准相关。关于劝导的伦理问题通常主要是在所有的相关道德能动者之间分配责任,也就是说,所有的利益相关方共同承担所有的道德责任。这是伦理学家研究了几千年的问题,已经形成了功利主义、义务论、美德伦理等流派。这些研究表明,劝导行为的执行者或实施者的伦理基础并不十分牢靠。


        劝导式技术虽然将人对人或群体的直接劝导转变为技术行为,通过计算产品来劝导用户改变其态度或行为,但是基于人机交互的劝导活动依然是一项承载有价值的活动。在这一活动中,除了存在人对人的劝说活动所具有的伦理问题之外,在由数据驱动的越来越智能化的算法系统所进行的劝导活动中,算法系统的劝导方式变化多端,足以让没有专业知识的用户应接不暇;算法系统的劝导意图经久不衰,足以促使用户产生情感共鸣;算法系统的劝导过程随机应变,能够以润物细无声的方式引导用户的选择。问题在于,劝导式技术的这些特征,既是其优势所在,但同时也会带来前所未有的伦理问题。


        首先,技术劝导有可能变向地淡化或掩盖劝导意图。在人机交互系统中,执行劝导任务的计算产品既是方法,也是方法的执行者。这种双重身份使得它们既可以借助图形、音频、视频、动画、仿真模型、超链接等形式产生协同效应,来获得最佳劝导效果,也可以利用技术本身的新颖性和复杂性来掩盖其真实的劝导意图和分散用户的注意力,使用户在没有仔细审核内容或措手不及的情况下,接受计算技术所传递的信息,甚至以默认设置的形式迫使用户别无选择地接受技术提供的预定选项。这样,在人机交互过程中,用户所受到的影响不只是来自所推送的信息内容,还取决于内容的呈现方式,以及对隐形设置的无意识接受。


        其次,技术劝导有可能潜在地限定用户的自由选择权。在人机交互系统中,计算产品控制着互动方式的展开,用户只有选择是否继续进行交互的权力,而没有争辩和要求做出澄清或解释的权力。技术劝导在应用于一个人时,劝导的成功与否,不是取决于这个人的理性和逻辑推理能力,而是取决于引导其情绪;劝导式技术在应用于“集体”情境和市场时,个人很难对系统的劝导目标做出自由选择,或者说,个人行为不再是自主选择的结果,而是被“构造”的结果。比如,在刚刚过去的两年内,我国为了有效防控新冠疫情的需要,广泛使用“健康码”和“行程卡”来了解个人的行程轨迹;公司为了为每个员工支付较低层次的保险金,以公司福利的形式鼓励员工运用运行健身类软件(比如,Fitbit)或劝导活动跟踪系统等。


       第三,技术劝导有可能使“成瘾”成为新的“鸦片”。内嵌有劝导功能的数字环境,不仅能够根据用户留下的数字行为特征来自动调整系统的互动行为,而且废除了物质是被动的和精神是主动的二分观念,将用户置于被“解读”与被“投喂”状态。特别是智能手机的普及应用,含有劝导功能的形式多样的应用程序,已经使不少成年人成为“手机控”。对于冲动等情绪的控制还处于发育期的少年儿童来说,他们在数字环境中痴迷、成瘾或沉溺就不再是意志薄弱或自我放纵的结果,而是由于劝导式技术的设计者利用了他们的发育弱点或心理脆弱性所造成的。这样,劝导式技术的心理操纵策略,很有可能将儿童的身心健康置于危险的境地,从而使我们陷入一场新型的“鸦片”战争之中。


       第四,算法系统的情感暗示有可能会使人处于不利地位。在人与人的互动劝导过程中双方通常会由于产生同理心或共情,来达到更加公平和更加合乎道德的劝导效果。但在人机交互的劝导过程中,当算法系统具有了情境感知力时,它们所提供的情感暗示会影响人,但机器由于是物质系统,并不会产生真实的情感共鸣。这种不对等关系有可能使人处于不利地位。比如,微软公司推出的一系列社交互动玩具在与孩子互动时,会运用社会动力学的暗示和对友谊的表达等情感话语与孩子交流,这就会影响孩子的感受和行为,这种影响是否道德已经成为争论焦点。目前,机器的情感表达是人机交互的道德灰色区域,迫切需要对其进行系统的伦理学研究。


        劝导式技术所产生的这四个伦理问题,虽然并没有穷尽所有,但至少已经表明,在实践过程中,有效避免产生这些伦理问题的方式之一,显然是前瞻性地对劝导式技术产品的设计意图或目标、所运用的劝导方法、设计者所预期得到的社会结果,以及产品在应用中能够被合理地预见到的意外结果,展开伦理审查,即通过判断每个环节是否合乎伦理规范,来综合评估每个计算产品的伦理本性。从劝导伦理和技术伦理(特别是计算机伦理)的视域来看,劝导式技术的设计应用应该遵守下列四项伦理原则:


        其一,双重隐私原则,意指劝导式技术的创造者必须至少确保像尊重自己的隐私一样尊重用户的隐私;通过劝导式技术将用户的个人信息传递给第三方时,必须对隐私问题进行严格审查。劝导式技术能够通过互联网等收集用户的信息,并且,能够利用其目标用户的信息更有针对性地劝导,因此,创造者在设计收集和操纵用户信息的劝导技术时,必须遵守双重隐私原则。

   

        其二,公开揭示原则,意指劝导式技术的创造性应该公开其动机、方法和预期结果,除非这样的公开会严重破坏其他道德目标。因为创造劝导式技术背后所隐藏的动机绝对不应该是不道德的,即使这些动机通往更加传统的劝说;劝导式技术可预见的所有结果,在任何时候也都不应该是不道德的,即使在没有技术的前提下进行劝说,或者,即使所发生的结果与劝说无关;劝导式技术的创造者必须考虑到,要为其产品在实际应用中能够合理地预计到的后果承担责任。


        其三,准确性原则,意指劝导式技术一定不能为了达到其劝导目标而提供错误信息。普通用户一般都会期待技术是可靠的和诚信的,但他们在实际运用技术产品的过程中,对技术的欺骗性并没有天生的觉察能力,所以,劝导式技术的创造性,为了确保计算产品的可信性和避免滥用,必须遵守准确性原则。


        其四,劝导的黄金原则,意指劝导式技术的创造者绝对不应该力图使人们相信连创造者自己都不同意被说服去做的那些事情。这是罗尔斯在他的《正义论》一书中考虑“无知之幕”背后的伦理问题所支持的黄金法则,意思是说,如果你在不知道自己是施劝者还是受劝者的情况下,设想对施劝者或受劝者创建劝导的行动纲领。


       这四项设计原则既是研发与应用劝导式技术产品的底线原则,也是对整个过程进行伦理审查的基本原则。


三 劝导式技术的伦理挑战与伦理应对


        劝导式技术的创造者所遵守的伦理原则只是针对计算产品的设计和应用而言的,没有涉及具体的技术细节问题,实际上,创造者在研发由数据驱动的算法系统时,不可避免地蕴含着三种偏置,其一是作为设计者背景认知的社会文化和风俗习惯所带来的既存偏置(preexisting bias)。这种偏置类似于海德格尔所说的前设、前有和前见,因为每个人都是特定环境中的人,其价值观中必然潜移默化地蕴含了生活于其中的社会文化等背景观念;其二是算法系统在训练时由于数据的不完整所带来的数据偏置(data bias)。因为不论是完全由数据驱动的算法系统,还是有知识嵌入的数据驱动的算法系统,都需要通过特定数据集的训练,才能赋予其“特长”或“优势”,但训练数据不仅不可能做到全面完整,而且还取决对数据的选取方式;其三是算法系统在人机互动过程中所涌现出来的新生偏置或突现偏置(emergent bias)。这是由当前运用的机器学习算法的基本特征所带来的。


       算法系统的这三大偏置以及计算产品功能的特殊性,使得劝导式技术带来了在原有的伦理概念框架内或根据原有的思维方式无法解决的伦理挑战,其中,最明显的伦理挑战是“责任归属问题”。在传统的道德哲学中,问责是根据所发生事件的前因后果,对所有相关的道德能动者进行责任分配,并且,对由于不良动机与意图或行动过失而造成损害的相关道德能动者作出道德谴责或其他形式的惩罚。这里相关的道德能动者是指能够担负道德责任并且具有赔偿能力的相关人员。然而,劝导式技术系统是介于设计者或创造者与用户之间的基于计算机的技术系统,这个系统的复杂性与相互关联性使得传统的责任追溯方式变得困难起来,导致下列四种形式的“归责困境”。


        其一,归责的因果关系困境。人机交互计算产品的开发与应用涉及多重道德能动者之间的协作与配合,比如,科学家、工程师、设计师、训练师、评估者、决策者、管理者以及监管者等形式多样而分散的实验小组。硬件与软件生产都是在公司设置中进行的,没有一个能动者能对所有的开发决策负责,通常是多个工程小组分别研制整个计算系统的不同模块,比如,机器学习模型的研发就是一个多级过程,有时还会使用其他能动者研发的产品(比如,开源软件、数据库、多目标工具包等),有些控制系统具有互操作能力,有些计算产品不会因为公司倒闭或项目负责人的更换而被停止使用或在市场上消失,而是有可能还在互联网上继续运行。在这些情况下,如果造成损害,在这些相互关联的多重小组之间找出真正的道德责任承担者不再是一件容易的事情。


        其二,归责的系统“漏洞”困境。由数据驱动的算法系统必然依赖关于现象的某种抽象程度的具体假设,算法的统计本性和训练数据的不完整性会导致计算系统出现错误分类、统计误差和不确定的结果等。当机器学习专家把这些“漏洞”说成是机器学习的特征时,开发者就有可能将由此造成的损害归因于算法系统的这些特征或“漏洞”,而不是归因于人的疏忽、泛化能力不足、分布偏移等带来的失误。这样,作为劝导式技术核心要素的算法系统固有的统计特性有可能成为道德能动者推卸责任的借口,从而导致用户不得不被动地承担由此造成的损失,这种现象意味着在技术提供方和用户之间签订了一份无形的“不平等条约”。


        其三,免责的所有权困境。所有权和责任是重要的伦理学和法学概念,历史悠久并且意义丰富。但计算机行业的趋势却是强化产权而回避责任。比如,软件版权授权采用的拆封许可(shrink-wrap license)和点选许可(click-wrap licenses)中所设立的那些霸王条款;网络服务、手机APP、物联网设备、内容审核决定等服务条款中拟定的那些免责申明;算法系统的第三方提供者以商业机密或保护知识产权为由拒绝把他们的系统提供给独立审计师来审查;信息物理系统(比如,机器人、物联网设备、无人机、自动驾驶汽车)的制造商和拥有者很可能将责任转嫁给环境因素或人机回圈(humans-in-the-loop)等。这些免责的所有权意识或问责文化的弱化趋势,赋予技术公司对规则的优先支配权,将用户的损害视作是运气不佳,从而带来新的社会问题。


       其四,归责的人造能动者困境。随着算法的智能化程度的提高,计算系统具有了类似于人的能动性或行动能力,体现出人格化的倾向,开发者和评论家将这些系统描述为是智能的。这意味着,既然它们具有作为自动能动者的能动性,那么,它们就应该为所造成的失误担责。但是,计算系统具有行动能力并不意味着本身能够成为像人一样的道德能动者。如果我们依然在原有的问责框架内,把技术过程视为类似于人的认知活动,让技术来承担责任,而不是让开发者、拥有者和操作者等道德能动者来承担责任时,问责就会被降格为追溯产品质量的优劣,而不再是与道德责任相关的规范性概念。


        从承担责任和进行惩罚的意义上看,算法系统是物质系统,物质系统的原始劝导意图虽然是由相关的设计者所赋予的,但它们具有的环境感知力和知识发现能力,废除了物质和环境是被动的、而意识和心灵是主动的二分观念;它们在人机交互过程中具有的互动性、自主性和适应性,不仅使用户在无形中处于被“解读”与被“投喂”状态,而且同时也改变了自身的“出厂设置”。因此,对于由复杂的算法系统所造成的损害而言,并不总是应该或能够被精准地归因于人的过错,有时与算法系统本身的偏置和不可靠性相关。


       另一方面,由数据驱动的算法系统的输入是数字化的或不连续的,而问责的因果关系追溯却是建立在连续性假设和线性假设之基础上的,这就使得通过追溯因果关系来在道德能动者之间分配责任的思维方式,在劝导式技术系统中失去了应有的适用性。除此之外,这种不适用性还体现在两个方面,一是以惩罚责任人所希望获得的效果来惩罚物质系统是无意义的;二是物质系统本身并没有承担赔偿责任的能力。


       有鉴于此,摆脱上述四种归责困境的有效思路或许是,超越或放弃只限于在道德能动者之间分配责任或寻找因果关系的思维方式,拓展责任概念的语义和语用范围,提出新的伦理框架,重塑与劝导式技术发展相适应的思维方式,建构免责的赔偿机制或无惩罚的赔偿责任制,即将物质系统所要承担的责任与应该受到的惩罚区分开来,探索为每个复杂的智能系统筹建赔偿资金池及其合法使用机制等,比如,将所有相关道德能动者绑定在一起,形成一种新的集体人格。这方面的讨论事实上是当前哲学界和法学界关注的热门话题,⑮本文暂时搁置。这里需要强调指出的是,本文主张由物质系统来承担责任,既不是为了减轻人的责任,或者,不是将责任转嫁给物质系统来规避人的责任,也不是主张惩罚物质系统,而是呼吁提出一种有效机制,在责任难以认定的情况下,使受害者能够获得相应的资金赔偿。


四 结语:创建有担当的伦理学体系


        综上所述,劝导式技术的劝导功能是建立在智能系统具有的自动化决策能力之基础上的。用户喜欢采纳自动化决策的原因之一是他们普遍认为,自动化决策是建立在海量数据之基础上的,不仅比人类的决策更迅速和更可靠,而且能够提供超越人类想象力的决策建议。然而,这种认知忽视了算法系统特有的偏置和不确定性有可能带来的决策失误。因此,道德能动者在设计技术劝导产品时,既需要呈现知情同意的选择标志,确保算法系统的劝导意图、劝导方式以及社会结果与公认价值保持一致,与用户利益保持一致,以及尊重用户的自主性,来消除家长制的劝导假设,也需要自觉地加强伦理意识和人文教育,统筹安全与发展的关系;伦理学家需要从建构追溯相关责任人的伦理框架,拓展到建构涵盖智能化的物质系统在内的伦理框架,从当前强调被动负责任的技术伦理转向积极担当的技术伦理;法学家需要系统地探讨智能化的算法系统或智能机器是否具有法律主体资格等问题;监管部门需要探索对劝导式技术全过程的伦理审查机制,来确保智能化社会的健康运行。



为适应微信排版已删除注释和参考文献,请见谅,如需阅读全文,请点击左下角“阅读原文”获取。




上期回顾


马克思主义与现时代

张一兵|《资本论》雏形中的科学的劳动异化理论及其删除——马克思《1863—1865年经济学手稿》研究

全球史中的中国医学

[全球史中的中国医学] 主持人语|全球史中的中国医学

高晞|文艺复兴时期欧洲医生眼中的异域新药:“中国根”

张树剑|17世纪欧洲对针灸的初识与想像——以威廉·瑞恩《论针灸》为中心

杨渝|《黄帝内经》的两部早期英文译本

国际冷战史

沈志华|观察“冷战发生”的新视角——写在《经济漩涡:观察冷战发生的新视角》出版之前

哲学研究

许家星|道之辩——以船山对双峰《学》《庸》解的评议为中心

段重阳|“摄用归体”与“摄体归用”:论熊十力形而上学的两个步骤

李涛|实践哲学中的自然、习惯与理性——亚里士多德论品德培养机制

文学研究

陈大康|小说研究系统的新构建

吴娱玉|“死亡”·“空洞”·“迷宫”·“外界”——从雷蒙·鲁塞尔看德勒兹对福柯的接受和创化

曹晓华|马克思·奥雷尔作品的在华译介与五四“新女性”的兴起——由陈独秀译作《妇人观》引出的线索

法学研究

王立民|人民代表大会制度的早期萌芽——以1927年上海市民代表会议制度为例

王国柱|人工智能生成物可版权性判定中的人本逻辑

卫跃宁  刘柏|刑事诉讼中程序与证据关系再审视——评“程序二元、证据一体”理论模型

新型城镇化与农业转移人口市民化研究

王桂新  丁俊菘|子女随迁与农民工城市创业

刘传江  周丹  李雪|人力资本、城市社会包容度与流动人口职业发展

周皓|我国流动人口年龄别流动率模式及其演变




点击左下角【阅读原文】访问华东师范大学学报哲学社会科学版官网,可下载本刊各期文章PDF全文,也可在线阅读本刊各期文章的XML格式全文。

我知道你在看

继续滑动看下一个
华东师范大学学报哲学社会科学版
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存