查看原文
其他

陈殿兵 朱鑫灿 | 风险与规制:人工智能伦理准则框架构建的国际经验

陈殿兵;朱鑫灿 比较教育学报
2024-09-04

作者简介

陈殿兵

浙江师范大学教育学院副教授,硕士生导师

朱鑫灿

浙江师范大学教育学院

摘   要

人工智能技术的飞速发展给人类社会带来变革性和颠覆性影响的同时必然引起学界和业界对其给人类社会所带来伦理挑战的大讨论。以“人工智能基本伦理准则是什么”为研究问题,运用质性研究中实物分析的方法对美国、欧盟、联合国教科文组织等有关人工智能的6份政府政策文件进行编码分析,提炼出人工智能伦理五大准则,并对准则进行讨论分析。研究发现:以人为本、安全可靠、公平正义、透明公开和负责监督是人工智能伦理的五大准则。基于研究发现,提出了以下五个方面的建议:在以人为本准则上,需要协调人机关系;在安全可靠准则上,需要关注数据隐私的安全;在公平正义准则上,需要尽力消除偏见歧视;在透明公开准则上,要加强算法、决策的可解释性;在负责监督准则上,要明晰责任归属以弱化社会矛盾。相关研究对中国当下人工智能伦理准则的研究反思与健康发展具有积极的借鉴意义。

关键词: 人工智能技术;伦理准则;框架建构


一、研究背景

作为第四次产业革命的核心技术,人工智能(Artificial Intelligence,AI)在社会各方面都得到了广泛的应用并给人类社会各方面的发展带来了变革性和颠覆性的影响。例如ChatGPT作为一种基于数据训练的人工智能聊天机器人,在商业领域,可以提高客户服务效率和满意度,减少人力资本;在教育领域,可以提高学生学习效率,为智能教育提供更多机会;在医疗领域,可以帮助医生快速诊断疾病,提高诊断效率。人工智能已经成为人类有史以来最具革命性的技术之一。因此,人工智能成为国际竞争的焦点,世界主要发达国家纷纷将“发展人工智能”作为提升国家竞争力、维护国家安全的重大战略。但是在便利人们生活和带来广泛机遇的同时,人工智能所引发的负面影响也层出不穷。人工智能仍有信息技术遗留的伦理问题,包括个人信息泄露、信息鸿沟、信息茧房等,又因为其深度学习等特征,可能在基本人权、社会秩序、人身安全等诸多方面带来一系列的伦理问题。例如2020年密歇根州,警员根据人工智能面部识别抓捕嫌疑人,而人工智能训练的数据大多是白人面孔,暂未学会识别黑人脸部差异,导致一位非裔美国人以行窃罪为由被警方错误逮捕,侵犯了其基本人权;2016年微软发布的聊天机器人Tay由于没有设定相应的指导机制,在短短的24小时之内,被网民教成了一个极端主义分子,虽然之后立即被下架,但是人工智能技术给社会和人类带来的不确定性和危害性引起了人们的极大关注,规范人工智能伦理也迫在眉睫。


二、文献综述

伦理指处理人伦关系的道理或规则。综合多位学者的界定,人工智能伦理是在人工智能开发、应用、治理等过程中需要遵循的道理和规则。各国政府、机构以及国际组织相继出台人工智能伦理相关文件和政策。除此之外,国内外学者通过多种形式深入探究人工智能所带来的潜能和冲突以积极应对人工智能技术中产生的伦理问题。不同领域内的学者在不同的研究中提出了“不伤害”“公正”“人本”“责任”等伦理准则来规范人工智能的有序发展。达龙(Daron)指出人工智能的应用可能会造成人们失业、工资水平降低以及后续更多不利影响,会造成民众的不满;孙伟平等人以伦理后果为基本维度,指出要在准确研究和判断的基础上,构建以人本主义为核心的包括正义原则和责任原则在内的整体伦理体系,贯彻人本原则、公正原则、公开透明原则、知情同意原则和责任原则。王东浩强调在人工智能体必须在遵守“不伤害”的原则下,可以适当给予人工智能一定的自主决策权,培养其道德控制能力,以期实现人工智能与人类的和谐相处。杜静等人从智能教育伦理维度出发,归纳分析出包括问责原则、隐私原则、平等原则、透明原则、不伤害原则、非独立原则、预警原则与稳定原则等人工智能原则。哈根多夫(Hagendorff)指出制定人工智能伦理的目的不应该是为了限制人们的行动,而是促使人们发现盲点,促进自由和自治,培养自我责任感。张银荣等人认为AI伦理是一种态度和价值观,旨在指导人们开发、使用人工智能技术以及和人工智能技术和谐相处。英国、美国、日本、韩国等都在国家战略层面提出多项人工智能伦理原则、规范或指南。

各国基于文化传统等因素对人工智能伦理的内涵、维度和价值诉求有所不同。现有研究绝大多数都是对某一部具体的人工智能伦理准则进行解读和思考,很少的研究会将不同国家和国际性组织的发布人工智能伦理准则文件进行比较文本分析。不同国家、不同地区、不同团体提出的人工智能伦理准则,呈现出了人工智能伦理准则欠缺共识而多样化的状态,多样化的状态虽然能提供多样化的思考,但是伦理准则缺乏国际层面的统一标准,尚未形成对人工智能的国际性共识,也缺乏系统的伦理原则。本研究基于国家和国际性组织的多份文件,采用实证和比较分析的方法,运用系统化的思维提炼并归纳人工智能伦理准则,根据现实中存在的风险提出相关建议,将有助于建设完善人工智能伦理的相关制度和法规。


三、研究设计

以“人工智能基本伦理准则是什么”为基本研究问题,遵循一般质性研究收集和分析数据的方法和程序,从政策工具视角探究不同国家和国际组织关于人工智能伦理准则的规范性文件,以深入理解各国政府支持和发展人工智能的思想理念和行为过程,进而为优化相关政策以及推进人工智能与人类之间的和谐、有序、良性互动提供理论和现实参考。同时,政策话语直接引导和决定着不同社会的治理方式,政策分析中具有权威性和公开性的官方政策文本可以作为重要的研究素材。基于此,文章对美国、欧盟、联合国教科文组织的52份企业、政府、研究机构公布的文件文本进行初步质性研究归类提炼,最终选取6份政府官方政策文件作为本研究的研究对象,具体的研究设计如下。

(一)研究方法

本研究遵循以质性研究的思路和数据分析一般过程,采用Nvivo12plus质性分析软件,首先从美国、欧盟、联合国发布的人工智能政策文本分析类目体系;其次,依据政策文本分析类目体系对人工智能伦理准则进行整理概括;最后,依据整理出的人工智能伦理准则提出讨论和思考(见图1)。

图1 实施路径


(二)样本选取

基于样本的代表性与可获得性原则,研究选取美国、欧盟、联合国教科文组织等国家和国际组织的6份官方文件作为研究样本。美国是发达国家,作为世界头号经济科技强国和目前人工智能产业的领军者,美国走在人工智能战略设计、政策制定和制度创新的最前列。2020年2月24日,美国国防部首席信息官达纳·迪西(Dana Deasy)和国防部联合人工智能中心主任杰克·沙纳汉(Jack Shanahan)中将联合对外宣布,国防部部长马克·埃斯珀(Mark Esper)已正式采纳国防创新委员会推荐的五项人工智能伦理原则,使其成为国防部在人工智能军事应用领域的官方政策。作为一个有影响力的区域组织,欧盟在人工智能系统的设计开发、生产使用等方面制定了一系列的措施,欧盟委员会已将“人工智能和机器人伦理标准”纳入2018年欧盟立法的重点,呼吁在人工智能和机器人领域建立高水平的数据保护、数字权利和伦理标准,并成立了人工智能工作组,就人工智能的发展和技术引发的伦理问题制定指导方针,在AI治理方面走在了世界前沿。联合国教科文组织作为致力于推动世界各国间在教育、文化、科学技术等领域合作的国际性组织,2021其成员国通过了第一份全球人工智能道德协议,明晰了人工智能系统中蕴含的价值观和原则,并以此来指导法律框架构建,从而促进人工智能的平稳运行。从发达国家到区域型组织再到全球性组织的政策文本选取可以较为全面清晰地了解国外的人工智能伦理准则框架。

本研究收集了52个样本国家于2015—2021年期间发布的有关人工智能伦理政策文本。考虑到发文主体不同,政策文本的制定主体在职能权限上也不尽相同,若直接进行比较分析会缺乏严谨性。同时,考虑到政府发文具有规范性、公共性、权威性和价值性的特点,最终选择6份政府出台的人工智能伦理文本作为核心研究对象。分别为:2020年白宫总统行政办公室、管理和预算办公室发布的《人工智能应用规范指南》(Guidance for Regulation of Artificial Intelligence Applications);2020年美国国防部发布的《国防部人工智能伦理原则》(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense);2019年欧盟人工智能高级专家组发布的《可信任人工智能伦理指南》(Ethics Guidelines for Trustworthy AI);2018年欧洲科学和新技术伦理小组发布的《关于人工智能、机器人及“自主”系统的声明》(Statement on Artificial Intelligence, Robotics and 'Autonomous' Systems);2018年欧洲司法效率委员会发布的《欧洲在司法系统及其环境中使用人工智能的道德宪章》(European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and Theirenvironment);2021年联合国教科文组织发布的《人工智能伦理建议书》(UNESCO Recommendation on the Ethics of Artificial Intelligence)。

(三)研究文本的编码过程

首先,将政策样本内容进行合并,进行自由编码形成参考点。在进行开放式编码的时候尽量保持价值中立原则,对原始资料进行不断比较、分析、归纳和提出等过程,并不断反复,最终获得106个参考点。其次,分类组合形成原始概念,按照意思相近、相同原则,对106个参考点进行概念化,最终形成26条原始概念。再次,归纳形成子节点,根据预计关系中的词语类属关系、交叉关系,在编程过程中,本研究对条原始概念进行分类,组合、归纳,形成初级范畴,最终获得11个子节点,例如增进人类福祉、保护外部安全等。最后,归纳形成父节点,在形成子节点的基础上,本研究就通过主轴编码对子节点进行总结、归类获得以人为本、安全可靠、公平正义、公开透明、负责监督、认识与素养、收益与成本、跨部门协调8个维度的编码,但是由于其中“认识与素养”“收益与成本”“跨部门协调”这三个主轴编码只在一个政策文本中出现,并没有获得共识,所以最终基于频率和次数,筛选、获得五个父节点:以人为本、安全可靠、公平正义、透明公开和监督负责(见表1)。


四、研究结果

围绕“人工智能基本伦理准则是什么”这一基本研究问题,在对原始资料的细化、初步分类形成原始概念,接着对原始概念整理归纳形成子节点,对子节点进行归类、整理和提炼,最终形成人工智能五大基本伦理准则:以人为本、安全可靠、公平正义、透明公开和负责监督。其中,以人为本是核心,一切准则都要建立在以人为本的基础上,这是人工智能发展的最高伦理原则;安全可靠、公开透明和公平正义是“以人为本”的基本价值诉求,要求人工智能技术不损害人类和生态,保证算法、结果的可解释性和人民的知情权,并以“以人为中心”进行“公正的制度设计”;负责监督是“以人为本”的逻辑延伸,任何原则的实施与进行都要遵循责任原则,在一定的监督下运行。

(一)以人为本

以人为本原则是人工智能及其发展首先要尊重人类,保证人类的自主决策权和控制权,不断增进人们的福祉,帮助人类做那些人类做不到的事情,促进人类提升和完善。该准则强调对人工智能系统加以限制,尊重保障人权。人类中心视角和以非人类中心视角的人工智能伦理准则的主要区别在于人类是否拥有唯一的主体地位,上述6个政策文本都以人类中心视角来看待人机关系。例如,政策5中明确指出应该确保人工智能工具和服务的设计和实施与人类的基本权力相兼容;政策2提及人类的控制权,认为人类应具有部署脱离或停用意外行为的人工智能系统的能力;政策3、4提及人类的自主决策权,认为可以通过民主的手段体现人的尊严和自治原则,人工智能应赋予人类权力,让人类做出明智的决定;政策文本1、3、6中均提到了人工智能应增进人类的利益和福祉;政策1认为人工智能预计将对社会和经济生活的许多领域产生积极影响,包括就业、交通、教育、金融、医疗保健、个人安全和制造业;政策3提到,数字技术集中了许多人的智慧,可以通过数字技术加快社会的发展进程;政策6指出,人工智能技术可以推动建立一个更加公平正义的社会,其中必须确保全人类都能分享人工智能技术的好处。

(二)安全可靠

安全可靠原则指的是在任何情况下要保证人工智能系统的安全、数据及个人隐私安全,以此来阻止人工智能系统伤害或侵犯人类的权益,保护环境的可持续发展。安全性主要包括以下几个方面:一是保护环境的安全和人类的不受损害;二是要保证人工智能内部的可靠性;三是在人机互动时要保证安全稳定(政策4)。本文依据以上几点将安全性分为人工智能内部的安全性和外部的安全性。内部的安全性是指应确保在人工智能生命周期内的安全,不仅包括人工智能设计、开发、部署和操作,还包括人工智能运用的数据隐私安全。6个政策均提及了人工智能生命周期内部的安全性:对于算法和“自主”系统必须加以法律的限制(政策4);有必要对算法进行全面的隐私影响评估(政策6);要进行严格的测试检查人工智能系统的安全性(政策2和4)。在数据及隐私上,需要尊重隐私和保护数据,建立适当的数据治理机制,保证数据的质量和完整性,确保合法获取数据的途径。外部的安全性是指确保人类、环境和生态系统的安全,保证其可持续发展。政策4、6提到了对人和生态环境的保护,不能对环境和人造成伤害,确保人类、环境和生态系统的安全;政策2、6强调对环境的可持续发展,认为人工智能系统必须具有可持续和对环境友好的基本属性。

(三)公平正义

公平正义原则采用平等、公平的态度来开发设计人工智能系统,使利益攸关者参与到人工智能系统过程中,通过多方协同努力消除鸿沟,使得人工智能惠益人人。该准则强调人工智能的开发者在决策算法和数据运行方面不能带入偏见性歧视,人工智能应防止个人或群体之间歧视的发展或加剧。相关政策文本中均提到了在设计开发人工智能系统时不应该带入歧视,政策4指出对运行中存在的歧视性偏见要进行预防,在过程中要进行监测,在结果上要进行报告和及时的消除,在人工智能生命周期中减少歧视;政策6指出在决策中如果存在歧视和偏见,那么应该对这个结果采取措施弥补失误,而不应该放任自流。同时,相关政策也表明,应当让利益攸关者参与人工智能的全生命周期,让所有人都能享受人工智能带来的红利:必须避免不公平的偏见,人工智能应该让所有人都能使用,让利益攸关方参与他们整个生命周期(政策5);“在国家层面,会员国应努力在人工智能系统生命周期的准入和参与问题上促进城乡之间的公平,以及所有人之间的公平,无论种族、肤色、血统、性别、年龄、语言、宗教、政治见解、民族、族裔、社会出身、与生俱来的经济或社会条件、残障情况或其他状况如何”(政策6)。

(四)透明公开

透明公开原则是人得到尊重的先决条件,要求将人工智能系统的数据、算法和运算程序等进行信息披露,保障公众的知情权。该准则强调人工智能系统机制(主要是算法)和结果可解释、决策结果可溯源。可解释性是指人工智能所作出的决策可以让人理解,如果有必要还应该解释决策是如何产生的;可解释性也同样包括过程中的可解释,例如算法、功能等。可追溯性指的是与决策过程相关的数据集的产生过程、处理方法和运行结果能够被精准地跟踪、查询或预测的能力,以帮助人工智能设计者分析、审查其决策的正确性,对系统性能和工作程序作出更好的解释和更优的判断。但是透明要有一定的限度,不是完全的透明。政策6对透明的限度做出了一定的说明,“在人工智能整个生命周期内都应该努力提高其透明度和可解释性,以此来支持民主治理,然而,透明度和可解释性的程度应始终与其影响相关并相称,因为可能需要在透明度和可解释性与隐私、安全和安保等其他原则之间取得平衡”;政策1也作了说明,“构成适当披露和透明度的因素取决于具体情况,具体取决于对潜在危害(包括利用已披露信息所产生的危害)的评估、这些危害的程度、技术水平以及人工智能应用程序的潜在效益”。

(五)负责监督

负责监督原则包括责任原则与监督原则。其中,责任原则是人工智能研究和应用的基础,要求明确研发人员在人工智能系统中的责任归属问题。因为人工智能研发人员在进行研发时,其所思所想和行为直接影响包括人工智能系统算法在内的诸多方面,所以在此过程中他们背负着巨大的责任。责任原则是人工智能研究和应用的基础,在责任归属上,政策6认为人工智能系统永远无法取代人类的最终责任和问责,应确保始终可以将人工智能系统生命周期任何阶段的道德和法律责任以及与人工智能系统相关的补救措施归于自然人或现有法律实体。责任分配问题上应该寻求法律的机制,政策1认为虽然更广泛的法律环境已经适用于人工智能应用,但在某些情况下,现有法律对人工智能决策的主体及其权利、义务不明确,从而导致在具体的案例中往往出现问责机制失效的情况。政策4认为,司法部门的作用为制定关于人工智能的具体规定提供了必要的框架,并应提供公平、明确的责任分配和具有约束力的法律机制。监督和责任原则息息相关,应建立适当监测调查机制,以确保人工智能系统及其影响在其整个生命周期内都受到问责,监管方式和非监管方式要依据具体情况而定;政策1提到要考虑具体情况,灵活制定监管方式;政策6提到风险监管要根据事态发展趋势进行效率、效益评估,不需要事无巨细地降低每一件事情的风险程度。


五、讨论与思考

(一)坚持以人为本,协调人机关系

美国学者雷·库兹韦尔(Kurzweil R)猜测在21世纪30年代人工智能将会拥有和人类类似的情感体验。在人工智能拥有所谓的“人性”后,是否和人类拥有同样的人权,学界尚无定论。反对者用阿西莫夫小说中的“机器人三大定律”中的“机器人必须服从人类的命令”论证让机器人拥有“人权”是对人类的一种伤害。但斯坦福教授福德·纳斯对上述库兹韦尔的观点表示支持,他认为生命是独一无二的,即使不是人类也应该拥有“人权”,人类也不应该去伤害虐待人工智能等非人类生命。即使目前处于弱人工智能时代,但是也有许多事实案例证明当前的人工智能技术已经在许多领域威胁到人类的人权,例如,人工智能取代了很多重复性的工作岗位,造成了大规模的失业,导致了更为严重的贫富差距,许多边缘和弱势群体的生存受到了严重的威胁。

“以人为本”实际上就是“以人的权利/益为本”。人是社会发展中最宝贵的要素与动力,包括人工智能在内的技术及其算法都应当服务于而非主宰或操纵人的可持续发展。人的权利是与生俱来的,甘绍平先生认为:“所谓人权,是作为个体的人在他人或某一主管面前,对于自己基本利益的要求与主张,这种要求或主张是通过某种方式得以保障的,它独立于当事人的国家归属、社会地位、行为能力与努力程度,为所有的人平等享有, 人权是人之为人的最基本的权利,是一切利益和权利的前提和基础。”因此,明晰人权的归属是发展人工智能道路上首要的也是必须解决的难题。

人工智能应该是以人为本的,主要体现在人治和人享。人治主要是将决策权牢牢掌握在人类的手里,在必要时,可以根据特殊需要和人工智能不同程度的自主性和不同方面的功能赋予其一定的自主权,因为归根到底,人工智能是一项“人为”且“为人”的技术,应该以人为中心,服务于人类自治。人享指人工智能所带来的益处应该让社会中的每一个人共享。人工智能的发展不仅要以解决社会刚需为出发点,例如,人工智能有利于提高经济社会发展智能化水平,有效增强公共服务和城市管理能力等。此外,人工智能还要以人类福祉和共同利益作为落脚点,促进人类向上向善,不断增强人民的获得感、幸福感和安全感。因此,应该建立一个基于人权开发和使用人工智能的制度,引导人工智能技术以保障人权为发展方向,基于人权结果产出的方式引导人工智能的发展。

(二)强调安全可靠,关注数据隐私

中国信通院《2019人工智能数据安全白皮书》研究显示,人工智能数据安全风险体现在三个方面:一是人工智能自身面临的数据安全风险与治理挑战,例如训练数据污染、运行数据异常、数据逆向还原、开源框架风险等;二是人工智能应用导致的数据安全风险与治理挑战,例如数据过度采集、数据偏见歧视、数据资源滥用、数据智能窃取等;三是人工智能应用加剧的数据安全风险与治理挑战。其中数据隐私的安全值得引起我们的强烈关注。习近平总书记指出在充分放大和加速人工智能正面效应的同时,把可能出现的负面影响降到最低,强调坚持安全可控和开放创新并举,提升广大人民群众在网络空间获得幸福感安全感。可见在人工智能技术具有重大潜能的背后,安全性具有十分重要的地位,正如穆勒所说“世界上所有其他的利益都可以被一个人需要,但不能被另一个人需要。如果有必要,其中许多可以被愉快地抛弃或被其他东西取代,但唯有安全,谁也不能缺少”。

首先,政府要发挥主导作用,积极引导和制定从数据开发到数据收集再到数据使用等全过程的法律规范,促进人工智能行业依法有序地发展;其次,搭建数据综合治理平台,促进数据在全社会的融合汇聚、开放共享,并通过系统的风险识别治理护航人工智能行业的健康发展;最后,要开发并完善人工智能数据安全保护的核心技术,引进培养优秀、专业的研发和风险防控人员。

(三)彰显公平正义,消除歧视偏见

在人工智能公平方面需要关注的是人工智能已经或者将来会产生的歧视与偏见,例如算法歧视、人工智能带来的数字鸿沟、在教育与就业方面带来的负面影响等。算法看似是纯理性数字的表达,但是数据内含的不平等、设计开发者本身偏见会影响到算法和应用,如果将含有偏见的算法录入人工智能系统进行深度的学习,那么会造成更严重的不公平现象。例如在利用大数据深度学习方法对不同种族的人群进行情感分析,得到的是对亚洲人评价相对比较正面,而非洲人评价比较低的结论。数据模型越大,偏见或歧视会随之缩小,这说明大数据算法下往往会得到一些带有种族歧视或宗教歧视的结论。

在《正义论》中,约翰·罗尔斯(John Rawls)认为一个正义的制度应该是一个能给所有人带来机会平等的制度。因此,人工智能的发展趋势应该具有公平包容、更有质量、适合人人的特征。首先,人工智能的发展要体现有教无类的价值追求,利用其高效、动态、共享的优势实现跨区域、跨国家、跨时空的互联互通,让处于不同境遇的人都能公平地获得优质资源机会和通道,让每个人在数字时代都有出彩的机会。其次,人工智能在促进高质量发展层面具有其独特的优势。其智能化的支撑能够赋能、活化、扩张不同产业间的渗透、协同、替代和创造,为实现各领域内和领域间更加优质的发展提供强大的力量。最后,人工智能的发展应该遵循“适合人人发展”的理念。以信息技术发展为支撑的人工智能在满足个体的个性化发展方面具有独特优势,通过全程、精准、全方位的跟踪、挖掘、监测、分析和反馈,可以描绘个体成长轨迹,提供个人数据画像,形成个性化成长方案,助力人人发展。

因此,面对歧视与偏见,需从源头着手构建更加公平的数据集;提升研发设计人员的专业素养,在开发人工智能时不将个体的偏见带入算法程序中;加强对数据决策结果的审计,提高透明度,以便发现结果中的歧视和偏见等不公平问题。同时,算法工程师可以根据审计结果进一步改进决策算法或决策输入数据,从而提高数据决策的公平性。

(四)推动透明公开,加强可解释性

由于人工智能技术与设计往往涉及知识产权与版权的保护,这种属性使其具有不透明性、可解释性差的特点。例如,训练数据集缺乏可视化使得其真实性有待考察;当模型得出某个结论而算法不可解释会丧失用户的信任。

无论是在政治、商业或其他领域,还是在社会、文化和宗教中,透明度都是成功的关键要素。2017年12月,标准制定组织电气与电子工程师协会(Institute of Electrical and Electronics Engineers)发布的一份报告强调透明度对于不同利益相关者有不同的含义。例如,透明度对于用户来说,就是能让用户简单地理解人工智能系统,并了解人工智能系统可以做什么以及为什么要做;对于人工智能审批和认证机构而言,透明度是为了确保人工智能系统审查时可以从源头进行解释。

针对存在的问题,首先要深度学习需要运用大量的训练数据,所以关于训练数据的构成以及相关内容需要达到较高的公开性;然后,如果质疑人工智能系统所计算出的结果,需要通过人工的形式进行判断;最后,人工智能行业的研究人员需要在学术种族等多个方面呈现一定的差异。但在实际的情况中,需要制定具体可行的透明性标准,这个标准必须阐明可测量的、可测试的透明性程度,透明的限度要结合人工智能系统的应用范围与对象综合考虑。

(五)强化责任监督,弥合社会矛盾

2018年3月,亚利桑那州坦佩的一名行人在过马路时没有走人行横道,Uber无人驾驶测试车经过这里没有做出制动反应,直接撞倒了这位行人,行人被送往医院抢救后被宣布死亡。最后纠查原因是在设计系统时出于对乘客舒适度的考虑,在人工智能算法中将某些如塑料袋的障碍物作出忽略处理。如何进行责任划分,可以归结于人工智能制造者,没有进行更加完全的测验以及预测到生产出的产品的缺陷就使产品流入市场;也可以归结于使用者,没有正确地使用人工智能;也可以归结于行人,没有遵守交通规则横穿马路。以无人驾驶汽车为例,它摆脱了人类的即时控制,通过自适应等功能作出符合程序设定的合理决策,人工智能制造者对这一过程不再进行干预,使用者也无法清楚地理解人工智能的运行逻辑,这就带来了一系列道德责任归属和分配难题。

伦理视角下的责任,一是行为主体应当自觉履行对他人和社会的责任,二是指行为人对自己选择的过错和不利后果承担的道德责任。在人工智能技术创新的背景下,技术会模糊人们的责任界限,正如威尔伯斯所说:“在日益科技化的现代社会中,人工智能技术的广泛应用使得道德责任的归属复杂化。”人工智能所面临的责任承担中很难锁定某一主体,从而出现人开脱自己责任的情况,互相推诿,社会矛盾随之层出不穷。在谈到责任伦理时需要关注的是对现在和未来负责,换而言之就是要为可持续发展而努力,但是人工智能技术的发展给人类带来便利的同时,人类更应该思考如何使用人工智能技术不影响子孙后代的进步。

(公众号排版限制,参考文献请见纸刊。)


● 引用本文

陈殿兵,朱鑫灿.风险与规制:人工智能伦理准则框架构建的国际经验[J].比较教育学报,2024(01):72-83.

继续滑动看下一个
比较教育学报
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存