查看原文
其他

【笔谈系列⑧】杨通进 | 寻求人工智能伦理的国际共识——以欧盟人工智能伦理建设为例

杨通进 阅江学刊 2023-01-13

编者按:人工智能与大数据、生物技术等科技革命和产业变革联合积聚力量,催生了大量新产业、新业态、新模式,给全球发展和人类生产生活带来深刻的变化,也使之成为自然科学、技术科学等学术领域的热点,研究成果丰硕。新一代人工智能为经济社会发展注入了新动能,为人类创造了更加智能的生产活动、工作方式和生活方式,但是,在政府治理、法律、安全、道德伦理等方面,人工智能也提出新问题甚至挑战,也是新的学术议题和学术增长点。自然科学、技术科学领域长于人工智能在计算机科学技术、数学、控制论、信息论等方面的研究,人文社会科学方面的研究相对缺少。


2021年7月,本刊编辑部邀请中国社会科学院、北京外国语大学、南京大学、南京师范大学、上海师范大学等单位的专家围绕“人工智能:理论阐释与实践观照”展开热烈而深入的讨论。编辑部根据专家发言整理并形成笔谈,从不同角度展现人工智能对社会政治、经济、法律、文化、生活等方面所产生的影响,为推动学术界对人工智能课题更加全面、深入的研究作出应有的努力。


关键词:碳人工智能;机器人;社交机器人;机器伦理;数字劳动;算法;社会正义



寻求人工智能伦理的国际共识

——以欧盟人工智能伦理建设为例

广西大学马克思主义学院教授、博士研究生导师

杨通进



本文目录


一、全球共识的紧迫性与重要性


二、欧盟AI伦理建设及其启示


三、寻求何种共识


四、如何寻求并强化AI伦理的全球共识



近年来,随着逆全球化、反全球化、民粹主义、狭隘民族主义等极端思潮的沉渣泛起,冷战思维、东西文明对抗的观念在一些国家或地区得到追捧,国际局势变得扑朔迷离。在这种情况下,谈论和倡导全球共识,似乎显得有点不合时宜。但是,从维护全人类共同利益的角度看,越是在国际局势晦暗不明的时候,学界越是要保持头脑的清醒。殷海光曾说“知识分子是时代的眼睛”,知识分子的这双眼睛不应当、也不能被时代的各种浊流所遮蔽。


历史上,对国际秩序的思考与建构往往是在国际局势的晦暗不明的背景下展开的。康有为在1902年写下倡导世界主义与世界国家之《大同书》的时候,正是中华民族救亡图存、尝试建构现代民族国家的关键时期。雅斯贝尔斯也是在德国战后重建、冷战开始形成的时期,倡导世界主义和全球公民理念的。因此,在全球网络共同体建构初期、AI研发的国际合作前途未卜的敏感时期,思考、讨论和寻求人工智能伦理的国际共识正当其时。


一、全球共识的紧迫性与重要性


思考、讨论和寻求人工智能伦理的国际共识之所以是必要的和紧迫的,这是由AI技术本身的重要性决定的。从某种意义上说,AI技术是到目前为止对人类的社会生活、社会关系、人的历史产生的影响最为深刻、最为广泛和最为长远的一项技术。


首先,AI技术对人本身、对人的自我认识和自我理解产生了深刻的影响。人是什么?人与机器的区别在哪?人的自我以及自我的边界在哪儿?智能是什么?人的身体与心灵的关系是什么?人工智能技术尤其是以强人工智能为基础的机器人技术对这些问题的思考和回答都向人类提出了前所未有的挑战。实际上,就人的自我认同而言,人工智能对每一个人都产生了巨大的影响。


现在,大多数人都离不开手机,手机似乎成了“无机的身体”;手机不仅改变了我们的生活习惯,还改变了我们感知与认识世界的方式。随着社会管理和日常交往方式中电子化程度日益提高,我们所有的信息都将“暴露在电子网络”里,我们就是我们的电子信息,我们的电子信息就是我们自己。



AI技术也将对人们的社会关系产生深刻影响。以强AI技术为基础的各种专用和通用机器人日益进入人们的生活世界,人们的社会关系将会变得更为复杂和多样。目前,是否研发和销售性爱机器人已经成为人们关注和争论的一个焦点问题。


美国学者戴维·莱维在《与机器人相爱并做爱》(2007)中预言,到2050年,机器人将会获得与人相爱的能力,并把自己塑造得“浪漫可爱与性感可欲” ;人和机器人相爱甚至结婚在2050年都会成为现实。2014年以来,他每年都在世界不同的地方举办一次“世界性爱机器人大会”,倡导人们承认并从法律上认可人与机器人婚姻的合法性。许多人认为,当我们从立法的角度承认和接纳同性婚姻后,人类追求“婚姻平等”的任务就完成了。但是,在莱维看来,这个任务还没有完成,婚姻革命的下一个目标就是实现人-机(机器人)婚姻的合法性。


与莱维针锋相对,英国德蒙福特大学的伦理学教授凯瑟琳·理查德森则从2015年起发起了“反对性爱机器人运动”。理查德森认为,性爱机器人有物化女性和儿童的嫌疑;在与人的性爱活动中,性爱机器人基本上都是被动的接受者,这种不平衡的关系将会助长人们的性虐待行为,长此以往,针对性爱机器人的性虐待狂将会对真正的人类异性缺乏同理心和同情心;与性爱机器人的性行为实质上等同于性交易,如果不加以规制,这种性交易行为将逐渐泛滥。理查德森的结论是,将性交易行为扩展到机器人身上,既不安全,又有违公序良俗。


关于人与机器人的性爱伦理问题,现实已经走在理论的前面。我们该不该研发性爱机器人,该不该销售和使用性爱机器人?性爱机器人与我们平常看到的日本销售的情趣用品是一回事吗?人们能够同时拥有一个人类伴侣与一个机器伴侣吗?人-机(机器人)婚姻中的夫妻关系应当是一种平等的关系吗?这对未来的人际关系提出了全新的挑战。


其次,AI技术对人民与政府之间的力量平衡也产生了微妙的影响。在一些国家或地区,先进的AI技术给人民提供了更多的自由空间,给民主的实现提供了更多的有效渠道。但是,先进的AI技术也能成为政府有效控制人民的工具,先进的网络技术可以帮助政府建立起空前强大的警察国家,从而对公民的基本自由构成严重的威胁。如果人们就政府如何使用AI技术的问题无法达成某些基本的共识,那么,AI 技术将可能会成为政府剥夺公民权利、限制公民自由的帮凶。


再次,AI技术的发展会影响国际关系的发展与调整。目前,关于如何合理使用无人机的问题,已经引起人们的广泛关注。就国际关系而言,一般认为,每个国家的领土和领空都是神圣不可侵犯的;未经主权国家的同意就越过其边界的行为属于侵略行为。但是,进入某个国家领空的无人机上面没人,这算是入侵该国领空的侵略行为吗?国际法对此尚无定论。



自主武器系统的研发也是人们关注的一个焦点问题。20世纪40年代末,爱因斯坦曾撰文指出,他非常后悔参与了原子弹的研发;在他看来,在人类的道德能力还没有得到充分发展的情况下,研发先进的武器只会使人类社会变得更不安全。因此,爱因斯坦晚年积极投身和平运动,呼吁科学家承担起确保科技进步造福于全人类的道德责任。在目前的国际局势下,科学家是否应当参与包括杀人机器人在内的自主武器系统的研发?对这类武器系统的研发会不会引发新一轮的军备竞赛?


2019年6月,清华大学战略与安全研究中心与美国布鲁金斯学会启动了“人工智能国际治理”项目,力图就人工智能技术对国际安全提出的挑战及其治理进行研讨和对话。清华大学战略与安全研究中心主任傅莹和布鲁金斯学会会长约翰·艾伦分别表达了各自的观点。傅莹认为,虽然人工智能武器化不可避免,全面禁止人工智能武器很难达成全球共识,但是,目前正是“构建人工智能国际安全规范的关键窗口期”。


作为在人工智能技术研究和应用方面发展最快的两个国家,中国和美国需要在这个领域加强协调与合作;“中美开展对话与合作非常重要,将能够为全球人工智能治理合作贡献智慧。因此,中美两国应推动构建国际层面的规范和制度进行正式讨论,在各自利益关切的基础上探索合作领域。”


傅莹与艾伦共同署名发表《共同合作,美中就能降低来自AI的风险》,他们指出AI技术尤其是以AI为基础的自动武器系统尚处于发展的初期,没有最终定型,因而,我们仍有机会发展出新的规范、新的信任措施,划定新技术的使用边界;一旦这类技术发展成熟并被广泛使用,就很难构建用于约束这些新兴武器之使用的规则了。


联合国有关组织也非常关注致命性自动武器系统的研发。2012年以来,联合国人权观察组织与哈佛大学国际人权法研究中心每年都发布一项限制和禁止致命性自动武器系统的倡议,提醒联合国尽快制定相关的国际法,限制、监控与规制致命性自动武器系统的研发、管理与使用。



除了会影响国际安全和人类和平,AI技术对于建设更加公正的国际秩序也构成了挑战。因为,随着数字鸿沟的出现,某些国家可能会借助新的AI技术更加有力地维护全球等级制度;在这种全球等级制度中,少数国家可能会处于顶层,操控国际社会的运行规则,使大多数国家永远处于被支配与被控制的地位。


最后,AI技术将会对人类的未来产生深刻的影响。如今,随着以信息技术为中心的技术圈的进一步发展,人类走上了一条日益依赖技术圈的道路。但是,越是复杂的技术系统,所潜藏的风险与不确定性就越大。目前,作为个体,每一个人的隐私(包括人际交往信息、银行账户信息等)都有可能被泄露。


面对越来越完善和无所不包的信息系统,每个人都感觉到自己无所逃遁,我们的所有信息(包括隐私)都完全掌握在信息管理机构(或有权使用这些信息的机构或个人)的手中。我们就这样在不知不觉中走上了一条依赖技术圈的不归之路。例如,当代人见证了电脑的发展与完善的过程,笔者这一代人曾经用笔和纸进行写作,但是现在,我们的写作和思考都离不开手边的电脑和强大的互联网了。AI技术对人类生活的深刻影响由此可见一斑。


总之,AI技术对人类的影响不仅广泛而且深远,因此,必须要对AI技术的研发与使用进行某种治理。但是,治理的目标是什么?怎么治理?对AI技术的治理应该达到什么样的状态?在治理过程中应该采取哪些措施?对这些问题的回答都涉及基本的价值与规范。国际社会只有首先在基本的价值与规范层面达成共识,才能就AI技术的国际治理达成统一的认识。


对AI技术的治理既涉及政治和法律层面的问题,也涉及价值与伦理层面的问题。而国际社会在政治与法律层面之所以难以达成共识,首先是由于在价值与伦理层面存在较大的分歧。因此,在价值与伦理层面达成共识,是解决政治与法律层面的国际分歧的前提。在价值观与伦理层面达成国际共识,对于AI技术的全球治理至关重要。


人类的道德能力尤其是国际道德能力的成长对于AI技术的全球治理也非常重要。在国际社会还没有完全脱离自然状态,尚未进入国际法治的文明状态的前提下,任何先进的杀人武器的发明都不会给人类带来和平,反而会使国际局势变得更加复杂。


核武器的发明给我们提供了一个悲惨的教训。20世纪40年代中期美国发明原子弹以来,对核技术的控制与争夺就一直是国际局势紧张动荡的因素之一。在今天的国际关系中,朝鲜问题、伊朗问题都是围绕核技术的研发与控制展开的。以色列派无人机攻击伊朗核工厂的行为是加剧中东紧张局势的重要因素之一。


目前,人类在控制核武器方面陷入了一种非常荒诞的困境:一旦拥有,就不愿放弃;对于使用核武器的毁灭性后果,大家都心知肚明,因此,谁都不敢首先使用核武器;核武器虽然不会被使用,但是,拥有核武器的国家每年还要花费巨额资金来维护这些核武器。如果人类任由致命性自主武器系统被研发与使用,那么,未来的世界是更安全还是更不安全?殷鉴不远,答案一目了然。


今天,面对AI技术可能给人类带来的巨大风险,人类不能忘记发展科学的初心和使命。发展科学的初心是要促进人类的解放,给人类带来幸福。如果我们要让AI技术实现这个初心,那么,就必须对AI技术的治理达成全球共识,用国际制度与国际规范来确保AI技术被用于造福全人类,促进全人类的幸福和解放。


二、欧盟AI伦理建设及其启示


在民族国家内部,就AI伦理建设达成共识是相对较为容易的。但是,要在不同国家之间达成AI伦理建设的共识,却面临诸多挑战。欧盟的AI产业相对中国与美国来说虽然不是那么发达,但是,欧盟的AI伦理建设,尤其是在跨国层面对AI伦理共识的寻求,值得我们关注、借鉴和学习。


欧盟在跨国层面的AI伦理建设工作始于2015年。2015年1月,欧盟议会法律事务委员会成立了专门研究机器人和AI技术之法律问题的工作小组;次年5月,该小组向欧盟委员会提交了“机器人民法报告草案”,呼吁欧盟重视并评估AI技术的社会经济、法律与伦理影响。2017年1月,该小组主张制定“机器人宪章”。


同年5月,欧洲经济与社会委员会发布第一份关于AI治理的报告,主张关注AI给伦理、安全、隐私等11个领域带来的机遇与挑战,倡议制定AI伦理规范,建立AI监控与认证的标准体系。10月,欧洲理事会指出,欧盟应认识到AI治理的紧迫性与必要性,确保制定出高水平的数据保护和数字权利的伦理标准,并要求欧盟委员会在2018年初提出应对AI发展新趋势的对策,将AI伦理与AI治理确立为未来立法工作的重点内容。


2018年,欧盟的AI伦理建设走上快车道。同年4月,欧盟委员会发布了AI发展的战略性政策文件《欧盟人工智能》。该战略包括三大支柱:第一,提升AI技术与产业能力;第二,积极应对AI带来的社会经济变革;第三,建立适当的伦理和法律框架,起草并制定AI伦理指南。


6月,欧盟成立由52人组成的人工智能高级专家小组。12月,欧盟委员会发布《人工智能协调计划》,提出了欧盟人工智能计划的三大总体目标:符合伦理规范、安全可靠、技术先进。该计划还提出了具体的目标。其中,第六个目标是建立人工智能伦理监管框架,推动欧盟AI伦理标准尽快问世;第八个目标是加强人工智能国际合作,组织召开AI国际部长级会议,就AI伦理准则寻求国际共识。


2018年12月,人工智能高级专家小组起草了欧盟AI伦理准则初稿。在征求多方意见并与欧盟委员会商讨完善后,欧盟AI伦理准则的最终版本《可信人工智能伦理准则》与欧盟委员会的相应政策文件《建立以人为本的可信人工智能》于2019年4月8日同时发布。《可信人工智能伦理准则》首先确定了可信AI的三个特征,即合法性、符合伦理与稳健性(鲁棒性)。


该准则还提出了建立可信 AI 的四个基础性原则:尊重人类自主性原则、防止伤害原则、公平原则、可解释原则。该准则最后还提出了实现可信AI的七条具体的措施,许多措施都涉及伦理规则(如透明性原则,多样性、非歧视与公平原则)。这些原则和准则为欧盟的AI伦理建设提供了基本的构架。随着《可信人工智能伦理准则》的发布,欧盟的人工智能伦理建设初步完成。


欧盟的AI伦理建设给我们提供了许多启示。其中最重要的有两条。


第一,对AI的治理不能仅仅采取技术的进路。AI技术的发展离不开社会、政治、经济、法律、文化、伦理等方面的共同支持,合适的社会背景是AI技术得以发展的基本前提。AI技术带来的许多问题(包括技术瓶颈方面的问题),是不能仅仅依靠技术本身加以解决的。AI技术所带来的伦理问题,只能通过相应的伦理对策来加以解决。


第二,寻求AI伦理的国际共识不仅是可能的,而且是可行的。AI技术是没有国界的,AI治理的某些核心价值与基本原则也必须是国际共享的。缺乏AI治理伦理的国际共识,不仅无法实现AI治理目标,AI技术的发展可能还会给人类的生存与发展带来新的困境。AI治理伦理国际共识的达成,不仅有助于消除AI产品的贸易壁垒,更有助于AI技术的协同发展。尤其重要的是,在以民族国家为主体的现有国际秩序下,达成AI伦理的国际共识是可能的。


20世纪80年代以来,随着全球化进程的加速,一个真实的全球共同体(尤其是全球问题共同体)正在形成;人类面临的一个重要挑战就是,人们能否超越狭隘的民族主义价值观,建构一种世界主义的全球伦理和全球公共政治文化,以便为全球问题的跨国治理提供必要的伦理基础和道德动力。欧盟AI伦理准则的国际共识给我们提供了一个建构超越国界的伦理共识(尤其是AI伦理共识)案例,为我们构建全球层面的AI伦理共识提供了重要的启迪。


三、寻求何种共识


AI伦理包括三个层面的伦理,即宏观AI伦理(AI研究者、生产者与用户的伦理),中观AI伦理(写进AI程序中的道德编码)以及微观AI 伦理(将来具有道德推理和自我决策能力的机器人本身的伦理)。AI伦理共识指的是人们在这三个层面的核心价值与伦理准则所达成的共识。那么,我们能够期待人们就哪些AI伦理准则达成国际共识呢?


瑞士学者Anna Jobin等在2019年收集了全世界2019年之前发表的84份与AI伦理有关的文献。通过统计分析,Anna Jobin等人发现,这些文献对11个伦理原则(或价值)的认同度比较高。


排在第一位的是“透明”(Transparency),共有73份文件认可这一准则。排在第二位的是“正义与公平”(Justice and Fairness),共有68份文献赞成这一准则。排在第三和第四位的分别是“不伤害”(Non-maleficence)与“责任”(Responsibility),共有60份文献支持这两个准则。排在第五位的准则是“隐私”(Privacy),共有47份文献接受这一准则。排在第六至十一位的准则分别是仁爱(Beneficence)、自由与自主(Freedom and Autonomy)、信任(Trust)、可持续性(Sustainability)、尊严(Dignity)和团结(Solidarity),提及这些准则的文献分别有41、34、28、14、13、6份。这11个准则可以作为全球AI伦理准则的基础或核心选项。


Anna Jobin等人的论文没有统计两份重要的中文文献。一份是2018年天津“机器人与人工智能大会——雷克大会”发表的《人工智能创新发展道德伦理宣言》。该宣言提及的重要价值与原则包括尊严、人格权、人类解放、人的全面发展、全人类福祉、人类整体利益优先、诚实与信用、人道主义、和平等。另一份重要的中文文献是中国机器人伦理标准化前瞻委员会于2019年出版的《中国机器人伦理标准化前瞻》。


该报告构建了一套关于机器人伦理的“中国优化共生设计方案”。该方案包括从低到高的三个理论层级:整体论意义的善、四个元价值与五个伦理目标。整体论意义的善指的是自然与文化的多元价值与共生秩序。四个元价值分别是多元(Pluralism)、自然(Nature)、正义(Justice)与繁荣(Well-doing)。五个伦理目标分别是人权(Human Rights)、责任(Accountability)、透明度(Transparency)、防范滥用(Awareness of misuse)与共生繁荣(Shared Flourishing)。


《中国机器人伦理标准化前瞻》有两个特别突出的亮点,第一, “不再把人类中心主义作为自己伦理标准化体系的根本理论依据”,而是“尊重自然环境和自然物种的内在价值”,试图“发展一套去人类中心主义的伦理系统。” 第二,在强调机器人伦理主要是关于设计、生产和使用机器人的人员之伦理的同时,对机器人在未来能否成为道德行为体的问题持开放态度,“为尚不可预期的人工道德智能主体的自主能力增强预留了足够的伦理讨论空间。” 因此,相比于欧盟的AI伦理体系,《中国机器人伦理标准化前瞻》的伦理视野更为宏大。


上述综合讨论AI伦理的中外文献,至少可以说,国际学术界在宏观AI伦理层面已经达成了许多共识;这些共识为国际层面的AI治理提供了必要的伦理基础,也为国际社会在未来如何扩大国际共识指明了方向。


四、如何寻求并强化AI伦理的全球共识


如果国际社会认识到了对AI技术实施全球治理的必要性与紧迫性,并且,某些国家已经对AI伦理的核心价值与基本原则达成了某些共识,那么,在全球层面寻求并扩大AI伦理共识就不仅是可能的,而且是有方法可寻的。限于篇幅,这里仅提出以下六点建议,作为人们进一步深入讨论这一问题的起点。


第一,分类建设,先易后难。AI技术包含各种不同的类型。国际社会可以进一步把AI伦理分解成不同的种类和部分,分别针对不同的AI技术寻求与该技术相适应的AI伦理。例如,《中国机器人伦理标准化前瞻》就针对护理机器人探讨和设计了护理机器人伦理的主要原则与规范。


下一步,国际社会可以进一步探讨和寻求工业机器人、家居机器人等的伦理原则与规范。此外,国际社会可以首先在那些容易达成共识的领域(如商用AI技术)寻求共识,对那些比较难以达成共识的领域(如军用AI技术)的伦理问题则可以开展持续的讨论与对话。


第二,科学家主动介入,积极参与科学家是研发AI技术的核心角色,应当主动介入AI伦理的国际建设,并推动政府和企业参与AI伦理的国际建设。



第三,跨国公司及时行动,率先垂范。跨国公司对AI技术的全球治理具有重要影响力,一个开放而健康的全球AI市场符合跨国公司的长远利益。因此,跨国公司应率先垂范,主动参与全球AI伦理的建设。


第四,各国政府合理引导,提供支持。在现有国际秩序下,民族国家仍然是国际事务的主导者。各国的政治家应当高瞻远瞩,积极承担起确保科技进步造福全人类的道义责任,引导和推动各国尽快实施AI伦理的全球构建计划。


第五,超越狭隘民族主义,创新全球制度。对于全球层面的挑战,只有在全球层面采取协调统一的行动才能加以应对;而全球层面的协调统一行动要成为现实,就必须要以相应的全球制度的创立为前提。因此,民族国家与联合国都应根据时代的需要,及时建立并强化相应的国际制度,通过全球制度创新来解决人类面临的诸多全球问题。


第六,拥抱世界主义理念,构建人类命运共同体。全球AI伦理建设面临的最大挑战仍然是狭隘的民族主义。目前,以民族国家为主体的全球制度导致人们以民族国家为单位相互竞争,甚至相互仇恨。为这种全球制度提供合理化证明的观念就是狭隘的民族主义。近代以来的许多悲剧(尤其是两次世界大战)都与狭隘的民族主义有关。医治狭隘民族主义的药方是世界主义理念。


世界主义理念与我国传统的天下一家思想、世界大同理念是一脉相承的。吸收了中外世界主义精神遗产的人类命运共同体理念是建设全球AI伦理的最重要的价值基础。当今时代,我们必须要用实际行动把人类命运共同体这一理念落到实处。要做到这一点,我们就必须要首先培育和构建一种世界主义的全球公共政治文化。对于AI伦理的全球建设来说,这种世界主义的全球公共政治文化也是至关重要的。



本刊声明

本刊刊文版权包括纸质版与网络版版权,均属于《阅江学刊》编辑部拥有,任何形式、任何媒介的转摘译或结集出版均须标明来源于本刊(详见本刊引文格式)。


欢迎学界朋友或学术媒体推广传播。媒体(网站、公众号等)如有意愿转载,请后台留言或拨打电话025-58731054获得授权,联系人:李老师。




本文引用格式:


段伟文、吴冠军、张爱军、高山冰、韩东屏、孙伟平、程广云、杨通进、何云峰、刘方喜、蓝江、吴静、郑曦、秦子忠、崔中良、赵涛:《人工智能:理论阐释与实践观照(笔谈)》,《阅江学刊》,2021年第4期,第29-30页。


段伟文,吴冠军,张爱军,高山冰,韩东屏,孙伟平,程广云,杨通进,何云峰,刘方喜,蓝江,吴静,郑曦,秦子忠,崔中良,赵涛.人工智能:理论阐释与实践观照(笔谈)[J].阅江学刊,2021(4):29-30.




责任编辑:李海中

微信编辑:邱圣茹

校对:来向红、沈丹、李海中

作者照片:本刊编辑部提供

文中插图:源自互联网

复审:刘伟

终审:渠红岩

固定布局                                                        
工具条上设置固定宽高
背景可以设置被包含
可以完美对齐背景图和文字
以及制作自己的模板



推荐阅读程广云 | 人工智能与意义世界的重构孙伟平 | 智能伦理亟待重构

韩东屏 | 永远不会有主宰人类的智能机器人






您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存