欧盟发布人工智能道德准则,促进可信赖人工智能发展
导读
2019年4月8日,欧盟委员会发布《可信赖人工智能道德准则》(Ethics Guidelines For Trustworthy AI,以下简称《准则》)。该准则由52位学术界、工业界和民间社会的专家组成的欧洲人工智能高级别专家组(High-Level Expert Group on AI ,AI HLEG)历时近1年完成,旨在满足现行法律要求之外,就如何在社会技术系统中培养和确保人工智能符合伦理道德和提高人工智能系统的可靠性提供指导,并最终促进可信赖人工智能在欧洲的发展。
内容摘要
《准则》的主体内容分为三章,第一章基于《欧盟基本权利宪章》(the Charter of Fundamental Rights of the EU)中对人基本权利的规定,确定了在开发、部署和使用人工智能系统时必须尊重的四项伦理原则。
第二章通过列出可信赖人工智能系统应满足的七项重要要求,为如何实现可信赖人工智能提供了指导,并提出实现该目标的技术思路和非技术思路。
第三章中则提供了一份具体的人工智能评估清单,旨在落实第二章提出的重要要求。最后还讨论了发展可信赖人工智能系统的机遇和一些关键问题。
▲《准则》讨论可信赖人工智能系统的总体框架
第一章
可信赖人工智能的基础
第一章阐述的核心内容是“实现什么样的可信赖人工智能”。
《准则》认为,人工智能系统要能做到可信赖、被人们广泛接受并可靠无害地大量运用到社会生产生活中,必须满足三个条件:
1. 应当合法(Lawful),遵守所有适用的法律和法规;
2. 应当合乎道德(Ethical),确保遵守人类的道德原则和价值观;
3. 应当在技术层面和社会层面都具备鲁棒性(Robust),因为即使出发点是好的,人工智能系统仍然可能造成无意的伤害。
这三条缺一不可。
在第一章中,《准则》首先根据欧盟条约(EU Treaties)、《欧盟基本权利宪章》、《国际人权法》(International Human Rights Law)等法律总结出以下几类基本权利,以此作为实现合法人工智能的基础。
人的尊严。每个人都拥有“内在价值”,这种价值绝不应被人工智能削弱、损害或压制。因此,人工智能系统的开发应该尊重、保护并服务于人的身心完整和社会文化认同感。
个人自由。人类应该保持自己做决定的自由。在人工智能环境中,需要防止系统对人类进行直接或间接地胁迫、对精神自由和精神健康的威胁、不正当监视、欺骗和不公平操纵。
民主、正义和法治。宪政民主国家的所有政府权力都必须得到法律的授权和限制。人工智能系统应该维护和促进民主进程,尊重个人价值和生活选择的多元性,不能破坏民主程序、人类审议或民主投票制度。
平等、不歧视和团结。所有人的道德价值和尊严都值得被平等地尊重,特别是对于社会弱势群体例如妇女、残疾人、少数民族、儿童等,这些人群的数据应平等的纳入训练人工智能系统的数据集中。
公民权利。公民享有包括投票权、接受良好管理、查阅公共文件、以及向政府请愿等广泛权利。人工智能系统在提高政府向社会提供公共产品和服务的规模和效率的同时,应避免公民权利受到人工智能系统的损害。
下一步,为满足人类对人工智能的道德需求,进一步改善个人和集体福祉,《准则》列出了四条源于基本权利的伦理原则作为法律要求的补充。
1. 尊重人类自主性的原则。人类和人工智能系统之间的功能分配应该遵循以人为本的设计原则,为人类自主选择留下空间。这意味着要确保人工智能系统致力于支持而非取代人类,同时人类能够对人工智能系统的工作流程进行有效监督。
2. 预防伤害的原则。人工智能系统不能对人类施加伤害或加剧伤害,也不能对人类产生负面影响。因此,人工智能系统及其运行环境必须是安全可靠的,并且应确保它们不会被恶意使用。
3. 公平原则。实质性公平意味着能确保公平公正地分配利益,并且个人和团体不会受到不公正的偏见、歧视和侮辱。程序性公平则意味着能够对人工智能系统和操作它们的人类所作的决定提出异议并进行有效纠正。
4. 可解释性原理。人工智能系统的研发和使用过程必须透明,人工智能系统的能力和目的必须经过公开讨论,系统所作的决策必须能够解释给所有受到人工智能系统直接或间接影响的人群,得到他们的理解和支持。
第二章
实现可信赖人工智能
第二章阐述的核心内容是“如何实现可信赖人工智能”。
《准则》认为,第一章概述的原则必须转化为具体的要求以实现可信赖人工智能,因而以四项伦理原则为指导,列出了实现可信赖人工智能的七项基本要求。
1. 人类代理和监督
人类代理是指用户应该能够就人工智能系统做出明智的自主决策。当智能系统对用户产生重大影响时,人类有权不受完全基于自动处理的决策的约束。人类监督则可以通过诸如人在回路中(Human-In-The-Loop, HITL)、人在回路上(Human-On-Loop, HOTL)或人工控制(Human-In-Command, HIC)之类的治理机制来实现。
2. 技术鲁棒性和安全性
要确保人工智能系统的鲁棒性,首先应充分考虑可能出现的意外情况。其次,要为人工智能系统设计并测试后备保障机制。再次,当人工智能系统偶尔出现不准确判断时,系统要能够准确评估出误判的可能性大小。最后,人工智能系统的输出结果应是可重复的,以便审查人工智能系统并防止可能伤害。
3. 隐私和数据管理
与预防伤害原则密切相关的是隐私,这是人类一项基本权利,它受到人工智能系统的影响极大。为防止对隐私的损害,系统运维者需要进行适当的数据管理,包括使用数据的质量和完整性、与人工智能系统部署领域的相关性以及系统在保护隐私的情况下处理数据的能力等。
4. 透明性
这一内容包括可追溯性,需要对人工智能系统决策的数据和流程,包括数据收集、数据标记以及所使用的算法等信息以最高标准记录;可解释性,要求人工智能系统影响和塑造组织决策过程的程度、系统的设计选择以及部署它的基本原理都能恰当解释;真实沟通,人工智能系统不应在用户面前表现得逼近人类,人类有权被告知他们正在与人工智能系统进行互动。
5. 多样性、非歧视与公平
为了实现可信赖人工智能,必须在人工智能系统全生命周期中实现包容性和多样性,建立有所有利益相关方参与的长期反馈机制。此外,还需要通过包容性的设计确保用户能够平等地使用人工智能产品或服务,特别是对于残疾人等社会弱势群体。这一要求与公平原则密切相关,有助于人工智能普惠地服务于全体人类。
6. 社会和环境福祉
根据公平和预防伤害原则,在人工智能系统的全生命周期中,更广泛意义上的社会、生态环境和其他生命体都应该被视为利益相关者加以考虑。我们要引导人工智能系统具备可持续发展思维并鼓励其积极承担生态责任,为实现社会和环境福祉提供人工智能解决方案。
7. 问责制
问责制是对上述要求的一个补充,它与公平原则密切相关。它要求能够对人工智能系统的算法、数据和设计过程进行审计,识别、评估、记录和最小化人工智能系统的潜在负面影响;当执行以上六点要求出现对立或矛盾时,应谨慎权衡其对伦理原则和基本权利的影响,决策者必须对权衡结果负责;若发生不利影响应有应急预案能够补救。这一点为其他要求提供了问责保障。
▲ 七项要求同等重要,相互支持,都应在人工智能系统的整个生命周期中实施和评估
为实现上述要求,《准则》提出一条技术思路,包括把实现可信赖人工智能的要求“翻译”成过程约束或程序约束并锚定在人工智能系统的体系结构中、实行道德和法治的“并行设计”、为人工智能系统定义适当的服务质量指标等。还有一条非技术思路,包括进行人工智能立法、设立认证制度和基本权利兼容设计标准、多元化设计团队以提升产品的包容度等。
第三章
评估可信赖人工智能
第三章的核心内容是“如何评估可信赖人工智能”。
根据第二章的七项关键要求,第三章列出了一个非详尽的可信赖人工智能评估清单(试行版本)以实施可信赖人工智能。它特别适用于直接与用户交互的人工智能系统,主要面向人工智能系统的开发人员和部署人员。
具体内容请见原报告链接。
人工智能推广契机和可能遇到的问题
《准则》认为,可信赖人工智能有望为人类面对的下列挑战提供解决方案,这是可信赖人工智能得到充分重视和广泛应用的可能场景。
1. 应对气候变化和建设可持续发展的能源基础设施。应对气候变化应该是全世界决策者的首要任务之一,数字化转型和广泛使用可信赖人工智能在减少人类对环境的影响、高效利用能源和自然资源方面有着巨大的潜力
2. 增进人类健康福祉。可信赖人工智能技术能够使治疗更智能、更有针对性,并帮助人们预防疾病 。医疗人员可以在患者生病前对患者复杂的健康数据进行更准确和详细的分析,并提供量身定制的预防性治疗。在欧洲人口老龄化的背景下,人工智能技术和机器人技术可以成为帮助护理老年人和实时监控患者病情的有用工具。
3. 促进素质教育与职业教育的数字化转型。人工智能可以成为对抗教育不平等和创建具有个性的教育方案的极好工具,帮助每个人根据自己的学习能力获得新的资格、技能和能力。此外,它还能够更准确地预测哪些工作和职业会因技术进步而消失、将创造哪些新工作以及需要哪些新技能。这可以帮助政府、工会和工业界重新规划工人的职业技能。
最后,《准则》预测分析了发展人工智能可能遇到的问题,给予读者警示与参考。
1. 智能识别与智能追踪的伦理困境。人工智能使政府、企业能够更有效地识别、追踪个人。这种行为有时能达到理想的结果,符合道德原则(例如在反欺诈、反洗钱或防止恐怖主义方面)。然而,智能识别、追踪的不恰当使用也可能对人类心理和社会文化产生意想不到的影响。为了维护欧洲公民的自主权,人工智能需要适当控制该类技术的使用。
2. 交互人工智能系统的潜在危害。人类应该能够清楚地知道他们正在与真人还是一台机器互动,但人工智能系统开发刻意追求高仿真正在使这类问题变得复杂(例如采用人类发声录音的人工智能语音系统)。应该注意的是,人类与人工智能之间产生混淆可能会导致多重后果,比如依恋、感化或降低作为人类的价值。因此,类人机器人的开发应经过仔细的伦理评估。
3. 致命自主武器系统的伦理担忧。目前,许多国家正在研发致命自主武器系统,包括能够选择性瞄准的导弹、拥有认知技能的战斗机器人等,它们可以在没有人类干预的情况下决定与谁、何时以及在何地进行作战。这种武器的出现引发了伦理担忧,例如,它可能导致一场历史上前所未有的难以控制的军备竞赛,并创造出一种人类几乎无法对战争进行控制的军事环境。此外,致命自主武器系统发生故障造成伤害的风险也无法完全排除。
(原报告链接:https://www.euractiv.com/wp-content/uploads/sites/2/2018/12/AIHLEGDraftAIEthicsGuidelinespdf.pdf)
THE END
文字 | 文力浩(602673748@qq.com,国防科技大学研究生)
审校 | 龙坤
图片 | 来源于网络
编辑 | 陈雨淼
审阅 | Q、黄洋
“军事高科技在线”征稿啦!!
详情请戳👇👇👇
往期精彩