查看原文
其他

牛津大学在思考:如何让AI成为一个好人?

张涛 学术plus 2019-03-28


编者按

2018年8月,牛津大学互联网研究所、阿兰·图灵研究所 Mariarosaria Taddeo,Luciano Floridi 发表发表署名文章《How AI can be a force for good》,文中详细讨论了伦理范畴下的人工智能,其中包括AI责任权限授予、AI与生活融合之后的可信性与透明度问题,AI伦理原则制定等重要议题。仅供大家学习参考。文章版权归原作者所有,观点不代表本机构立场。




人工智能伦理准则框架

How AI can be a force for good



作者:Mariarosaria Taddeo,Luciano Floridi 牛津大学互联网研究所,阿兰·图灵研究所

发布日期:2018年8月24日

编译:学术plus评论员 张涛

原载:www.sciencemag.org/content/361/6404/751





An ethical framework will help to harness the potential of AI while keeping humans in control.

 




 

人工智能(AI)不仅是一项需要监管的新技术,而且重塑着我们的日常生活、个人和专业的互动方式等。对我们人类而言,当然希望AI能够为我们所有,更好地改善我们的生活。在这中间,伦理(ethics)就起着非常关键的作用,因为要能够确保AI在发挥其潜力的同时能够缓解其带来的风险。


AI在许多的场景下会有不同的定义。如果定义出了差错,那么对AI的伦理挑战的评判就可能是不准确和不负责的。其中一个观点是利用经典定义:



“growing resource of interactive, autonomous, self-learning agency, which enables computational artifacts to perform tasks that otherwise would require human intelligence to be executed successfully”。

“不断增长的互动的、自主的、自学代理的资源,使计算部件能够执行任务”。



AI还可以在一些特征中进行定义,比如依赖的模型或技术架构。但在政策相关的问题上,是不需要技术架构的。另一方面,AI是数据驱动的技术,因此面临数据管理的伦理挑战,包括同意权(consent)、拥有权(ownership)和隐私权(privacy)。AI带来的数据相关的挑战是有唯一性的,即其他技术的发展并不会带来这样的问题。同时,AI也是一种自动化和自学习的技术,因此也会带来一些独特的伦理挑战。这也是本文重点关注的内容。


AI的伦理争论可追溯到20世纪60年代,从那时起,就引出了许多授权与责任(delegation and responsibility)相关的问题。随着AI应用的场景越来越多,包括招聘、医疗、任务理解和决策,如何将责任归结为性能问题,其实是一个伦理问题。同时,AI变得随处可见,新的伦理挑战随即出现。人类自我决定(self-determination)是其中最相关、最亟需解决的问题。利用AI对用户进行画像然后精准广告投放就是一个例子,AI系统获取了用户偏好、特征,并进行用户画像,然后用于之后的推荐的案例,这样的案例可以应用于在线服务提供商,甚至是政治活动等。


授权与责任


AI的应用变得越来越普及,从货物运输到国家安全,用户依赖AI应用来处理不同的任务。将这些任务分配给AI来做会给我们人类带来大量的收益,可以降低成本、减少风险、增加持续性和可靠性,确保新的方案可以应用到解决复杂问题中等等。比如,AI应用在诊断乳癌方面可以将诊断错误率降低85%,AI网络安全系统可以将识别和中和网络攻击的平均时间从101小时减少到几个小时。


Delegation(授权)可能会导致有害的和一些意想不到的后果,尤其是涉及敏感的决策或任务时。以COMPAS系统为例,COMPAS是一款预测罪犯可能会成为再犯的风险评估的AI软件,但COMPAS系统在非裔美国人和西班牙裔美国人的评估中存在歧视问题。因此,人类需要对这些AI的应用过程进行监管来减小不希望的结果,并对AI不公平的影响进行矫正。


人类的监管在处理复杂问题上是不够的,因此需要能够解释AI和预测结果的技术。DARPA(Defense Advanced Research Project Agency)的XAI(Explainable Artificial Intelligence)项目就是一个这样的,该项目的目标就是定义解释AI系统决策过程的新技术。这样人们就可以了解AI系统决策的过程,设计者和开发者就可以通过避免错误、缓解误用带来的风险等方式来改善系统。类似的项目必须含有伦理影响分析的过程,判定AI的风险和好处,定义设计和使用AI的指导原则。


基于AI的决策或行为的效果是设计者、开发者、 用户、软件和硬件等众多参与者无数次交互的结果,这就是distributed agency(分布式代理)。分布式代理带来了分布式责任,现有的伦理框架解决的是单个的人的责任,基于单个人的动作和意图进行奖励和处罚,而不能解决分布式的责任问题。


直到最近才有一些新的伦理理论考虑了分布式代理。这些伦理理论基于合同和侵权责任或严格的责任,并采用了无过错责任模型(faultless responsibility model)。该模型将单个代理的责任从意图中分割出来来执行特定的动作,或从能力中分割出来来控制结果,并持有分布式系统的所有代理。这在AI中是非常重要的,因为将道德责任分布在设计者、监管者和用户之间了。所以,模型在“惩恶扬善”上起着关键的作用,因为模型会促使所有的代理采用负责任的行为。


为授权建立最佳实践(good practices)并定义新的模型来分配道德责任是抓住AI创造的机会和解决相关挑战所必须的,但这仍然是不够的。伦理分析必须扩展为考虑AI对人类行为的不可见的影响。


可信度与透明度


AI支持的服务、平台和设备随处可见,并逐渐应用到我们生活的各个方面。2017年,国际机器人学联合会预测到2020年会有超过170万新AI驱动的机器人安装在世界各地的工厂。同年,Juniper Networks公司发布的报告称到2022年,55%的家庭会拥有语音助手。


随着AI技术的成熟和传播,AI会融入我们的生活、经验和环境中,变成一个隐形的促进者。在创造新的机会方面,AI与环境的融合会出现新的伦理问题。其中一些问题是领域独立的,比如在将AI解决方案嵌入家庭、学校、医院时,可信和透明是非常重要的,而在工作场所,员工的平等、公平、创造力的保护和权利也是必要的。但AI的融合也会产生新的基本风险:因为AI巨大的影响力会侵蚀和破坏人类的自决性。


图片:住院儿童可以通过Avatar Kids项目用远程控制的机器人参与课堂互动,图片来源:BSIP/UIG VIA GETTY IMAGES


因为AI的预测能力、普遍存在性、轻微影响性,AI系统可以轻易地、默默地形成我们的选择和动作,比如可以培养社交和合作能力 。但AI的影响力也可能会超出我们的预期和理解,逐步削弱我们对环境、社会的控制,并最终影响我们的选择、身份和生活。


伦理原则制定


为了解决AI带来的风险,识别出基本的伦理原则集是必要的,因为可以使AI的设计、管理和使用都遵循这些原则。但这并不容易,因为文化场景和分析的领域不同,伦理原则就会有所不同。这也是IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems(全球自主和智能系统伦理倡议)想要解决的问题。


更重要的一点是,一些基本原则的协定正不断涌现。最近就有文章对关注AI伦理的主流观点进行了对比分析,主要强调的是这些原则的重叠点和生物伦理学的主要原则,也就是慈善、非恶意、自治和正义。对于这些准则未来的融合,我们的观点可以乐观一些,因为其他原则主要来自于Universal Declaration of Human Rights(世界人权宣言)。


识别出伦理原则后,就需要转化为可行的指南来形成基于AI的创新。这种转化也是有先例可循的,尤其是在医药行业,转换研究从基础研究到临床应用,基于生物学的研究进展来开发新的治疗方法和方案。伦理转变还适用于学术进展,用于形成规制和治理方法。这种方法在不断加强AI4People即将出台的用于伦理设计和AI管理的建议。


AI4People是欧盟议会2018年2月(注:文章中是2018年2月,AI4People网站写的是2017年11月)启动的一个项目,是为研究AI带来的社会影响而建立的。目标是创建一个布局构建“good AI society”政策和实践的公共空间。AI4People也是一个多利益方参与的全球性论坛,包括欧盟国会、社会组织、工业界和媒体等。


AI的伦理需要制定一些预见性方法来识别伦理风险和机会,预防一些不期望的结果出现。影响评定分析就是这种方法的一个例子,提供了对给定企业的隐私、透明性、责任等方面应用的技术的影响的分析。AI系统设计和伦理管理是一个复杂但必须要做的事情。这种可选的方法可能会造成个人权力和社会价值的降级,基于AI的创新也可能会受到很大的限制,很可能不小心错过AI改善个人生活和社会福利的机会。


因为AI革命的意义重大,因此人类不能再犯同样的错误。解决后AI社会和价值的本质问题是必须的,而且要考虑设计、管理和使用等不同的方面。这也是AI4People、IEEE projects、欧盟AI战略、欧盟人工智能合作宣言(EU Declaration of Cooperation on Artificial Intelligence)的共同目标。社会、政策、商业界、学术界的共同合作可以帮助识别和找出使AI“为我所用”的力量,并解锁其尊重人类人格的同时促进人类繁荣的潜力。


(全文完)

点击阅读原文查看完整英文原文


 推荐阅读  人工智能时代的战略竞争

人工智能时代的军事效能

数据黑暗时代

《人工智能与国际安全》

社会工程威胁社会:剑桥分析的案例

军事AI的五大基石

人工智能与国际事务

人工智能时代的政策制定

人工智能、机器人和自动化

人工智能在海战中崛起

人工智能的“算法问责制

当机器人开始杀人

布鲁金斯《人工智能改变世界》

兰德《人工智能对核战争的影响》

2018美国人工智能安全委员会法

《美国机器智能国家战略》

《AI、政治战与俄罗斯》



  • 中国电子科学研究院学报》欢迎各位专家、学者赐稿!投稿链接

  •  http://kjpl.cbpt.cnki.net

  • 学报电话:010-68893411

  • 学报邮箱:dkyxuebao@vip.126.com

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存