查看原文
其他

欧盟正打造AI伦理新准则,试图成为全球AI伦理领域的领导者

编译 方陵生 世界科学 2022-05-04

自Alphago战胜了世界级围棋选手李世石之后,人工智能(AI)发展迅速,不断刷新人类对AI的理解。也正因为如此,引起了各国对人工智能发展所带来及未来可能带来问题的担忧,多国(地区)陆续也发布了相关治理规范。


近期,欧盟发布了一套如何确保AI“值得信赖”的新准则,旨在确立其在AI伦理方面的领先地位。


 一名戴着全息眼镜的女工正在自动化生产线上接受工作指令并对产品进行例行检查


欧盟发布了一套如何确保人工智能(AI)“值得信赖”的新准则。这些准则有些抽象,而且目前并不具备法律效力。但却为AI开发者、公司和个人了解新的AI系统是否合乎伦理提供了评判依据。


类似准则清单,欧盟并不是第一个发布者,白宫于2016年曾发布了23条关于AI的准则,但与之相比,欧盟的这份清单更加具体


这份清单提出了AI需要满足的几点要求,包括:


透明度(当某个AI系统做出与我们有关的决定,或者对于我们来说解释得通的决定时,我们应该有知情权);


稳健性和安全性(AI系统应该可以抵抗黑客的敌对攻击);


非歧视性和公平性(AI系统不应存有种族或性别偏见)等。


但新准则同时也涵盖了人们通常较少考虑的领域,比如:AI对环境的影响。专家们强调:


“在整个AI系统的生命周期中,更大范围的社会群体、其他生物和环境也都应该被视为利益相关者,应该鼓励重视AI系统的可持续性和生态责任。“


新准则怎么实施?

一些人可能会质疑这些准则到底有多大用处,因为到目前为止,还没有任何法律机制来负责执行实施这些准则。


那么,用什么来激励AI开发人员遵循这些可能会降低开发速度的伦理道德准则呢?


“自我调节显然是行不通的,”AI领域的领军者约舒亚•本吉奥(yoshua Bengio)最近对《自然》杂志如此说道,“你觉得自愿纳税能行得通吗?显然是行不通的。”


然而,目前的欧盟计划中确实有了一份能发挥作用的东西:准则检查对照清单。它由一些易于理解的问题组成,公司高管在为工作场所购买新的AI系统之前,可以向AI开发人员提出一些问题,普通公民也可以这么做。


一些简单的问题如下所述:

• 是否能够确保在需要时可通过停止按钮或程序安全中止操作?是完全中止、部分中止,还是将控制权委托于人类?


• 是否对AI系统可能受到的潜在攻击的形式进行过评估?


• 一旦AI系统出现不准确预测进而造成危害是否有过验证?当这些情况发生时,相应应对措施是否到位?


• AI系统在使用输入数据和算法设计过程中会产生不公平现象,是否制定了相应的策略或程序进行干预?


• 评估AI系统,看其是否也适用于一些特殊人群,如伤残或因某些因素被排斥的人?如何在系统设计中考虑到这些人群的需要,并如何加以验证?


专家们强调,他们所列的清单并不包含所有问题,也不是最后的定稿。事实上,他们已经邀请了公司、组织和其他人来试用这个准则对照清单并提供反馈意见,根据收到的意见,他们将在2020年初对这份清单进行修订


他们将这份开发AI的准则清单称为“一份将随着时间的推移重新审查和更新的动态文件”,这是一个明智的举措,因为AI技术将不可避免地发生变化,而且变化速度可能会非常快,我们对其风险的认识也将随之发生变化。


如果没有这样的准则,我们将会面临何种风险?

专家们强调,这些风险既有技术性的,也有非技术性的。


在技术层面上,AI系统可能会有的意想不到的薄弱点。

比如,一辆特斯拉自动驾驶汽车可能会因受到攻击而“犯傻”,开到迎面而来的车流中。


专家们建议:让信得过的安全专家故意尝试攻击某个系统,并提供“漏洞发现奖励金”来鼓励人们发现和报告漏洞

特斯拉已经向成功侵入其系统的研究人员提供现金奖励或实物奖励(汽车)。


在非技术层面上,欧盟专家讨论了AI可能给公民自治带来的风险。


例如,由公共机构主导的全方位、大规模“规范公民评分”(对‘道德人格’或‘道德操守’的综合评价),似乎在不断发展社会信用体系,但这一体系往往是通过人们在网络上的活动来监控他们的行为,并根据这些行为打分。



欧盟发布的准则,可能预示着其试图将自己定位为AI伦理领域的世界领导者,因为在实际的AI发展方面,它无法与中国或美国等国家竞争。


不过,欧盟不是唯一一个试图将自己打造成合乎伦理道德AI开发领域中的领导者形象的机构,另外如经合组织(OECD)也在计划发布自己的关于AI开发的一系列建议。


资料来源:

How do you make sure AI is trustworthy? The EU wrote a checklist.




扩展阅读:

连激进的埃隆•马斯克也对人工智能悲观了起来:毫不设防地发展AI,无异于一场豪赌

当我们惊讶于人工智能的厉害时,黑客却发现它们笨得可笑

MIT新建一个学院,有人怒捐3.5亿美元,MIT还要跟进10亿…美国在人工智能领域的野心可见一斑

人工智能的简单经济学:什么样的技能组合更能适应未来社会?

斯坦福大学成立HAI——以人为本的人工智能研究院


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存