《自然》:如何教AI作出道德抉择?这项万人研究给了我们答案
药明康德AI/报道
一辆有轨电车正在铁轨上行驶,在列车的前方有五个人,他们已经无法避开即将到来的撞击。拯救这些人的唯一方法就是按下列车上的一个按钮,让列车驶向另一条轨道,但是这样一来就会撞上另外那条轨道上的一个人。面对这样的选择,你是会选择救一个人,还是让电车改变轨道救下五个人呢?
本文来源:药明康德AI
上面的这个场景就是著名的“电车难题”。在过去的研究中,研究人员会设置一些模拟场景,让参与测试的人进行选择。但是,上面描述的这一场景似乎在人们的现实生活中并不会真实发生。如今,随着人工智能技术的发展,无人驾驶技术已经日趋成熟。今年3月,Uber公司发生的全球首起无人驾驶致死事件,引发了大众对于AI和伦理道德方面的思考。而未来AI在驾驶汽车前进的过程中,很有可能会真的面对这种无可避免的事故场景。在这个时候,如何制定一套大众社会普遍接受的道德标准,来指导AI系统对这类场景进行处理呢?
▲随着自动驾驶技术的不断进步,其在道德伦理方面也引起了人们的思考(图片来源:123RF)
今天《自然》上在线发表的一篇论文或许可以给我们一些启示:一群来自MIT的研究人员完成了一项万人全球道德偏好调查,调查内容为无人驾驶汽车应如何在无法避免的事故中决定拯救哪一方。
这项研究的负责人Iyad Rahwan博士及其团队搭建了一个名为“Moral Machine”的大型在线调查平台,用来统计全球公民的道德偏好。每个实验参与者都将置身于一个不可避免的事故场景中,事发时一辆无人驾驶汽车正行驶在双行道上。每个场景都会让行人和乘客身处不同的危险,而汽车可以选择变道,或者维持当前方向行驶,但是不管哪个决定都将导致某一方死亡。参与者必须选择救谁并决定汽车的前进路线。共有来自233个国家的约4000万人参与了此次调查。
▲在这个场景中,你会选择救下人行道上的人,还是汽车中的人呢?(图片来源:《自然》)
这项调查重点关注了九组对立的选择因素,分别是:救人还是救动物、保持当前行驶方向还是变道、救乘客还是救行人、救多数人还是救少数人、救男性还是救女性、救年轻人还是救老年人、救遵守交通规则还是横穿马路的行人、救健康程度较高还是较低的人、以及救社会地位较高还是较低的人。同时,某些情景中还包括了罪犯、医生或孕妇等其他人物,这些人物与上面九个因素中的任何一个都没有联系。
研究结果揭示了很多共同的道德偏好,如大多数人会倾向于救多数而不救少数,救年轻人而不救老年人,救人而不是动物。同时,这项研究还发现了不同文化之间的道德偏好差异。例如,来自中美洲和南美洲国家,以及法国等地的参与者会呈现出先救女性和强壮个体的强烈偏好。而来自收入差距较大的国家的参与者在决定救谁时,往往会考虑其社会地位。
▲研究结果反映了人们对于不同因素做出的选择偏好(图片来源:《自然》)
研究人员在论文中写道,我们在为人工智能建立广泛的道德准则方面,会经常呼吁机器伦理应与人的价值观相一致,但是很少有人能意识到,人类自身在道德领域也会经历内在冲突、人际分歧和文化差异。在放手让汽车进行道德抉择之前,我们需要进行一场全球性的对话,将我们的偏好告知那些道德算法设计公司以及执行监管的政策制定者。
尽管如此,在这项大型研究中,世界上大部分地区参与者能够表现出相对一致的选择,这为我们在未来某一天达成统一的机器道德伦理标准带来了希望。
参考资料:
[1] Awad, et al., The Moral Machine experiment. (2018). Nature, DOI: https://doi.org/10.1038/s41586-018-0637-6
本文来自药明康德微信团队,欢迎转发到朋友圈,谢绝转载到其它平台。如有开设白名单需求,请在文章底部留言;如有其它合作需求,请联系wuxi_media@wuxiapptec.com。
更多精彩文章:
仅仅12个神经元竟能控制汽车倒车入库!这又是什么新操作?(附视频)
软银参投!AI平台C轮融资2000万美元,首款产品解决手术失血量问题