冯象 | 从阿西莫夫到奥古斯丁
第一定律,机器人不得伤害人,也不得见人受到伤害而袖手旁观;第二定律,机器人应服从人的一切命令,但不得违反第一命令;第三定律,机器人应保护自身的安全,但不得违反第一、第二定律。阿西莫夫在科幻小说里提到的三定律,规定了机器人在与人类相处时候的三条铁律。
有意思的是,如果联想到近代政治哲学的奠基之作《利维坦》,霍布斯谈论人类在自然状态下的第一条自然律是,人们禁止毁灭自己的生命,并且可以尽可能自我保全。人类首先要自利于自己的性命,再去考虑同别人相处,但是在阿西莫夫这里,机器人仅仅是在第三定律才能考虑保护自身。 冯象认为,阿西莫夫所设立的三条定律在现实世界非常难以执行。就第一条定律而言,我们非常难以界定伤害人类的定义,伤害总是从法律意义里的后果角度进行衡量的伤害,没有后果就很难称为伤害。然而导致后果的情节与动机千差万别,最终往往难以实现判断。另一方面,人工智能对于分析因果律的能力非常一般,它的思维并非按照严格的因果律思维的,而是采用概率论。这样,对于人工智能来说,人类社会中道德的、伦理的行为不同于自然科学中客观的因果律,它在具体道德情境中会面对非常具体的道德选择,人工智能依照科学思维并不能正确做出判断。就第二条定律来说,人类的意见往往不统一,有时候也会前后矛盾,一旦出现这种情况,机器人服从人的一切命令便就遇到困难,它可能需要在人类命令中选择一条,造成执行上的困难。既然第一、第二条定律都遇到问题,以前两条定律为前提的第三条定律就更不消说了。 其实,表面上看阿西莫夫为人机关系设立的三条定律,相较于《利维坦》给人类社会设立的自然律差别非常大,但是它们其实有相通之处。阿西莫夫笔下的机器人被要求保护人类胜于保护自己,这恰好不是《利维坦》第一自然律的未来运用么?人类总是将自我保存放在首位,当机器人的AI超越人类,并且有可能对人类造成巨大威胁时,那么处于自我保存的原则,机器人一定不可以像人类一样,以保存自己作为第一原则。
冯象提到,人类可以继续讨论究竟以何种方式制订人机相处的原则,首要考虑的人的价值,以及支撑着人类价值的现代文明制度。就现有情况来看,人类社会面临着几项无可争议的前提性事实:
注:冯象老师演讲稿全文将刊登于文汇报,感谢冯老师授权刊载这篇侧记稿。