其他

美退役少将谈“杀人机器人” |访谈

2018-01-12 Tobin Harshaw 商业周刊中文版

本文系商业周刊App付费文章,禁止转载。


拉提夫认为战争技术中的人工智能和自动化争议最大


“自动化武器会不知不觉地来到我们身旁”


对埃隆·马斯克(Elon Musk)来说,2017年又是忙碌的一年。特斯拉(Tesla)的市值超过福特(Ford)和通用汽车公司(General Motors),巨型锂电池工厂开始源源不断地生产出锂电池,旗下的安装公司开始在居民房屋的屋顶安装不破坏 37 35509 37 13250 0 0 6920 0 0:00:05 0:00:01 0:00:04 6919筑美感的太阳能电池板。他正准备向火星发射两枚火箭,在洛杉矶地下挖掘巨型隧道,并且在百忙之中还不忘批评特朗普在《巴黎气候协定》上的所作所为(当然,他并没有做到面面俱到,问问Model 3轿车等候名单的车主就清楚了)。


禁止杀人机器人


有鉴于此,大家很容易忽视掉马斯克2017年心愿名单中的另外一项:拯救人类。2016年夏天,他联合包括谷歌人工智能权威穆斯塔法·苏莱曼(Mustafa Suleyman)等其他一些科技业大佬联名致信联合国,敦促严格禁止机器人杀人武器。在他们看来,这种机器人大杀器的诞生将意味着人类噩梦的开始,他们在信中写道:


致命性自动武器的诞生有可能演变成为“第三次战争革命”。这种武器一旦开发出来,会导致武装冲突的规模之大超出以往,蔓延速度之快超出想象。这类武器既可以成为被暴君和恐怖分子用来对付无辜平民的恐怖杀器,在被黑客入侵后,其用途也可能会适得其反。人类没有太多时间阻止这类武器,潘多拉盒子一旦打开,再想关上谈何容易。


与此同时,五角大楼也在撰写另一封信:其2018国防预算报告中要求国会拨款130亿美元的科技研发资金,另外100亿美元用于开发空间作战系统。我不想惹马斯克先生不快,但他会发现,作为对手,美国的军工产业可要比底特律那些老掉牙的汽车公司难对付得多。


然而,就像任何一个与亚马逊智能助理Alexa独居一室时略感紧张的人一样,我相信那些参与自动武器研发的人中间一定有人像马斯克一样感到担忧。我在本周就找到了这么一位:《未来战争:为全球新战场做准备》(Future War: Preparing for the New Global Battlefield)一书的作者,前空军少将罗伯特·拉提夫(Robert Latiff).


拉提夫将军与其新作《未来战争:为全球新战场做准备》


退役少将访谈


拉提夫将军在2006年从美国空军退役,退役前曾担任美国国家侦察局(National Reconnaissance Office)先进系统和技术部门主任。退役后,他一直在国防工业领域任职,并在圣母大学(Notre Dame)和乔治梅森大学担任讲师。以下是节选的访谈记录:


记者:将军,您十多年前就已经退役,为什么现在才出这本书?您在私营和学术领域的经历对于您对“全球新战场”的观点有哪些启发?


拉提夫:事实上,我从伊拉克战争时起就开始思考这个问题。当我目睹战场上所发生的一些情况(不仅仅是阿布格莱布监狱),这着实让我感到困扰。退役后,你能想象得到,我进入了国防承包商行业工作,这份差事不算坏。但无论在军中,还是退役之后,我都没听说有谁质疑我们的某些研究是否应该进行。你要知道,这类研究有的真是挺吓人,我不知道这样的研究算不算不道德,但没人提出过这方面质疑。


记者:能否举一两个例子?


拉提夫:一般来说,与生物学有关的一些研究会有点恐怖,像合成生物学这样的研究你不知道最终会有什么样的后果。一些电磁学方面的研究也有点吓人,特别是与人类和杀伤力有关时。


记者:明白了,所以你花了些时间在私营领域,而……


拉提夫:在我最终退役并闲下来从事教学和咨询工作时,这些问题还在困扰着我。我和圣母大学取得了联系,借助这样一个机会,我开了一门课程,深受学生欢迎,最终,有人请我围绕这个话题出一本书,内容与这门课相关,但不完全基于授课的内容。


拉提夫将军在圣母大学讲授课程


记者:圣母大学的学生反响如何?


拉提夫:刚一开始,他们有些吓着了,或许用吃惊来形容更合适。他们中很多人从未接触过这类军事话题。刚开始给他们讲这些新式武器时,学生们的反应都很兴奋,他们中很多人的第一反应是:“没错,我们就得这么干。”但当我让他们思考这么做在道德上会有哪些影响时,他们似乎陷入了沉思,我觉得他们在其中学到了很多东西。


记者:只要战争还存在一天,围绕战争伦理的争论就不会停止。就战争的正义与否而言,中世纪意大利神学家托马斯·阿奎纳(Thomas Aquinas)的“战争论”可能最为知名。当我们以传统视角来审视今天的战争技术时,有哪些你认为会引发最大的争议?


拉提夫:我认为人工智能和自动化的争议最大,很大程度是因为这些并没有人类参与。在阿奎纳和圣奥古斯丁的时代,他们争论的是“战争的意图”是否正确。杀戮的意图是否正确?杀人者是否获准这样做?我们现在做的事情是在保护无辜者吗?我们是在避免不必要的痛苦吗?而在自动化和人工智能时代,我不觉得军工行业有谁可以证明,我们能够放心地任由这些系统去做该做的事。


记者:是啊,我们知道很多人担心这个问题。2016年有一大群科技行业大佬写信给联合国,要求禁止机器人大杀器。2016年11月还以《常规武器公约》的名义举办了会议,希望将相关禁令扩大至全球范围。我个人认为这只是痴人说梦。在限制人们所担心的这种毁灭性武器方面,国际社会能形成一致的努力吗?


拉提夫:我认为可以,也应该如此。很凑巧,支持禁用这类武器的那些人中间有人联系到我。我对他们的答复是我不认为这么做是痴人说梦。我只是觉得他们的出发点是好的,但方法有问题。首先,我不觉得禁用会有效。其次,我不认为发达国家会参与到这类武器的禁用中。但你禁用某些东西时,大多数时候这类东西会转入地下,你无法对此进行监督,国际法中没有监督这条。


我是武器控制和不扩散条约的坚定支持者。无论是美国、俄罗斯还是中国,他们无论如何都会遵守这类条约。如果我们能够制定某种合约,可以限制那些我们可以集体限制、且具有某种核实机制的东西,更重要的是,各方一致同意防止这类武器的扩散,那就可以说是向前迈进了一步。的确,一些流氓国家到头来会得到一些这类武器。但是对这些军控条约进行监督和核查要比禁用这类武器更容易实现。


科技大佬去信联合国要求禁止杀人机器人


记者:我也是核不扩散条约的坚定支持者。但要生产这类武器,你需要具备强大的工业基础。此外,核原料的生产和藏匿也很难不被人发现。但说到人工智能和网络武器,这些东西可以很容易被隐藏起来,这怎么核查?


拉提夫:在今天,这的确是个问题,除了在武器核查条约的范围上做文章,我不觉着有什么简洁的答案。超级大国在这方面非常在行。就算有种种条约的限制,我们依然可以飞越俄罗斯的领空,俄罗斯也可以飞越我们的,我们的卫星在盯着他们,他们的卫星也盯着我们。


所以说,对于那些新的技术,我们应该给机会进行试验,看看这些技术最终的效果,我们在预测武器性能方面很在行。我不知道最终的核查机制会是什么样子,但是有这样一个核查机制总比下一道禁令,然后再去大海里捞针要强。


记者:几个月前,我采访了曾主抓奥巴马政府尖端国防现代化的前国防部副部长鲍勃·沃克(Bob Work)。他称这一举措为“第三次抵消战略”,因为俄罗斯和中国这些超级大国对手在制导武器和一体化联合作战网络这些“第二次抵消战略”方面已经和我们齐头并进。你是否也这样看待未来的挑战呢?


拉提夫:我也是,而且我赞同副部长关于中、俄已经迎头赶上的观点。你看看近来俄罗斯在叙利亚战场上巡航导弹的攻击,那些导弹先进极了。至于自动化、人工智能、超音速和电磁武器,即使他们眼下还在落后,也会很快赶超上来。所以说,“第三次抵消战略”的领先时间不会比“第二次抵消战略”长多少。


记者:的确,前两次抵消战略(第一次核技术、第二次精确制导)的领先时间只有几十年,第三次可能更短。有鉴于此,对于这些新技术,五角大楼应该重点关注哪些?


拉提夫:我认为我们在自动化和网络空间里仍占据优势。我认为最让我担忧的、也是我最不确定我们是否占据优势的是电子战。我所指的不一定是那些核电磁脉冲武器,我是泛指从小型电子战到大范围电子战涉及的一切问题。


未来战争会涉及网络战、外太空战


记者:比如说干扰系统?


拉提夫:干扰系统是其中之一。或者说能够摧毁或干扰我方电子系统的电子脉冲,有些类似网络战,但使用的是电磁脉冲。还有集成了微波和定向能量束等的战地武器。


记者:所以说不止有杀人机器人,还有“星际迷航”里面的相位枪。说到这一点,我们知道,根据联合国条约,外太空不应该部署武器。但我觉得外太空距离武器化只是一步之遥。俄罗斯甚至印度等在这方面投入了大笔资金,你认为是否有必要在太空武器不扩散方面做些工作?


拉提夫:我本人非常欢迎这方面的举措。但我也认为超级大国可能还不想这么做。说到“星球大战”或“星际迷航”,我并不为外太空的战争而感到非常担心。我甚至不担心在太空部署可有效攻击地球的武器。如果了解一些物理学和轨道力学原理,你就知道这类武器的成本有多高。


让我感到担心的是美国对空间系统的极端依赖,俄罗斯也日渐如此。对此每个人都心知肚明。所以,地基反导系统,无论是可以干扰重要空间系统正常运行的激光、电磁,还是可能干扰或摧毁轨道卫星的在轨武器系统,都令人感到极端的担忧。


记者:还有什么让你睡不着觉?


拉提夫:五角大楼围绕自动化武器的整体思路都让我感到不安。我来解释一下,五角大楼在2012年制定的政策中要求真人必须参与其中,这一点是好的。我反对的是致命自动化武器。但是和大多数这类政策不同的是,国防部并未制定实施指导原则。后续工作一直没有跟进。近期发布的一项国防科学委员会报告不建议杀伤性武器自动化。总的来说,官方在这个问题上异常低调。坦白的说,我认为任何有思想的人都认识到,自动化武器会不知不觉地来到我们身旁,无论我们同意与否,这一天都会到来,我认为目前有关自动化杀伤性武器的政策是掩耳盗铃,我们需要对这些政策做出澄清。


(本文内容不代表彭博编辑委员会、彭博有限合伙企业、《商业周刊/中文版》及其所有者的观点。)


撰文:Tobin Harshaw

编辑:方李敏、邹世昌

翻译:吴洪涛


◆  ◆  ◆  ◆  ◆  


点击你感兴趣的关键词

立即获得关于TA的更多信息!

马云专访化妆品帝国英国港口堵车

股灾教训理查德·塞勒哈佛“关系户”

省钱套路比特币暴涨风投聚焦针织袜

吴亦凡普京民心渐失欧洲最富有王室

特斯拉重型卡车硅谷金融危机知识付费

......

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存