其他

美国前空军少将:自主杀人武器使我夜不能寐,它终将到来

2018-01-02 新智元





  新智元编译  

作者:Cecilia

 

【新智元导读】去年,一款能“一击毙命”的杀人机器人曾引起广泛关注。美国前空军少将Robert H. Latiff表示很担心人工智能和自主武器,因为没有人类参与,AI和自主武器将会引起最大问题。并表示,联合国对杀人机器人的禁令将不会奏效,自主武器终将到来。



2017年11月,在日内瓦举办的联合国特定常规武器公约会议上,一段骇人听闻的视频发布,视频中类似杀人蜂的小型人工智能机器人通过面部识别系统辨别射杀对象,迅敏将其击毙。


尽管只是一个演示,但这款“杀人机器人”迅速引发广泛关注。同时,为了督促各国政府制定监管而展示的这段视频,似乎并没有在俄罗斯那里取得成效,俄罗斯对联合国提议的禁止致命自主武器系统(LAWS)采取强硬态度,表示无论如何都会造成杀人的僵尸



美国前空军少将:自主杀人武器使我夜不能寐,联合国禁令不会奏效


彭博新闻社就此采访了美国前空军少将Robert H. Latiff。Latiff自退役后,一直在国防领域工作,并在圣母大学和乔治梅森大学担任讲师。他是《未来战争:为新全球战场做好准备》一书的作者。



以下是经过编辑的采访对话:

 

问:只要发生了战争,就会出现关于战争伦理的争论。托马斯·阿奎那的“正义战争”理论可能是最著名的。当今,哪一项技术会引起最大的问题?


答:我认为人工智能和自主武器会引起最大问题。这主要是因为人类没有参与。阿奎那和圣奥古斯丁会谈论“正确的意图”。正在杀人的人是否有正确的意图?他有权这样做吗?我们是否在保护无辜者?我们是否在阻止不必要的痛苦?就人工智能和自主武器而言,我不认为有人可以证明这些系统正在做它们应该做的事情。

 

问:我们知道很多人都在担心这个问题。去年,许多科技巨头给联合国写了一封信,要求禁止杀人机器人。联合国特定常规武器公约会议也试图在全球范围内禁止杀人机器人。你认为通过国际努力能够起到限制作用吗?

 

答:我认为应该有国际性的努力。我认为这个意图是好的,但方法不对。首先,我不认为这些禁令会生效。其次,在我看来,发达国家不会理会这种禁令。所以,无论你禁止什么东西,它其实是埋在地下不见天日的。

 

我是军控协议和防扩散协议的忠实粉丝。像美国、俄罗斯和中国这样的国家,他们会这样做。如果我们能够制定某种军控协议,我们可以限制我们所做的事情,并有某种核查制度。更重要的是,同意遏制扩散,这就是前进的一步。监督和核查一项军控协议会比禁令要容易得多。

 

问:我也强烈支持核不扩散协议。但是很难生产和隐藏那些制造核武器所需的材料,而生产人工智能和网络武器的材料则很容易隐藏。你如何验证?

 

答:这就是今天所面临的问题,除了创建某种验证协议外,我没有其他更简单的答案。根据已有的协议,我们已飞跃俄罗斯上空,他们也会飞跃美国上空。我们把卫星放在他们那里,他们也会用卫星来监视我们。


因此,在人工智能方面,我们也需要抓住一些机会进入其他强国的实验室,看看他们在做什么。我们很擅长预测其真实能力。我甚至不知道那个政权到底什么样,但这总比仅仅建立禁令和试图大海捞针强。

 

问:五角大楼现在应该关注什么新技术?

答:我认为我们在自治和网络上仍有优势,但比较担心电子战,从非常小的电子战到巨型电子战。

 

问:例如干扰系统?

答:算是一个。或者能够破坏或干扰电子系统的电子脉冲。这有点像网络战,但它使用的是电磁脉冲。还有包含微波和定向能量束一类的战争武器。

 

问:还有什么使你夜不能寐?

答:国防部正在采取的自主武器权的做法令我感到担忧。我来解释一下:国防部在2012年出台了一项政策,一个真正的人必须参与其中。这很好。我非常反对致命的自主权。但与大多数政策不同的是,这项政策从来没有任何实施指导,也没有任何后续行动。最近国防科学委员会的报告没有提出任何关于致命自主武器的建议。坦率地说,我认为这是因为任何一个具有思想能力的人,都承认自主武器将会潜入我们的生活。无论我们是否同意,它必将发生。我认为对此保持沉默,就是一种鸵鸟把头埋进沙子似的不肯承认现实的政策。


军用机器人趋势不可逆,冰冷机器无法权衡道德后果


军事应用中将会使用更多人工智能机器人,这是不可逆的趋势,它们有能力执行更多困难的任务。在要求速度和精度的情况下,军用机器人的神经网络的机器图像分类器已经能够在一些基准图像识别测试中击败人类。


这些优势表明,在战争中的某些情况下,机器可能会胜过人类,比如迅速确定一个人是否持有武器。机器还可以追踪人体的动作,甚至可以捕捉潜在的可疑活动,比如一个人可能是一个隐藏了武器,这类反应比人类更快,更可靠。


机器智能目前有许多弱点,神经网络容易受到网络的欺骗攻击(发送虚假数据),伪造“愚弄的图像”可以用来操纵图像分类系统,使其相信一个图像是另一个图像,并具有非常高的置信度。而且,这些图像可以以一种人类无法察觉的方式隐藏在普通图像中。攻击者不需要知道神经网络为了欺骗网络而使用的源代码或训练数据,这使得这些系统的真实应用程序成为一个令人担忧的漏洞。


更普遍的是,今天的机器智能是脆弱的,缺乏人类智能的稳健性和灵活性。即使是一些最令人印象深刻的机器学习系统,如DeepMind的AlphaGo,在玩不同尺寸的棋盘时,其性能明显下降。


人类也能够理解战争的道德后果,战争中的许多决定都没有简单的答案,需要权衡,机器无法衡量人类的生命价值。美国参谋长联席会议副主席保罗·塞尔瓦(Paul Selva)在今年7月份向参议院军事委员会表示:“我们认为让机器人负责我们的生命是不合理的。”

    

在对自主武器发展是否应适当介入人类控制的复杂讨论中,必须充分考虑快速发展的地空自主系统商业市场。考虑到商业领域可以提供衍生或优越的技术,禁止使用自主技术用于军事用途可能并不现实。




新智元2018新年寄语


2017年有几个关键词,第一是探索极限,探索人类智能和机器智能的极限。第二是城市升级,无论智能交通还是中国要用人工智能作为支柱产业,可能都会面临国家经济体系的升级。第三是产业跃迁,我们要接地气,每个产业都用AI技术赋能,爆发出来颠覆传统体系的潜力。


2017,新智元见证人工智能成为时代主流,中国企业成为全球互联网主角,新智元平台也实现超35万平台用户产业链互联。与掌握AI技术的智者同行,是新智元之幸。2018,我们不忘初心再出发,一起构建AI开放平台,助力中国智能+


最后,祝愿新智元的朋友们能够利用AI工具赋能社会、赋能人类。


——新智元创始人兼CEO    杨静



加入社群


新智元AI技术+产业社群招募中,欢迎对AI技术+产业落地感兴趣的同学,加小助手微信aiera2015入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名-公司-职位;专业群审核较严,敬请谅解)。


此外,新智元AI技术+产业领域社群(智能汽车、机器学习、深度学习、神经网络等)正在面向正在从事相关领域的工程师及研究人员进行招募。


2018,加入新智元社群,一起构建AI开放平台,助力中国智能+

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存