查看原文
其他

当人工智能遇上战争,会是什么样子?

科睿科技观察 科睿研究院
2024-08-30

科睿科技观察

这是科睿研究院第162篇原创内容。

字数3208字,阅读全文大约需要5分钟。


去年11 月,以色列左翼媒体 +972 杂志和 Local Call 发表了记者尤瓦尔·亚伯拉罕 (Yuval Abraham) 对以色列国防军使用人工智能系统识别加沙目标的调查: 一位前情报官员称其为“大规模暗杀工厂。”


到了年底,情况似乎更加不妙。据《纽约时报》报道,人工智能识别系统并非一直完美运作,有时会出现自主武器系统失控的景象。在大众的普遍认知里,这样的事情本该是令人瞠目结舌的。但事实上,有关人工智能发动战争的报道只在有关以色列在加沙行为的争论中引起了小小的涟漪。


为什么会这样呢?《纽约时报》对此置评称,也许部分原因是,专家们已经承认,人工智能已经在世界领先的军队中广泛使用,特别是美国。




ai早就广泛用于军队?


至少自奥巴马政府以来,五角大楼一直在为军事目的开发人工智能。据《外交事务》报道,目前至少有 30 个国家正在运行具有自主模式的防御系统。


许多人仍然将人工智能战争视为科幻小说中的未来愿景,但人工智能已经融入了全球军事行动,就像它融入了我们的日常生活一样。


构成威胁的不仅仅是失控的人工智能。控制不足的系统也会造成伤害。《华盛顿邮报》将俄罗斯与乌克兰冲突称为“超级发明实验室”,标志着“人工智能无人机战争的革命”。五角大楼正在开发针对人工智能驱动的无人机群的应对措施,这种威胁随着无人机的对抗而变得不那么遥远。也门胡塞武装在红海发动袭击。据美联社报道,一些分析人士表示,“无人机将在没有人类帮助的情况下识别、选择和攻击目标”只是时间问题。



埃利奥特·阿克曼和北约前盟军指挥官、海军上将詹姆斯·斯塔夫里迪斯上个月在《华尔街日报》上预测,此类集群由运行速度太快、无法人类监督的系统指挥,“即将改变军事力量的平衡”。


与俄罗斯与乌克兰之间的冲突一样,加沙的猛烈攻势有时看起来像是一种倒退,在某些方面更像是20世纪的全面战争,而不是美国人已经习惯的平叛和明智的战役。


截止去年12 月,加沙近 70% 的房屋和一半以上的建筑物遭到破坏或摧毁。据联合国称,如今,只有不到三分之一的医院仍在运转,110 万加沙人面临“灾难性”粮食不安全。


这可能看起来像一场老式冲突,但以色列国防军的攻势也是军事未来的不祥暗示——这一切都是由反恐战争开始以来才出现的技术制定和监控的。



是ai犯下的罪吗?


近日,+972和Local Call发表的一篇文章表示,数千名巴勒斯坦人(其中大多数是妇女和儿童或没有参与战斗的人)被以色列的空袭消灭,特别是在战争的头几周,只因为人工智能计划的决定。


英国《卫报》也发表了相同的观点,标题为“ai犯下了罪,无情又冷酷”。


该报道已引起美国国家安全发言人约翰·柯比的注意,并由艾达·图马-斯利曼进行了讨论以色列议会的阿拉伯议员,以及联合国秘书长安东尼奥·古特雷斯,他说他对此“深感不安”。


报道中,描述了一个名为 Habsora(福音)的系统。据前任以色列情报官员亚伯拉罕透露,该系统的作用在于识别“武装分子活动的建筑物和结构”。


同时,这项受到以色列国防军质疑的新调查记录了另一个名为 Lavender 的系统,该系统用于编制可疑战斗人员的“杀戮名单”。文中写道, Lavender系统“在对巴勒斯坦人的前所未有的轰炸中发挥了核心作用,特别是在战争的早期阶段。”


亚伯拉罕认为,从功能上来说,加沙的毁灭——超过 30,000 名巴勒斯坦人被杀,其中大多数是平民,包括 13,000 多名儿童——提供了人工智能发动战争的愿景。


“根据消息来源,”他这样说,“尽管该算法公认的错误率为 10%,但大众普遍将人工智能机器的输出等同于人类的决策。”



人工智能战争的前景提出的更抽象的问题不仅涉及机器错误,还涉及最终责任:谁应对在很少或没有人类输入或监督的情况下进行的攻击或活动负责?



军事人工智能的两个噩梦


据《纽约时报》报道,军事人工智能的一个噩梦是它获得了决策控制权,而另一个噩梦是它可以帮助军队提高已经做出的决策的效率。


正如亚伯拉罕所描述的那样, Lavender系统并没有因为自己的失误而在加沙造成严重破坏。相反,它被用来以非常特殊的方式权衡可能的军事价值和附带损害——不太像军事判断的黑匣子神谕或道德责任的黑洞,而更像是以色列国防军所揭示的战争目标设计。


据《华盛顿邮报》消息,在10 月份的某个时刻,以色列国防军仅在可能的附带损害低于 15 名死亡的情况下,才会针对Lavender系统确定的初级战斗人员。


《华盛顿邮报》对此评论,考虑到没有任何附带损害被认为是可接受的,这个数字大得惊人。即使这意味着杀死 100 多名平民,更多高级指挥官也将成为攻击目标。


而第二个程序名为“爸爸在哪里?”,用于在瞄准战斗人员,并追踪他们的家,因为在这些地点及其家人一起跟踪他们,比追踪他们到军事前哨“更容易”。为了避免浪费智能炸弹瞄准可疑的初级特工的家,以色列国防军越来越多地选择使用精度低得多的哑炸弹。


这并不完全是科幻小说中的黑暗人工智能魔法。这更像是绿野仙踪的现象:乍一看似乎是超凡脱俗的奇观,结果却是一个人在窗帘后面摆弄开关。


事实上,以色列国防军在对新报告的回应中表示,它“不使用识别恐怖分子的人工智能系统”,“信息系统只是分析人员在目标识别过程中的工具。”以色列国防军此前曾吹嘘其使用人工智能来瞄准哈马斯,据《国土报》报道,以色列国防军在加沙建立了广泛的“杀伤区”,任何进入其中的人都被认为是恐怖分子并被枪杀。根据最新消息,以色列国防军否认已划定杀伤区域。)


在 CNN 上,分析师巴拉克·拉维德 (Barak Ravid) 向安德森·库珀 (Anderson Cooper) 讲述了他与一名以色列预备役军官的谈话。这名军官告诉他,“这些命令基本上是来自地面指挥官的” ——射杀每一个处于战斗年龄的人。”


这一描述与美国前中央情报局局长兼国防部长莱昂·帕内塔上周的评论相符,他说:“根据我的经验,以色列人通常会开枪,然后提出问题。”


事情接下来会走向何方?


这个问题不仅适用于以色列在加沙的行为,或乌克兰的无人机升级。无人驾驶飞机的混战已经影响了战争的进程,俄罗斯广泛部署了电子战工具来干扰乌克兰的无人机。根据《战争》杂志的分析,俄罗斯“试图在整个杀伤链的自动化方面取得进展”。


新美国安全中心的保罗·沙尔 (Paul Scharre)在 2 月份的一篇文章《人工智能战争即将到来的危险时代》中,勾画了一些近期可能的未来,其中包括自主集群相互独立作战、高频作战等。



他还提出了一项积极主动且可能乐观的五点计划:政府同意对军事人工智能进行人类监督,禁止以人为目标的自主武器,制定预防事故的最佳实践协议,各国限制对核的控制以及各国采用无人机行为常规指南。


沙尔写道:“如果没有限制,人类将面临着走向危险的机器驱动战争的未来的风险,而采取行动的窗口正在“迅速关闭”。


并非所有人都同意,我们正在接近军事奇点,超过这个奇点战争将变得面目全非,而不是演变得更慢,表面之下有更多变化。


“军事革命往往没有其支持者最初设想的那么激进,”军事学者安东尼·金在《岩石上的战争》中写道。


虽然他认为我们还没有接近人类监督的终结,并称我们“不太可能”很快就会进入一个真正自主战争的世界,但他也认为“数据和人工智能是——甚至可能是当代战争的关键情报功能。”


事实上,任何想要在未来战场上获胜的军事力量都需要利用大数据的潜力。它必须掌握充斥着战场空间的数字化信息。


 “人脑没有能力做到这一点。但人工智能会。”


AI当今已被广泛应用于当前的冲突局势,包括以色列在加沙和俄罗斯在乌克兰的行动。历史上的战争博弈更多的是训练人脑以更好地完善作战部署以及锻炼更为强大的战局应对能力,而成式人工智能的崛起将深刻改变战争博弈的技巧以及做法。



科睿研究院最早成立于中国香港特别行政区,是国际科学与人文科学院(International Core Academy of Sciences and Humanities)建设的综合性研究机构,致力于搭建学术界与社会间高效沟通的桥梁,将前沿的学术研究成果赋能至新时代社会发展。


作为科睿研究院主办的官方号,我们致力于打造高质量知识交流平台:持续推出与当代社会相关的洞察分析与时事评论,定期发布高质量专栏文章与交流活动,并推送有价值的学术资源和最新资讯。同时,学院积极欢迎读者们的踊跃来稿,参与我们的知识传递之旅中!



往期推荐

1

印度大选正当时:莫迪有望连任吗?

2

VYZOV Prize "维佐夫奖”提名计划

3

中东国家如何布局人工智能:战略、转型与野心

4

各国生育率暴跌的背后:为何年轻人都不生孩子了?

欢迎转发&点赞哦~

继续滑动看下一个
科睿研究院
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存