人工智能在未来战争中的应用 为什么人工智能会导致核战争风险增加?
欢迎点击上方文琳行业研究 关注!
人工智能是通过技术手段模拟、延伸和拓展人的智能的应用系统。一般而言,人工智能可大致分为三类:一为感知类,如可以模仿人类眼耳鼻舌身感觉功能的电子警察、语音助手等;二为思维类,如具有数学计算、逻辑分析、推理判断、深度学习等功能的电脑系统;三为技能类,如能够替代人类进行搬运、装配、探险、作战等工作的机器人。从1997年在国际象棋领域成功问鼎的“深蓝”,到2016年在围棋领域轰动一时的“阿尔法狗”,人工智能发展引发了人们的广泛热议。随着对深度学习、大数据、云计算等相关技术成果的集成应用,人工智能的智能化水平将进一步提升,其对未来战争将产生全方位、颠覆性的影响。
装备应用领域初显身手
人工智能的军事应用主要集中在智能化感知与信息处理、智能化指挥控制辅助决策、无人化军用平台等方面。如今,装备有智能化信息感知与处理能力的数字化士兵系统成为战场上的新宠;各种功能强大的栅格化网络信息体系,大幅提高了指挥控制和决策能力;数量众多的智能化无人系统,譬如美军装备的“背包”式机器人能够在巷战环境中分辨敌人的细微举动,“嗅弹”式机器人能够嗅出伪装的炸弹,“利剑”式机器人则能够充任机枪手,直接发现并消灭敌人。智能化武器不仅能够自行完成对目标的侦察、搜索、瞄准与攻击,而且具有对情报的搜集、分析、判断与综合运用的功能,是战场上“长眼睛”“会思考”“高效率”的新型武器。目前,类型各异的智能飞行器、智能舰船、智能火炮、智能炸弹、智能地雷等不鲜见,有的已经列装部队,投入使用。如俄罗斯“狼—2”式移动机器人系统,可对5000米范围内的目标实施精确打击。美国研制的四足全地形机器人,可携带重量超过150千克的武器或其他物资,攀越35度的斜坡,并可跨越一定高度的障碍物,行进速度最高可达到7千米/小时,成为在交通不便的地区为士兵运送弹药、食物和其他物品的理想后勤补给员。
开启智能化战争大门
目前,人工智能的军事应用已经被视为战争史上继热兵器革命、核武器革命之后的第三次战争革命,正在开启未来智能化战争大门。一种史无前例的“人机对抗”“机器杀人”乃至“机器人代理战争”的崭新战争形态已悄然来临。
一方面,人工智能全面扩展了人的体能、技能和智能。譬如人们整合应用信息技术、智能材料技术和生物技术武装士兵,使其体能、技能和智能得到大幅提升。美军正在进行一项全新研究,欲通过研发人体机械外骨骼,塑造体力倍增的“机甲战士”,并通过植入生物信息芯片以提高人的记忆力与反应能力,使作战人员更能适应未来复杂多变的作战环境。
另一方面,人工智能武装起来的新型机器士兵将会代替人类士兵在战场直接参战。目前,这种新型机器士兵已经能够高度仿真人类的视、听、触和嗅觉等感知功能,完成识别道路、躲避障碍、搜寻并攻击目标以及反馈信息、绘制地图、供给弹药等多样化任务。美军曾举行“机器人战争”演习呈现出未来战争作战情景:智能机器人承担全部作战任务,自行完成所有战术行动;地面机器人攻击敌人前沿阵地,无人侦察机搜索并确定敌人方位,无人战斗机攻击摧毁目标,一连串动作一气呵成,令人印象深刻。
影响未来战争的连锁效应
人工智能对传统的战争观念、军备竞争、军事伦理等带来了全新的冲击。首先,使得战争观念为之一新。未来战争的主角是否完全由智能化机器人或智能化的“机甲战士”担任?人类为未来战争建立的军事作战理论会否为未来的非人或“超人”作战主体完全接受遵从?战争胜负是否完全决定于军队的人工智能技术水平的高低差异?人工智能的军事介入,使得人们的脑洞大开。
其次,围绕人工智能的军备竞赛不断升温。美国2013年发布的《机器人技术路线图》,决定在军用机器人研制领域投入巨额研究经费,并要求2020年前将30%作战装备改造为无人操作系统。俄罗斯2014年发布的《2025年先进军用机器人技术装备研发专项综合计划》,要求每个军区都要组建独立的军用机器人连,2025年前将30%以上的武器和军事技术装备更新为机器人装备,无人战机数将占到空军战斗机总数的40%。不难看出,一场新的军备竞赛正在各军事强国之间展开,并日趋白热化。
再次,人们不得不重新审视战争的伦理问题。在未来战场上,即使是机器人的设计师也不能确保其不会犯识别偏差、攻错目标等错误,如何最大限度地避免平民伤亡和不必要的杀戮,将会成为现实棘手的问题。此外,智能机器人投入战争也可能改变传统战争高投入、高消耗的特点,降低战争的门槛,从而为穷兵黩武的野心家轻率发动战争提供可乘之机。
总之,人工智能的快速发展和军事应用已经呈现出不可遏止之势,未来智能化战争已现端倪,由此引起的连锁反应值得关注。可以推断,在未来谁拥有人工智能核心技术方面的优势,谁就能够掌握战争的主动权。
(作者单位:战略支援部队信息工程大学)
原标题:人工智能在未来战争中的应用
来源:中国社会科学网-中国社会科学报
为什么人工智能会导致核战争风险增加?未来三种图景
来源:Foreign Policy杂志
人造智能能否颠覆1945年以来使得世界免于核战争的核威慑概念?人工智能的惊人进步,加上无人驾驶飞机、卫星和其他传感器的增加,增加了各国可能发现他国核武器的可能性,也增加了各国可以威胁消灭其他国家的核武器的可能性。因此这加剧了局势紧张的可能性。
冷战初期以来,人们一直担心电脑会被错误地或恶意地引导人类走向濒临核灭绝的边缘。
危险可能很快就会成为现实,比小说更危险。人工智能惊人的进步,创造了可以学习和思考的机器,引发了世界主要核大国之间的新一轮军备竞赛。这不是好莱坞大片中的杀手机器人。人工智能使得计算机挑战核威慑的基本规则,并导致人类做出毁灭性的决定。
“这不仅仅是一个电影场景,” RAND的一位工程师AndrewLohn表示,他对人工智能的研究包括:使用它来寻找无人机、识别鲸鱼电话,并预测NBA比赛的结果。“如果我们不小心,相对简单的事情就会引发紧张局势,并将我们带到危险的地步。”
“导弹袭击”
要理解智能电脑如何能够增加核战争的风险,你必须了解一些关于冷战为什么一直没有升级为热核战争的原因。有许多理论可以解释这个问题,但“相互确保摧毁”一直是其基石。用最简单的话来说,这意味着:如果你打我,我也会打你。在核武器发挥作用的情况下,这种反击可能会摧毁整个城市,双方都不愿承担风险。
自动化的系统不需要通过杀人来破坏两国之间的稳定。这更有可能导致灾难性的战争。
这个理论导致了一些违反常识的结论。原来,双方都能够在遭受第一次打击中幸存下来,并且能够进行反击,那么情况就是稳定的。这样,任何一方都不会冒先动手的风险。然而,在人工智能的情况下,如果一方失去了反击的能力,或者认为自己可能会失去这种能力,那么情况会变得更加危险和不确定。它可能会通过制造新武器来恢复其优势,或者它可能会决定在它受到攻击之前尽早先发制人。
这就是人工智能的真正危险所在。电脑可以扫描数千张照片,寻找人眼无法看到的图案。可以想象,一个更加先进的无人机系统,可以对卫星数据进行细致的整理,甚至是对社交媒体进行细致的整理,以便知道对手的武器和防御工事的全貌,并不需要太多的想象力。
人工智能如何影响核战争的风险?
一个可以在任何地方看到一切隐私的系统,都可能使对手相信,自己很容易受到第一次核打击的威胁。人工智能可能让对手失去反击的能力。因此,对手会不得不寻找新的方法,通过任何必要的手段,发明更佳先进的军事设施,以防止自己被消灭。这条道路更接近核战争。
“自动化的系统不需要通过杀人就可以破坏两国之间的战略稳定性,并且更有可能发生灾难性战争,” 兰德研究所副研究员,核安全专家EdwardEdward Geist说,他是新文章的作者之一。“新的人工智能能力可能会让人们认为,如果他们犹豫不决,那么就会失去信心,这可能会让他们更加敏锐地触动手指。在这一点上,人工智能仍然会引发战争。
虚惊
电脑现在可以自己教自己,不断自我学习。他们的神经网络模仿大脑的结构。最近,一台计算机在象棋游戏中击败了世界上最厉害的玩家之一。这是第一次,但是计算机表现得非常出色。以至于这位象棋大师站起来,离开了房间,15分钟后才能进行下一步行动。
俄罗斯最近宣布了一项水下末日无人机的计划,该无人机的弹头足以使一座大城市蒸发。
这种超级智能的军事潜力,并未被世界主要核大国所忽视。美国试验了可以追踪敌方潜艇数千英里的自动艇。中国已经展示了“群体智能”算法,大大提高了无人机性能。俄罗斯最近宣布了一项可以引导自己穿越海洋的末日无人机的计划,以提供足以抹平大城市的核弹头。
无论谁赢得人工智能战争,俄罗斯总统弗拉基米尔普京都说:“都将成为世界的统治者。” 特斯拉创始人伊隆马斯克有不同的看法:他警告说,各国对人工智能优势的追逐,是第三次世界大战爆发的最可能原因。
研究人员总结说,下一代人工智能将具有破坏核安全基础的“重大潜力”。现在是进行国际对话的时候了。
在这种技术进步的时代,保持核和平需要每个核电的合作。这将需要新的全球制度和协议; 竞争国之间新的谅解; 以及新的技术、外交和军事保障措施。
未来的人工智能系统有可能被证明是非常可靠的,或者非常冷酷理性的,以至于它将阻止核末日的到来。毕竟,犯错的是人。一台没有错误、没有压力、没有个人偏见的机器,可以给我们带来原子时代从未有过的稳定水平。
研究人员总结说,这一时刻还很遥远,但从现在开始的那几年,将是特别危险的。拥有核武器的国家变得更多,各国对AI的依赖增加,特别是在技术成熟之前,可能导致灾难性的错误估计。而在那时,一名上夜班的工作人员,可能来不及阻止战争机器。
斯坦尼斯拉夫彼得罗夫在核灾难中的故事使得新一代人注意到引发深刻且潜在不稳定的技术变革的责任。2017年去世的彼得罗夫曾说:“我们比电脑更聪明,”他说。“我们创造了它们。”
未来可能会变成什么样子? 三种图景
兰德研究人员召集了一些人工智能和核战略的顶级专家参加了一系列研讨会。他们要求专家们想象2040年的核武器系统的状况,并探讨人工智能将会导致更稳定,还是会破坏稳定?
图景一 AI技术真有那么厉害吗?
许多人工智能专家怀疑,这项技术是否真的在核战争的决策中可以发挥重要作用。它必须克服其被黑客攻击的脆弱性,以非同寻常的方式制纠正错误。否则AI就无法有效发挥作用。
图景二 AI导致核威胁将上升
但是,核武器分析家回应说,人工智能系统不需要水平太高,就可以导致核紧张局势升高。对手只需要考虑它并做出相应的回应。结果将是核武器竞争对手之间竞争和不信任的新时代。
图景三 AI可以阻止和战争
一些专家表示,希望人工智能有朝一日可以变得如此可靠,以避免核战争的威胁。例如,它可用于追踪核武器的发展,并确保各国遵守不扩散协议。或者它可以拯救人类免受核对峙时犯下的错误,避免不好的决定。正如一位专家所说,未来的人工智能可能会得出结论,就像1983年的电影“战争游戏”中的电脑那样,核战争中唯一的胜利举动就是不发挥作用。
文琳编辑
版权声明:我们致力于推送优秀文章的精选、精读。部分文章推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们,我们将及时做出处理。
为便于研究人员查找相关行业研究报告,特将2018年各期文章汇总。欢迎点击下面红色字体查阅!
今日导读:点击下面链接可查阅
公众号 wenlin-yd:文琳行业研究
公众号 wenlin-zx:文琳资讯
公众号 :文琳阅读