查看原文
其他

【人工智能】人工智能军事化到底有多危险?

海国图智001 海国图智研究院 2021-02-07


《人工智能军事化到底有多危险?》


导读

近期,美国在南海台海的频频挑衅,使中国周边紧张局势不断升级。有学者认为,如果双方在该海域部署人工智能控制的无人化新型武器,将大大增加两国擦枪走火的危险。人工智能的军事化到底意味着什么?新型技术的出现又会如何影响未来的战争形态?是否会增加大国冲突的可能性?


(图源:TaiwanNews)



正文
最近一段时间,美国在南海台海地区活动频繁,不仅组织两个航母战斗群在南海举行军演,还派出驱逐舰高调穿越台湾海峡。为了回应美国的挑衅,中国人民解放军在黄海和南海海域划出禁区,进行大规模实弹演习。
 
值此中美可能在台海发生冲突之际,美国布鲁金斯学会会长、退役上将约翰·艾伦(John R. Allen)和布鲁金斯学会副会长达雷尔·韦斯特(Darrell M. West)撰文,称如果中美两方部署人工智能武器,将带来“极速战”(hyperwar)的风险。
 
所谓的“极速战”,指的是由人工智能主导,而人类决策者几乎不参与观察-导向-决定-行动(Observe-Orient-Decide-Act,OODA)循环的新型战争模式。艾伦和韦斯特认为,人工智能在极速战中的应用将“加速危机升级”,并且会“增加判断失误的风险”。
 
但人工智能的军事化真的有这么危险吗?
 
要回答这个问题,必须先搞清楚人工智能在军事领域具体有什么样的应用,以及这些应用到底会带来什么样的问题。 
 
(一)人工智能的军事化
人工智能在军事领域的应用目前主要有三种形式:自动化武器,信息处理(包括情报搜集和决策辅助)和作战指挥。
 
自动化武器可能是最让人闻风丧胆的军用人工智能。这种类型的武器包括自动化飞行器,无人坦克和无人舰,在实战中的应用已经相当广泛。比如,俄罗斯在叙利亚的军事行动中就部署了一系列无人军用车辆参与排雷、作战、组织等工作。
 
人工智能武器在近年来的很多测试中表现都要优于人类操作者,可以说发展潜力巨大。在美国国防部8月20号举办的空战赛中,苍鹭系统(Heron Systems)公司的自动飞行器以5:0的优势碾压人类飞行员。
 
除了自动化武器,人工智能也常参与军事信息处理,并且在搜集情报和大数据分析方面有着不可比拟的优势。具有代表性的军事项目包括美国的Project Maven。该项目主要致力于建立一个无人情报分析系统,通过自动化飞行器搜集信息,再利用计算机视觉和机器学习算法来处理大量的军事情报。
 
同时,人工智能也会参与作战的指挥工作,成为各部门和上下级之间传递信息的枢纽。目前的民间技术已经足以支持围攻(swarming)等一类战术的调度工作,但要将商界、学界研发的算法应用到军事上,还必须进一步将新技术融合到既有的作战系统之中。

(二)“杀人机器”真的危险吗?
说到军用人工智能,大家不免联想到像“终结者”一样的“杀人机器”。再加上媒体对于人工智能军备竞赛的渲染和专家对于未来“极速战”的警告,公众对于人工智能军事化的担忧在所难免。
 
但事实上,军用人工智能或许对维持国家间的和平稳定有利。
 
以自动化武器为例,美国麻省理工学院教授埃里克·林格林堡(Erik Lin-Greenberg)的研究表明,远程武器的应用其实有利于避免军事冲突的激化。虽然一方面无人武器降低了国家参与战争的代价,但这种新技术也同时减少了决策者使升级危机的压力。当一国的载人飞机遭到攻击时,媒体和公众舆论压力常常迫使领导人采取强硬的反击措施。如果被击落的是无人机,军事决策者若想要避免冲突升级,能较容易地隐瞒实情或仅仅是对敌方进行外交谴责,而无需采取实质的军事反击。
 
2015年美国空军的一架无人机被叙利亚政府军击落,但美国国防部在好几个月后才承认确有其事。如果有飞行员被敌方捕获或者击落,决策者则难以将矛盾一笔勾销。2001年的中美南海撞击事件虽然没有升级为军事冲突,但中国飞行员的牺牲却让该事件演变为一场严重的外交危机。换句话说,与传统载人武器相比,使用自动化武器的成本和风险都要低很多。
 
利用人工智能搜集情报和辅助决策也有可能会缩小作战影响的范围、减少冲突爆发的可能性。林格林堡认为,自动化武器有助于实现“精准打击”(“tempered targeting”),从而避免大规模的军事行动和非作战人员的伤亡。他的研究显示,以色列通过利用无人机打击周遭国家的战略目标(比如叙利亚的导弹设施和黎巴嫩的恐怖组织基地),避免了传统的军事行动,并且延长了军事冲突之间的间隔时间。
 
与此同时,如果人工智能能够提供更精准的情报信息,可能会减少由误判导致的武力冲突。著名国际关系学者罗伯特·杰维斯(Robert Jervis)认为,决策者对于情势的错误判断是战争爆发的一大原因。美国智库兰德公司(Rand Corporation)的一份研究报告指出,人工智能在核武器预先警告(early warning)系统中的应用可能会降低核事故出现的可能性,并且增加决策的透明性和准确性。
 
当然,人工智能系统也难以避免出现失误。但要判断人工智能的军事化到底会带来多大的危险,关键要看人工智能与人类决策者相比失误率孰高孰低。
 
(三)真正的威胁:失误风险与道德困境
如果说军用人工智能的可怕之处并不在于高效的“杀人武器”,那么人工智能军事化会带来什么样的危险呢?
 
军用人工智能最主要的安全隐患是系统的失误风险。正如布鲁金斯学会的艾伦和韦斯特所言,如果人类决策者不参与新型战争模式中的OODA循环,那么人工智能一旦出现误判,战局可能会快速升温,甚至走向失控。
 
除了非人为因素,人工智能系统的失误也有可能是敌方有意攻击的结果。兰德公司的报告指出,黑客、信息攻击和数据操纵等行为都可能导致人工智能出现误判。这些失误如果出现在主导核武器系统的人工智能上,后果将不堪设想。
 
人工智能军事化所带来的另一挑战在伦理道德层面上。机器是否应该作出杀伤人类的决定是一个极具争议的问题。谷歌公司在2018年宣布退出Project Maven正是由于公司的4000名员工联名抵制谷歌参与军用人工智能研发,反对自己的研究对他人造成危害。美国国防部随即在2019年推出人工智能军事化标准,使美国成为世界上首个明确规范军用人工智能伦理的国家。
 
虽然中国和欧盟成员国一致反对人工智能的军事化,联合国也倡导限制自主武器的开发,但面临激烈的国际竞争压力,大国似乎不可避免地要研发军用人工智能。在这种情况下,与其泛泛而谈人工智能军事化有多么可怕,不如一一分析具体的人工智能应用所带来的安全隐患和伦理问题。当然,正如核武器体系下没有发生大国冲突一样,军用人工智能也有可能成为稳定大国关系的一大因素。
 
(作者:肖文泉)



参考资料:

[1] John Allen and Darrell West, “Op-ed: Hyperwar is Coming. America Needs to Bring AI into the Fight to Win — with Caution,” CNBC, July 12, 2020, https://www.cnbc.com/2020/07/12/why-america-needs-to-bring-ai-into-the-upcoming-hyperwar-to-win.html.

[2] Michael C. Horowitz, “Artificial Intelligence, International Competition, and the Balance of Power,” Texas National Security Review 1, no.3 (2018), 36-57.

[3] Margarita Konaev and Samuel Bendett, “Russian AI-Enabled Combat: Coming to a City Near Your?” War on the Rocks, published July 31, 2019, https://warontherocks.com/2019/07/russian-ai-enabled-combat-coming-to-a-city-near-you/.

[4] Brian W. Everstine, “Artificial Intelligence Easily Beats Human Fighter Pilot in DARPA Trial,” Airforce Magazine, August 20 2020, https://www.airforcemag.com/artificial-intelligence-easily-beats-human-fighter-pilot-in-darpa-trial/.

[5] Kelley M. Sayler, Artificial Intelligence and National Security (Washington D.C.: Congressional Research Service, 2020), https://fas.org/sgp/crs/natsec/R45178.pdf.

[6] Erik Lin-Greenberg, “Remote Controlled Restraint: The Effect of Remote Warfighting Technology on Crisis Escalation” (PhD diss., Columbia University, 2019).

[7] Robert Jervis, Perception and Misperception in International Politics (Princeton, NY: Princeton University Press, 2017).

[8] Edward Geist and Andrew J. Lohn, How Might Artificial Intelligence Affect the Risk of Nuclear War? (Santa Monica, CA: RAND Corporation, 2018), https://www.rand.org/pubs/perspectives/PE296.html.

[9] Daisuke Wakabayashi and Scott Shane, “Google Will Not Renew Pentagon Contract That Upset Employees,” The New York Times, June 1, 2018, https://www.nytimes.com/2018/06/01/technology/google-pentagon-project-maven.html.

[10] Defense Innovation Board, AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense (Washington D.C.: U.S. Department of Defense, 2019), https://admin.govexec.com/media/dib_ai_principles_-_supporting_document_-_embargoed_copy_(oct_2019).pdf.

[11] Forrest E. Morgan, Benjamin Boudreaux, Andrew J. Lohn, Mark Ashby, Christian Curriden, Kelly Klima, and Derek Grossman, Military Applications of Artificial Intelligence: Ethical Concerns in an Uncertain World (Santa Monica, CA: RAND Corporation, 2020), https://www.rand.org/pubs/research_reports/RR3139-1.html.

 




原文摘自《人工智能资讯周报》总第93期


《人工智能资讯周报》探讨人工智能对公共政策、治理和政策建议的影响,探索人工智能对商业、政治和社会的影响,以确定潜在的研究领域,探讨可能的合作研究和机构伙伴关系。本刊着重提供中国人工智能发展动态和对人工智能的思考,同时关注全球范围内人工智能相关研究动态。本刊旨在通过可靠的研究,来帮助企业、研究机构和公民预测和适应技术引领的变化。


欢迎订阅

· 微信推送——请关注“海国图智研究院”公众号

· 网站推送——请收藏我们的网站www.intellisia.org (推荐√)

· 邮件推送——请扫描下方二维码登记邮箱信息,每日接收新鲜、深度的时政洞察



往期精彩回顾:

海图新特朗普有大量隐身支持者?

【华侨华人】地理符号与华侨华人的身份认同


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存