【厚度】哈佛大学报告:人工智能与国家安全(二)AI变革潜力之军事优势:AI如何影响机器人自主化能力和网络安全能力?
【厚度】学术plus年终巨献:2017年 你不可以错过的重磅报告们!(全文阅读链接)
应美国情报高级研究计划局(IARPA)的要求,哈佛大学肯尼迪政治学院贝尔弗科学与国际事务中心与2017年7月发布《人工智能与国家安全》报告,分析人工智能(AI)对美国家安全的巨大影响,为美政府AI政策提供建议。本报告分为以下几个部分,我们将在接下来几天内,摘选报告部分主主体内容与大家共同分享学习。
执行摘要
介绍和项目方法
第一部分:人工智能的变革潜力
第二部分:学习以前的变革性技术案例
第三部分:关于人工智能和国家安全的建议
结论
附录:变革性国家技术的案例研究
案例研究#1:核技术
案例研究#2:航天技术
案例研究#3:互联网和网络技术
案例研究#4:生物技术
哈佛大学报告:人工智能与国家安全(二)
人工智能的变革潜力之军事优势
AI技术的未来发展将如何影响
机器人&自主化能力和网络安全能力?
军事优势的意义
在本节中,我们将分析很可能会影响到未来军事优势的AI趋势。尤其是,我们将分析AI技术的未来发展将如何影响机器人&自主化能力和网络安全能力。在确定了关键的趋势和主题后,我们将阐述当这些能力的改善给未来军事优势带来变革性影响时的情景,作为本节的结论。
机器人&自主化
机器人的主要用途之一是做对人类来说太危险的事情,打仗就差不多这样危险。
——佩德罗·多明格斯(Pedro Dominguez),《主算法》
至少从二战以来,自主系统就已开始在作战中使用。随着使能技术的改进,人类控制权下放给这些系统的现象越来越普遍,
利用传感器来触发自动化军事行动的很简单的系统(例如地雷)已使用了几个世纪。在最近几十年里,计算机在使用武力的过程中承担起了更大的责任。随着诺登投弹瞄准器和V-1飞弹在二次大战中的发明,计算机系统首次与用于动态控制及使用致命武器的传感器联系起来。例如,所谓的“发射后自寻”导弹在一开始选定了目标并获得发射批准之后,它上面安装的传感器和计算机能指引一枚导弹飞向目标,而不需要与操作员进一步通讯。美国军方已经下达了指令,限制开发及使用具有一定自主能力的系统。这些指令的主要思想是人类应当随时“处于决策地位”,能够直接对所有致命武器的使用作出决定。
商用机器人和军用机器人的市场规模正在呈指数级增长,
而单价却在大幅下跌。
按照波士顿咨询公司的报道,在2000年-2015年期间,全世界在军用机器人(狭义的定义是“无人载具”)上的开销增加了两倍,从$24亿增至$75亿,预计到2025年还会增加一倍多,达到$165亿。甚至这种快速增幅仍可能低估在单价下降以及商用系统与军用系统之间的重叠度增加之后由机器人应用率上升所造成的真实影响。
有一类机器人,即无人驾驶飞行器,又叫做“无人机”,在过去几年里其商业价格下降得比较快。 比尔·盖茨(Bill Gates)认为,机器人即将面临个人电脑所经历的那种强劲的“快速跌价-普及率上升”循环。由图2可看到,在1998-2013年这15年里,个人电脑的平均价格下降了95%。如果目前价值$1000的高质量无人机在将来只需花$50就能买到,尤其是当无人机拥有更高的自主能力时,各种军事行动的成本曲线将会发生改变。正如Paul Scharre在文章中写道,“超便宜的3D打印微型无人机将让美国能够在战场上部署数十亿——是的,数十亿——像昆虫那样的微型无人机。”
图2:个人电脑和外围设备的消费者物价指数((1997年12月 = 100)
机器学习的普及,
再加上市场扩大和价格下跌,
将大大增加机器人系统对国家安全的影响。
我们认为,机器人和自主系统在战争及商业领域中的应用势必会大大增加。我们同意DARPA前项目经理暨DARPA“机器人技术挑战”负责人吉尔·普拉特(Gill Pratt)的看法。他认为,技术和经济的发展趋势正在汇合,将形成新机器人系统的“寒武纪爆炸”。 机器人的“寒武纪爆炸”是将机器人的发展比喻成了地球生命史,具体地说是大约5亿年前的那段时期。那时,进化性变异的步伐,无论是从生命形式的多样性还是复杂性来看,都明显加快。普拉特指出了几个趋势,但其中尤其重要的是机器学习技术的利用率提高以及这些技术让机器人能够根据传感器数据智能地做出决定。人类已经能够制造自主驾驶的汽车——只要他们能够制造汽车——但这些汽车总是会撞车。只是在最近,自主驾驶技术才能够生产出能在现实世界中安全可靠地运行的自主车。高度多样化的机器人系统也是如此。
就像网络的影响那样,
机器人技术和自主系统的利用率提高
也会同时增强非国家行为者和国家的实力。
网络领域的引入已让各类行为者受益。大国建造了强大的网络武器,实施广泛的网络间谍活动,利用数字网络增强了现有的军事行动。
由于网络武器比非网络武器要便宜得多,因此军事力量稍弱的小国也在使用网络。例如,埃塞俄比亚和其它很多政府利用网络工具来监视国外的政治异见者。同样,敌对的非国家行为者(包括罪犯和恐怖分子)也有效地利用了网络工具来开展在有形区域内很难实施的跨地域活动。在近期内,机器人技术和自主系统的“寒武纪爆炸”很可能会像国家安全作战在网络领域中的兴起那样具有类似的实力扩散效应。
在近期内,
AI的发展很可能会让战士们获得更多的自主机器人支持,
并加速从有人操纵的战斗任务向无人操作的战斗任务转变。
一开始时,AI技术进步将给资金雄厚、技术先进的大规模军队提供最大的优势,就像无人机(UAV)和无人地面车辆(UGV)在伊拉克和阿富汗地区的美国军事行动中所体现出的那样。随着AI的价格下跌,预算受约束的国家和技术不太先进的军队也将采用AI技术——非国家行为者亦会如此。这种模式现在已能观察到:ISIS正在其军事行动中大肆使用遥控无人机。在将来,ISIS或其它恐怖分子团伙很可能会越来越多地使用自主驾驶的车辆。虽然在机器人和自主技术方面的进步会增强各类行动者的绝对实力,但相对力量优势可能会(也可能不会)仍然掌握在大国手中。
先进自主系统目前面临的在尺寸、
重量和威力方面的约束条件最终都会被克服,
就像智能手机如今能提供巨型计算机曾经的功能那样。
到2021年,汽车厂商预计会开始销售全自动驾驶车辆。 这些汽车将安装昂贵的大型高能耗计算机。但渐渐地,这些计算机的价格会下跌,尺寸会越来越小。从20世纪90年代初起,价值$700的现代袖珍智能手机在功能上就已经超越了世界上运行最快的巨型计算机。 用于驱动未来自主车辆的处理器与当前手机的处理器之间的相似性将远远高于与当前巨型计算机(需要自带发电站)之间的相似性。
在中长期,
机器人和自主系统很可能会获得越来越多的
在自然界中证明可行的技术能力。
我们尤其喜欢“寒武纪爆炸”这个生物类比说法,因为生物学本身就充满了各种智能的自主系统。“存在性证据”就是一个人获知某种具体的技术是可行的,因为他观察到那种技术正在起作用。例如,全世界的很多军队最先了解到精密制导导弹(PGM)技术是可行的,是在他们看到美国军队在1991年的海湾战争中成功地使用了这种技术时。大多数的军队都不能自己制造PGM,但在那一刹那他们知道PGM在技术上是可实现的。
同样,生物学的自然界可视为是机器人和自主系统的一组技术存在性证据。每一类动物,不管是昆虫、鱼、鸟还是哺乳动物,都有一套“传感器”,作为与其环境交流的工具,还有一个高速数据处理/决策中心。人类还不知道如何复制自然界的所有这些技术和能力,但“这些能力在自然界中存在”这一事实证明了这些能力确实可行。让我们来想想一般的城市鸽子:与相类似的无人机相比,鸽子具有明显更强的飞行操纵性、更好的传感器、更快的数据处理能力以及更高的功率效率。在导航和避碰时,鸽子的脑-眼-耳组合也比任何自动驾驶车都更优越,尽管它需要的功率还不到1瓦特。 虽然人类不知道自主机器人的最终技术性能极限是什么,但最终极限可能不低于大自然赋予鸽子、鹅、老鼠、蚊子、海豚等动物的经证明可行的极高性能水平。
从长期来看,
这些能力将改变军事实力和战况。
在今后10-20年,自主机器人不大可能获得自然界中的所有技术和性能。但可行的机器人系统将足以能够改变军事实力。由人类开发的技术能够做大自然的工程学途径所不能做的事,例如从一个系统到另一个系统的适应能力。假想的机器“鸟”还可能拥有夜视能力或一根能喷射毒液的毒针。但目前,即使是最先进的机器人也远远不能同时获得这两种能力/性能。不过,鉴于这些技术在自然界已存在,因此原则上我们没有理由怀疑先进的军用机器人为什么不能拥有这些能力。机器人还能利用在自然界不存在的技术,例如雷达、炸药、弹道发射和数字远程通信。
网络安全&网络战争
就像所有的自动化技术那样,
AI和机器学习将使在网络领域中执行具体任务的人数减少。
网络工具的出现大大提高了间谍人员的工作效率。哈佛大学的布鲁斯·施奈尔(Bruce Schneier)指出,“极度偏执的东德政府让102000名斯塔西人员监视1700万人口:也就是说在每166名国民中就有一名间谍。” 相比之下,通过利用数字监视设备,政府和企业只需雇用几千名员工就能监视数十亿人的数字活动。AI在网络领域中越来越高的利用率将进一步提高数字监视工具和系统的操作及监管效率。
AI将用于支持网络防御,
因为智能自动操作可增强弱点探测功能和监测系统的功能。
DARPA目前正在研究能将AI引入网络防御领域的系统。这些系统包括能在软件代码发布前自动探测代码漏洞的技术以及利用机器学习来侦测与正常网络活动之间偏差的技术。 网络防御目前需要大量劳动力,而有技能的网络劳动力又很缺乏。此外,AI还能实现新的网络防御模式。当今的大多数网络防御体系都基于先验知识假设,防御者已针对已知的威胁优化了他们的系统,但对未知的威胁却保护不够。AI和机器学习让系统不仅能获悉过去的漏洞,还能观察异常行为,以侦测并应对未知的威胁。
但这种逻辑意味着
AI的进步将促进网络攻击加强。
对于网络安全而言,AI的进步构成了一个重大挑战,因为在劳动力和人才方面受约束的当今网络攻击途径——在将来随着高能AI的应用——将只是在资金上受约束。对大多数的机构和个人而言,最具挑战性的网络攻击类型是高级持续性威胁(APT)。在APT攻击方式下,攻击者会积极寻找防御者的安全漏洞,然后耐心地等待防御者出错。这是一种劳动密集型活动,通常需要技术娴熟的劳动力。随着机器学习和AI的能力逐渐增强,这种“寻找漏洞”活动将会达到目前无法企及的自动化程度,而且发生的速度可能让人控防御系统无法有效应对。这意味着将来限制APT的将是资本,而不是劳动力和人才。换句话说,任何有财力购买AI APT系统的行为者都有可能获得很强大的网络攻击能力,即使该行为者对互联网安全技术一无所知也无所谓。由于软件复制成本几乎为0,因此这种成本基本不会对APT构成约束。
在近期内,
将AI技术应用于网络领域会让实力雄厚的国家行为者受益。
但从长远来看,
力量制衡的结果还不明朗,
就像网络攻击和防御之间的长期制衡那样。
在某种程度上,有技能的网络罪犯已经有了服务市场。但有很多人拒绝当“职业杀手”,而宁愿卖“枪”。因此,我们应当担心AI的进步会使得网络“枪支”的威力更加强大、更加自主化。开发网络武器的步骤很难,包括把未探测到的漏洞变成武器、定制软件并使其达到预期效果、设计武器以避开防御。随着与AI相关的网络技术不断改进,将会有越来越多的作战臣服于自动化。如果是这样,将来的蠕虫病毒可能不需要成千万或上亿美元的开发、投放费,而只需要几百或几千美元就行,因为通过AI可以减少或免除高技能人类网络操作员的客制化步骤。到那时,大多数的软件都能以接近于零的边际成本来复制。
因此,AI的应用尤其能够增强强国、小国和非国家行为者的网络能力。国家和非国家行为者之间在网络实力或进攻-防御网络优势上没有明显的固定结果。这个结果将取决于所有行动者的研发投资平衡、技术开发速度以及在经济和技术上的潜在局限性。
本报告中文译文版本将于近期成册
请您随时关注相关信息!
文章来源:/ 图片来自于原报告或互联网
英文原文阅读下载链接如下(英文报告篇幅较长,下载需时间,请您耐心等待❤)
https://www.belfercenter.org/sites/default/files/files/publication/AI%20NatSec%20-%20final.pdf
欢迎大家评论
声明:版权归原作者所有。文章观点不代表本机构立场。
《中国电子科学研究院学报》欢迎各位专家、学者赐稿!投稿链接 http://kjpl.cbpt.cnki.net
学报电话:010-68893411
学报邮箱:dkyxuebao@vip.126.com
数据链中消息标准的标准化研究(下)美军数据链消息标准的管理以及对我军的启示
基于半实物平台的战场复杂电磁环境信号生成与实现:信号构成与实现方法
基于半实物平台的战场复杂电磁环境信号生成与实现: 信号生成方法与综合建模技术
美智库发布《首次打击——中国对美国在亚洲多个军事基地的导弹威胁》