人工智能对多国联合军事行动及决策构成的挑战
电话:010-58330898 手机:18501361766
微信:tech99999 邮箱:qianyanjun@techxcope.com
来源:知远战略与防务研究所
编译:枕戈
【导读】本文编译自美国《德克萨斯国家安全评论》(TNSR)2020年春季号。文章原题为Allies and Artificial Intelligence: Obstacles to Operations and Decision-Making。
人工智能有望提高军事效率,但也对多国联合军事行动和决策构成了独特的挑战,多数学者和决策者对此尚未有过研究探索。人工智能数据与资源密集的特性,对共享和互操作构成了障碍,从而阻碍了联合行动。人工智能还将加快战争速度,并加深盟国之间的不信任感,让盟国/伙伴国复杂的决策过程变得更为紧张。为迎接这些挑战,并为人工智能战争做好准备,决策者需要在制度、程序和技术层面寻求解决方案,以简化决策、增强互操作性。
如今的军事行动通常是由同盟国家或多边同盟联合执行的,即通过国家间的正式或非正式行动。盟国在军事和外交上进行合作,应对共同威胁并实现共同目标,从而产生政治和军事利益。政治上,在国内和国际观众的眼中,多国联合行动或可赋予军事行动合法性。由盟国和伙伴国结成的广泛联盟对军事行动的支持,可以作为一种暗示,让公众觉得行动是正义的,有助于反驳有关军事行动不当或试图打破现状的说法。从军事角度看,联盟和同盟使各国能够共同分担行动任务。与由一个国家提供所有人员设备的单边行动不同,联盟允许在所有成员国之间进行分工。为促进合作,盟国经常参与协商决策,制定共同的行动程序,建立综合指控网络,采购可在战场上集成的互操作武器系统,以及参加联合军事演习。
虽然联盟和多边同盟可以加强成员国安全及军事行动效率,但这种机制会给军事行动的决策和协调造成困难。首先,联盟和同盟必须解决军事力量一体化和协调问题。现代军事行动需要参与部队的密切协调,共享情报来指导规划和任务执行,武器系统能够相互通信和协同作战。每个联盟成员国的军队有不同的装备、政策和战术,意味着一个国家的军队可能无法与其盟国的军队完全融合。此外,伙伴国往往不愿共享敏感的作战和情报信息。除了这些制度问题之外,还存在更常见的问题,如每个成员国有不同语言和军事文化,可能也会妨碍紧急行动期间的互操作性。
其次,联盟和多边同盟领导人可能难以决定其联盟应该采取什么政策。虽然盟国通常面临共同的威胁,有许多共同的政策目标,但每个国家仍然有自己的优先事项和目标。因此,国家领导人会对国内民众做出回应,去追求自己的国家利益,而这些利益有时可能与联盟的目标相冲突。在最佳情况下,这些不同利益会导致制定决策时间表的协调问题。在最差情况下,它们会在合作伙伴之间产生不信任,引发对在危机期间被抛弃或被“连锁卷入”不必要战争的担忧。
虽然联盟和同盟由拥有共同利益的成员国组成,但安全伙伴关系的正式化程度有很大差异,可能影响它们如何规划和执行军事行动。联盟通常是指像北约这样受条约约束的正式组织。条约明确规定各成员国所承担的义务,这通常在不太正式的同盟中是找不到的。而多边同盟通常是指临时性、非正式的组织,专注于实现一个特定和狭隘的目标。例如,在2003年伊拉克战争期间,布什的“自愿同盟”把30多个国家聚集在了一起。由于同盟的目标比较有限,因此它们往往是临时组织,缺乏联系和协调机制,任务完成后就不复存在。本文中的分析适用于整个正规化组织,但人工智能对联盟的行动和决策提出的挑战,对于缺乏正规化协调机制的多边同盟来说更加棘手。为使本文其余部分保持清晰,文章使用“联盟”一词描述各种正式的安全伙伴关系。
在作战层面,人工智能可以使联盟军事力量的责任分担和互操作性复杂化。人工智能在安全领域的发展对联盟军事行动的协调提出了三个挑战。
首先,并非所有国家都会以同样的速度发展人工智能的军事应用。在一个联盟中,一些国家拥有并能有效地运作人工智能能力,而另一些国家则不能。这种不平等的技术分配可能会阻碍责任分担和互操作性。其次,盟国需要迎接政治和技术挑战,这些挑战包括开发可互操作的人工智能系统和共享人工智能数据。数据往往难以共享,而各国又不愿共享敏感信息。第三,对手可能会使用人工智能来破坏盟军的军事行动。
挑战一:责任分担与互操作性
尽管人工智能的国际关注度激增,但并非所有国家都具有强大的人工智能能力,尤其在军事应用方面。最近一项研究发现,各国“利用人工智能创新潜力”为政府服务的能力存在显著差异。像英、德、美这样的国家对人工智能基础储备较强,而西班牙、土耳其和黑山等盟国则较弱。这种人工智能技术的不平等,可能是由开发部署新技术所需的组织、财务和人力资本的差异以及政府支持差异造成的。人工智能的不均衡分布将对盟国和伙伴国在危机期间分配军事任务产生重要影响。应用人工智能并将其整合到军队的能力不同,可以创造出人工智能“强国”和“弱国”。像德国这样的国家拥有强大的技术产业,有财政资助研究和采购,并维持国防机构,这些机构有足够的技能和灵活度来整合新的人工智能技术。实际上,这些国家中有许多已经建立了管理军事人工智能发展的政府机构。如美国在2018年建立了联合人工智能中心,负责协调国防部的人工智能项目。其他国家缺乏这些资源,也无法积极追求新的人工智能能力。许多经济实力较弱的北约成员国将国防开支重点放在常规部队的现代化建设和冷战时期硬件的更新上,而不是在人工智能的发展上。
即使一个国家拥有发展人工智能能力的资源,公众对人工智能军事系统的有限支持也会阻碍这种努力。反对意见可能来自人工智能功能的不确定性,也可能来自道德和伦理方面——反对将使用武力的决定权交给计算机。最近一项跨国调查发现,在美国的主要盟国中,公众明显不赞成使用致命性自主武器。当然,自主武器和人工智能不同,但人工智能被集成到大多数自主系统的软件架构中,专家和公众经常把两者混为一谈。在韩国和德国,分别有74%和72%的当地居民反对使用致命性自主武器(美国这一数据为52%)。这两个国家是美国的亲密盟友,拥有几十个美国军事设施,驻扎着6万多名美国军人。
国内外不温不火的公众支持可能在两方面阻碍联盟的军事行动。首先,公众对使用人工智能的反对可能会导致决策者限制在军事行动中使用人工智能。比如在将来发生敌对行动时,韩国或德国政府可能会反对盟国在其领土上使用带有人工智能的致命武器系统。实际上,来自公众和激进组织的倡导已经导致越来越多的国家,包括美国盟友巴基斯坦和约旦,呼吁禁止使用致命自主武器系统。
其次,开发人工智能的地方工程师和研究人员可能会拒绝与军方签订人工智能合同。人工智能发展的中断可能会阻碍新能力的部署,并在政府和民用企业间产生不信任。例如,谷歌员工抗议谷歌公司参与国防部的“Maven”项目,该项目使用人工智能分析军用无人机采集的视频。员工在写给公司CEO的信中指出,“谷歌不应从事战争事务”,并解释说公司不应该“将其技术的道德责任外包给第三方”,这项由美国国防部支持的人工智能项目将“不可挽回地损害谷歌品牌”。抵制活动最终导致谷歌终止了该合同,并引发了公众对国防部人工智能项目的批评。
一个联盟中有人工智能“强国”“弱国”的存在,可能会使军事联盟的核心原则——责任分担变得复杂。一方面,人工智能能力强的国家可以为联盟行动做出专门贡献,并专注于提供与人工智能相关的能力。然而,如果人工智能应用成为未来战争的必需品,人工智能“弱国”可能无法为联盟作战做出贡献。人工智能“强国”随后可能被迫承担更多工作,这将带来政治和作战方面的问题。在政治上,人工智能“强国”可能会抱怨“弱国”对任务贡献不足,从而导致盟国之间关系紧张。在作战上,能力差距可能会妨碍联盟部署部队或实现军事目标。例如,在1999年北约领导的科索沃空战期间,许多北约成员国的精确制导武器数量有限,而且缺乏对这些武器装备的训练使用,从而削弱了作战能力。结果,空袭作战的责任落在少数几个盟国身上。在更大规模冲突中,责任分担可能对维持行动或确保胜利至关重要。
挑战二:数据共享与标准统一
随着应用军事人工智能国家数量的增长,盟国集体行动的能力,在一定程度上取决于为人工智能系统提供动力的共享数据。人工智能需要大量数据来训练算法和模型。例如,要识别地空导弹阵地,人工智能图像分类器必须学会通过研究已知导弹阵地的图像来区分导弹阵地和其他设施。用于训练这些系统的数据越多,系统就会越精确。一旦投入使用,如图像分类器这样的人工智能系统,必须连续从侦察机、卫星或其他设备中以一种允许目标识别的格式输入图像,以共享数据来提高人工智能系统的准确性或提高多国行动的效率。
由于人工智能开发使用处于核心地位,美国军方将数据描述为“战略资产”,但即使在美军内部,共享数据也面临重大挑战。美国国防部联合人工智能中心创始人杰克·沙纳汉中将称:“当军方投入人工智能领域时,数据妨碍了军方的大部分工作”。具体来说,“他们意识到将正确的数据放到正确的地方、梳理并训练算法是多么的困难”。这些挑战背后有两个主要因素。首先,数据驻留在数千个不同的存储库中,缺乏标准化格式。例如,美军侦察机的视频就以不同的数据格式存储于多个不同的网络。其次,武器和传感器收集的大量数据被设计和维护设备的承包商视为专有数据。公司必须首先发布或“解锁”这些数据,然后才能对其分析或输入其他系统。
尽管共享数据可用来开发人工智能技术,但各国在共享信息方面都面临政治和技术障碍。从政治角度看,即使是最亲密的盟国也可能不愿分享支撑军事人工智能系统的敏感数据。各国担心共享敏感数据可能会泄露情报来源和方法,而这些信息泄露可能会危及正在进行的行动或导致政治关系紧张。例如,在越南战争期间,美国不愿与其盟友南越分享情报。美国担心南越军方和情报部门的共产主义同情者会把信息传递给北越。他们还担心,情报可能会突显美国的行动计划与南越的优先任务不一致。各国还担心共享的信息可能被用于其它而非最初目的,或者与共享国利益相冲突。例如,土耳其可能不会将共享的情报用于反伊斯兰国行动,而将目标对准叙利亚北部的库尔德武装。
为了将这些感知到的风险最小化,国家通常对信息共享加以限制。最常见的控制措施之一是只共享最终情报产品,如来自各种不同情报机构的简报或报告。这些产品提供评估,但通常会省略技术数据,比如可能会透露情报收集程序和方法的信息源细节。尽管数据共享是一种情报共享,但开发运行人工智能系统可能需要交换比传统情报共享多得多的完整原始数据。原始数据(包括图像文件和截获的信号)可以包括元数据,如图像的光谱特征或可用于为人工智能系统提供数据的电子发射特征。由于这些信息可以暴露出一个国家的情报系统的精确能力和缺陷,决策者可能不愿将之共享,尤其是在开发运行许多人工智能系统需要大量信息时。
数据共享必须首先解决数据格式标准统一的问题。美国情报部门和军方在多个系统上以非标准格式存储信息,其他盟国的国家安全机构也是如此。在整个联盟中,相同类型的数据可能以不同的格式存在于数百个不同的网络,因此很难共享数据或开发可互操作的系统。要使用来自盟国的数据,首先必须确定数据位置,而后从一个国家的保密计算机网络中转移出来,并将其重新格式化为标准、可用的形式。鉴于美军在其自身人工智能发展中面临重大的数据管理挑战,可以预料,对于拥有更多参与者和数据源的联盟,在数据共享方面将遇到更大障碍。
挑战三:操纵数据与虚假信息
除了共享的障碍外,盟国还面临着这样一种可能,即它们共享的数据可能特别容易受到敌方操纵。工程师和军方领导人担心,对手可能侵入数据存储库并“毒害”数据——插入虚假数据,或故意让现有数据存在缺陷。在最近一项学术研究中,研究人员使用数据中毒技术,导致一种用于识别街道标志的算法将停车标志误认为限速标志。在军事领域,对手可以毒害图像数据,以摆脱人工智能目标识别系统,导致系统错过军事目标,将它们归类为非军事目标,或将民用设施识别为军事设施。在最佳情况下,这可能需要人力密集型工作来保护和清理数据,或导致国家不得以用人工分析目标。在最差情况下,可能导致对非战斗人员的误伤。
虽然数据中毒的风险困扰着所有人工智能用户,但联盟军事行动可能尤其容易受到影响。由于联盟人工智能系统使用多个国家的数据输入,因此,某一个国家有缺陷的数据输入可能会对整个联盟行动产生连锁影响。联盟成员国用不同级别的安全措施来保护网络和数据,因此,对手可能会将目标锁定在那些更容易获取数据的国家。
对手也可以使用人工智能来发动意在干扰联盟指挥控制的欺骗行动。长期以来,军方一直试图在战争和危机期间欺骗对手。例如在二战期间,盟军使用一个复杂计谋,用充气坦克和飞机来欺骗纳粹D日登陆点的位置。人工智能可利用数字诱饵和虚假信息(而非物理信息)进行欺骗活动。
人工智能工具还可以使用“深度伪造”技术将联盟行动复杂化,操纵音视频,逼真模拟真人的行为或讲话。2018年,数字媒体Buzzfeed制作了一部电影,影片中,一个逼真模仿美国前总统奥巴马的模仿者满口污言秽语并大放厥词批评特朗普。深度伪造依赖于深度学习算法,这种算法通过观察一个人的照片、音频和视频来学习,从而产生栩栩如生的表现,这些表现可以通过编程来说或做真人从未做过的事情。虽然早期的深度伪造很容易被肉眼发现,但生成式对抗网络等技术提高了深度伪造的质量和可信度。该技术具有两个相互竞争的神经网络:生成器和鉴别器。生成器生成一个初始深度伪造,而鉴别器将人工智能生成的“伪”与训练数据集中的“真”进行比较。然后,生成器更新这些“伪”,直至鉴别器再也无法区分真伪。随着人工智能技术的进步,对手可能会利用人工智能开展欺骗活动。
深度伪造有多种用途。对手可能深度伪造盟军高级指挥官,向战场发布错误或相互矛盾的命令,或者利用人工智能制造虚假情报。对手还可能会利用从公开媒体或截获通信中实际指挥官的音视频,生成深度伪造的命令。或者利用生成式对抗网络制造虚假卫星图像情报,歪曲事实真相。这些错误命令和情报一旦通过视频会议、电话、电子邮件或无线电传播出去,可能导致部队重新部署,从而造成混乱。此前曾有过成功运用此类伎俩的先例。2019年,犯罪分子利用人工智能克隆了一家英国能源公司高管的声音,并指示一名员工将数十万美元转移到犯罪分子控制的银行账户。进行这些欺骗所需的软件很容易获得,培训数据要求很少,而且不需要多少计算机编程知识。一些声音克隆程序可以免费或低成本从互联网获得。
由于多国指挥控制过程涉及多个国家之间的协调,联盟军事力量可能特别容易受到人工智能虚假信息和欺骗的影响。工作人员与国际伙伴合作的经验可能有限,因此不熟悉盟国的操作规程,也不太擅长在多国指挥系统内工作。敌方可以利用这些情况,注入人工智能生成的错误命令。时间紧迫、工作压力和军事行动的复杂性增加了下级指挥官执行这些深度伪造命令的可能性。随着深度伪造质量的提高,鉴别真伪变得愈发困难,这些挑战将更加棘手。
除了为多国军事行动制造障碍外,人工智能还会限制联盟领导人在危机期间的决策能力。联盟决策通常被描述为一个有争议的过程,在这个过程中,来自不同国家的决策者在不同的国家利益、军事能力和风险承受能力之间反复协调。决策者在商议过程中寻求推进本国利益,往往导致政策妥协。北约盟国在政策上经常出现分歧,例如,在1956年埃及苏伊士运河国有化和2003年美国入侵伊拉克的问题上,他们都发生了意见冲突。联盟和同盟也充满承诺问题,各国都担心盟国会退出协议或将他们拖入不必要的冲突。不同的国家立场和对被抛弃的恐惧可能导致国家间进行决策协商,如果在危机中进行,则联盟无法对威胁做出果断反应。
人工智能可以通过三种关键方式使联盟决策协调和指挥控制多国部队的能力复杂化。首先,人工智能可能挤压军事行动的决策商议时间;其次,人工智能的可靠性和有效性存在不同程度的不确定性,如果不同国家决策者对人工智能系统提供准确信息或采取适当行动的能力信任程度不同,那么他们在决定使用武力时可能会犹豫不决。第三,敌人可能利用人工智能发布虚假信息,削弱盟国间的信任,并加剧其彼此对成员国背弃联盟承诺的担忧。
挤压决策时间
人工智能的广泛使用,将挤压决策者和军事指挥官在政治和军事决策上的时间。人工智能辅助的情报、监视、侦察、指控系统可能比非人工智能系统更快地识别敌方的军事演习。一旦有了这些信息,联盟决策者可能需要迅速做出应对,特别是当敌对势力构成直接威胁或必须在很短时间内将其锁定时更是如此。
美军已经开始发展这种能力。作为演习的一部分,美国国防部展示了一个指挥控制网络,该网络使用人工智能自动探测敌方活动,并在多个情报和军事系统之间传递目标信息。在其中一次演习中,一个太空装备探测到一艘模拟敌舰,但无法识别。该网络自动提示ISR平台,令其收集敌舰附加信息,然后发送给指控平台。指控平台应用人工智能选择最佳武器系统攻击敌舰,并将目标数据传递给附近的美海军驱逐舰,供其与敌舰交战使用。人工智能可大大缩短瞄准过程。2019年11月,美空军参谋长戴维·戈德芬描述人工智能网络时认为,“它不再是PowerPoint,而是货真价实的东西。”
在战略层面,人工智能指控系统可以向决策者提供情报,告诉他们某个对手正准备在危机期间部署战略力量,比如核潜艇或机动导弹发射器。在这种情况下,来自不同联盟成员国的决策者可能会就如何应对持不同意见,但在敌方部队分散和定位之前,他们几乎没有时间讨论自己的选择。在作战和战术层面,因为人工智能系统迅速提供了关于对手的战场情报,联盟作战指挥官也将面临类似问题。指挥官可能会被迫迅速决定是否打击一个由人工智能系统探测到的稍纵即逝的目标。可以肯定,单边行动的决策者也将面临同样问题,如果在决策过程中有多个人具有发言权,如何确定最佳行动方案就会变得更加复杂。
敌方使用人工智能系统也会压缩时间,使联盟决策复杂化。正如人工智能可以提高盟军的行动节奏,它也可以提高敌方军事行动的频率和速度。一个国家可以使用人工智能自主武器系统发起军事行动而不会伤及人员,这可能导致敌方发动他们原本无法发起的行动。例如,中国已经开发并出口了能够识别目标和执行致命打击的自主无人机,这些无人机很少或根本没有受到监督。此外,对手将人工智能集成到指控网络,可能会加快其决策过程。中国军方已经表达了利用人工智能进行军事决策的兴趣。一份来自中国中央军委联合作战指挥中心的出版物,描述了如何使用人工智能来玩复杂的棋盘游戏,“证明人工智能在作战指挥、程序推导和决策方面存在巨大潜力”。这些系统可以用来对付美国及其在印度太平洋地区的盟友,迫使盟军指挥官对这些威胁做出更快反应。
加剧多种不确定性
人工智能还会加剧信息和军事行动的不确定性,从而给联盟决策带来压力。人类分析师或军事人员可以被要求解释和证明自己的发现或决定,而人工智能通常是在一个“黑匣子”中运行。支撑许多前沿人工智能系统的神经网络是不透明的,对于它们是如何得出结论的,人们知之甚少。这些网络依赖深度学习——一种从大数据集通过层次结构的数字节点传递信息的过程,这些数字节点分析数据输入并使用数学规则进行预测。当数据流经神经网络时,网络会进行内部调整以提高输出质量。研究人员往往无法解释神经网络是如何进行内部调整的。由于缺乏“可解释性”,人工智能系统的用户可能难以理解故障和纠正错误。
决策者呼吁开发更透明的人工智能系统,研究人员也在努力开发可解释的人工智能工具,以监控人工智能黑匣子。然而,许多决策者仍然对人工智能系统的不确定性感到不安。美空军空战司令部司令公开宣称,他还不愿意依靠人工智能程序来分析无人侦察机收集的全动态视频。他认为,尽管系统在不断改进,但仍不能始终如一地提供准确分析。只要人工智能系统的决策和分析不透明,指挥官就不愿相信人工智能系统。如果使用,人工智能可能会造成战争迷雾,而不是减少这些迷雾,因此很难使用人工智能信息进行决策。
人工智能不确定性对作战的影响,可能会在多国联盟背景下加剧。人工智能的信任度存在明显的跨国差异,即便是亲密盟友之间也是如此。2018年一项调查发现,只有13%的日本受访者和17%的韩国受访者信任人工智能,而美国这一比例为25%。美国和许多北约盟国之间也存在类似差异。在西班牙,34%的受访者信任人工智能,相比之下,加拿大为21%,波兰为40%,土耳其为43%。鉴于这种差异,在多国行动期间,一些国家的决策者和指挥官可能比其他国家的领导人更不愿意使用人工智能系统或相信它们提供的信息。
当对手使用人工智能时,盟国决策者也将面临不确定性。领导人将被迫考虑,是否要像传统的有人操作装备一样,对自主飞机或舰艇等人工智能系统的行动做出反应。现有法律法规在这方面还是空白,无法提供指导。各国已经起草了国内政策来管理自主武器系统的使用,但这些条例和国际法在如何应对人工智能军事行动和“传统”军事行动上,并没有做任何区分。而决策者可能认为,与有人平台相比,对手使用人工智能平台应需要不同的应对方案。如果对手称,人工智能系统实施的攻击是由有缺陷的算法造成的,我们该如何应对?和有人机相比,防空部队对敌自主无人机进入己方领空后,是否应该做出不同反应?决策者可能会发现,自己几乎没有时间考虑这些复杂问题,尤其是在人工智能大大加快对手军事行动速度的情况下。
发布虚假信息
即使各国信任自己的人工智能,对手和恶意行为者也可以利用人工智能来制造不和,从而阻碍决策。当多个国家协调安全决策时,信任与密切关系至关重要,因为决策者必须确信,盟国不会违背承诺。长期以来,各国领导人一直担心被盟友抛弃,或被卷入不必要冲突。当个别领导人暗示他们可能不会履行联盟承诺或采取挑衅行动时,这些担忧就会被放大。例如,特朗普在公开质疑保卫某些北约成员国的价值时,也是在质疑美国对盟国的承诺。敌方可以利用人工智能发动针对这些担忧的虚假信息,从而造成盟国关系紧张,或加深盟国分歧。
正如敌方可利用深度伪造技术来干扰作战协调一样,他们也可以利用人工智能制造困惑和不信任,从而阻碍战略决策。试图破坏联盟凝聚力的对手可能会利用深度伪造技术,描绘成员国领导人质疑联盟的价值,批评其他领导人,或者威胁可能采取将联盟拖入不必要冲突的行动。这些伪造的视频或录音可能会增加盟国承诺的不确定性,或在危机期间使盟国因担心被抛弃而引起恐慌。
一网打尽系列文章,请回复以下关键词查看: |
---|
创新发展:习近平 | 创新中国 | 创新创业 | 科技体制改革 | 科技创新政策 | 协同创新 | 科研管理 | 成果转化 | 新科技革命 | 基础研究 | 产学研 | 供给侧 |
热点专题:军民融合 | 民参军 | 工业4.0 | 商业航天 | 智库 | 国家重点研发计划 | 基金 | 装备采办 | 博士 | 摩尔定律 | 诺贝尔奖 | 国家实验室 | 国防工业 | 十三五 | 创新教育 | 军工百强 | 试验鉴定 | 影响因子 | 双一流 | 净评估 |
预见未来:预见2016 |预见2020 | 预见2025 | 预见2030 | 预见2035 | 预见2045 | 预见2050 |
前沿科技:颠覆性技术 | 生物 | 仿生 | 脑科学 | 精准医学 | 基因 | 基因编辑 | 虚拟现实 | 增强现实 | 纳米 | 人工智能 | 机器人 | 3D打印 | 4D打印 | 太赫兹 | 云计算 | 物联网 | 互联网+ | 大数据 | 石墨烯 | 能源 | 电池 | 量子 | 超材料 | 超级计算机 | 卫星 | 北斗 | 智能制造 | 不依赖GPS导航 | 通信 | 5G | MIT技术评论 | 航空发动机 | 可穿戴 | 氮化镓 | 隐身 | 半导体 | 脑机接口 | 传感器 |
先进武器:中国武器 | 无人机 | 轰炸机 | 预警机 | 运输机 | 直升机 | 战斗机 | 六代机 | 网络武器 | 激光武器 | 电磁炮 | 高超声速武器 | 反无人机 | 防空反导 | 潜航器 |
未来战争:未来战争 | 抵消战略 | 水下战 | 网络空间战 | 分布式杀伤 | 无人机蜂群 | 太空战 | 反卫星 |
领先国家:美国 | 俄罗斯 | 英国 | 德国 | 法国 | 日本 | 以色列 | 印度 |
前沿机构:战略能力办公室 | DARPA | 快响小组 | Gartner | 硅谷 | 谷歌 | 华为 | 阿里 | 俄先期研究基金会 | 军工百强 |
前沿人物:钱学森 | 马斯克 | 凯文凯利 | 任正非 | 马云 | 奥巴马 | 特朗普 |
专家专栏:黄志澄 | 许得君 | 施一公 | 王喜文 | 贺飞 | 李萍 | 刘锋 | 王煜全 | 易本胜 | 李德毅 | 游光荣 | 刘亚威 | 赵文银 | 廖孟豪 | 谭铁牛 | 于川信 | 邬贺铨 |
全文收录:2017文章全收录 | 2016文章全收录 | 2015文章全收录 | 2014文章全收录 |
其他主题系列陆续整理中,敬请期待…… |