查看原文
其他

人工智能时代已来,AI芯片路在何方? | AI芯片大战开打,AMD和Intel巨头的AI演变

2017-02-15 战略前沿技术


人工智能时代已来,AI芯片路在何方?


来源:矽说(ID:silicon_talks),作者:李一雷


1.芯片行业的演进路线



芯片行业的整体发展始自上世纪60年代,一开始是指数型发展,所以有了每18个月集成度翻一番的摩尔定律,可以说当时的发展是非常快的。摩尔定律背后的逻辑是说,随着工艺制程的进化,同一款芯片的制造成本会更低,单位面积晶体管数量提升导致相同的芯片所需要的面积缩小;而如果工艺制程发展速度过慢,则意味着芯片制作成本居高不下,导致利润无法扩大。但是,如果孤注一掷把所有的资本都用来发展新制程,则风险太大,一旦研发失败公司就完蛋了。

摩尔发现当时市场上成功的半导体厂商的制程进化速度大约是每年半导体芯片上集成的晶体管数量翻倍,于是写了著名的论文告诉大家这个发展速度是成本与风险之间一个良好的折中,半导体业以后发展可以按照这个速度来。

可以说,摩尔定律背后的终极推动力其实是经济因素,它给市场带来的积极影响是,随着半导体工艺制程的进化,芯片的性能以指数级增长,从而带动了电子产品性能大跃进式发展,电子市场一片生机勃勃。在摩尔定律提出的前三十年,新工艺制程的研发并不困难,但随着晶体管越来越小,越来越接近宏观物理和量子物理的边界,高级工艺制程的研发越来越困难,研发成本也越来越高。如果工艺制程继续按照摩尔定律所说的以指数级的速度缩小特征尺寸,会遇到两个阻碍,一个是经济学阻碍,另一个是物理学阻碍。

经济学阻碍是,随着特征尺寸的缩小,芯片的成本上升很快。这个成本包括NRE成本(Non-Recurring Engineering,指芯片设计和掩膜制作成本,对于一块芯片而言这些成本是一次性的)和制造成本(即每块芯片制造的成本)。有人计算过,以现在的最新工艺,一块芯片的NRE要到1000万美元以上。如此高昂的NRE意味着需要非常非常高的芯片生产量才能去摊薄这个成本。换句话说,如果芯片的产量不到,那么你就没有能力去使用最新的工艺,只能沿用较旧的工艺。这就部分打破了摩尔定律 “投资发展制程-芯片生产成本降低-用部分利润继续投资发展制程”的逻辑。

而物理学的障碍主要来源于量子效应和光刻精度。晶体管太小就会碰到各种各样的问题,比如当特征尺寸缩小到10nm的时候,栅氧化层的厚度仅仅只有十个原子那么厚,这时便会产生诸多量子效应,导致晶体管的特性难以控制。

我认为,现在芯片行业的发展已经到了瓶颈期,接下来的发展策略有三种,分别是More Moore, More than Moore和Beyond Moore。第一种More Moore,意思是继续按照摩尔定律的老路走下去,继续缩小晶体管尺寸;第二种More than Moore,意思是首先芯片系统性能的提升不再单纯地靠晶体管的缩小,而是更多地靠电路设计以及系统算法优化。其次集成度的提高不一定要靠把更多模块放到同一块芯片上,而是可以靠封装技术来实现,例如Intel的EMIB,TSMC的InFO等等(苹果的处理器就用了InFO技术);第三种Beyond Moore,意思是干脆不用CMOS器件而是去研发一些新的器件,不过这个目前看起来还比较遥远。未来估计是会More Moore结合More than Moore,随着时间推移More than Moore比重越来越大。

其实我对未来还是蛮悲观的,这个瓶颈期如果没有新器件诞生的话,应该会持续5年10年甚至更长一段时间。就像钢铁行业,它早已进入平缓期,也没什么特别新的技术,如果这个行业想要有比较大的发展,那除非是发现新的材料可以替代钢。半导体行业也一样,什么时候出来新器件结束这个瓶颈期我也不知道,有的时候科学上的事情就是很偶然,可能突然就发现某种材料可以用了,但如果你找不到新材料,就是没办法有很大突破。


2.NV/Google/Intel/AMD在AI芯片的不同战略



其实人工智能计算还是分很多领域,芯片应用大概有两个极端:一个是用于云端服务器的高功耗高计算能力的芯片,走的是高性能超级计算机(HPC)的路子;另一个是用于终端(比如手机)的人工智能芯片,这个就特别注重低功耗,对计算能力的要求不是特别高。

在云端服务器这个领域,因为要处理海量的数据,Nvidia的GPU已经成为服务器不可或缺的一部分,但Nvidia自己目前还没有打算大规模自己做服务器,因此在人工智能的云端市场,Nvidia提供的是硬件而非平台。而在终端这个领域,Nvidia基于GPU的人工智能平台一方面功耗太大,另一方面过高的计算能力反而导致成本过高,因此无法与定制芯片抗衡。其实,Nvidia的人工智能平台最具优势的应用场景是上面两种情况的中间,即数据量中等、对计算能力要求还比较高、对功耗有一定要求但是并不苛刻的地方,比如ADAS市场。Nvidia人工智能平台无论计算能力(10-100TOPS)还是功耗(10-100W)都能完美地符合要求,因此它主打自动驾驶市场并不奇怪,它在2017年1月份举办的CES上也主要发布了自动驾驶相关的产品。

Intel的话,从三个方面来说吧。第一,在云端市场,它是最大的玩家,并且正在积极准备与Nvidia抗衡,因为Intel在HPC方面的业务本来就是驾轻就熟,而Nvidia进入HPC还没有几年,只能算这个市场的new player。大概是在2013年的时候,人们才发现原来GPU可以用于深度学习,之前根本不知道这个事情。说回Intel,它在收购Altera之后推出了基于FPGA的专用深度学习加速卡,可以在云端使用。另外Intel收购Nervana后正在积极推广结合其技术为AI优化的Knight Mill至强处理器,目标也是在云端。第二,在车载端,Intel与Mobileye和BMW结成了自动驾驶联盟,Mobileye提供传感器芯片和算法,Intel提供云端计算平台,BMW提供汽车。第三,在移动端,Intel收购了Movidius,但是尚未看到大的动作。所以我预期,移动端的人工智能芯片,如果有的话还是高通之类的厂商会比较有优势。

再说Google,它推出来的芯片TPU主要是自用的。这个有点像IBM,IBM最早出的Power PC系列芯片也是为了给自己的server用。所以Google也是类似的思路,它的芯片就没有打算给别人用,换句话说它没有真的打算进入芯片这个市场,和别人竞争。

最后说AMD,它在GPU和CPU的技术都处于追赶者的位置,在AI方面比较低调,在CES上公布新产品的时候也都没有主动去提人工智能的事情。最近的新闻大概是和阿里巴巴合作云端服务作为试水。AMD的总体思路还是求稳,不刻意去跟Nvidia争谁先谁后,它就等你们把这些东西先做出来再说,自己就很踏实地把显卡技术做好。其实GPU天生就符合深度学习的要求,只要AMD把自己芯片的运算能力做上去,它很快就可以杀入人工智能这个领域中来。


3.Nvidia面临的机遇和挑战



2016年是人工智能爆发的一年,借着这股东风,Nvidia的股价在去年飞升三倍有余,令人惊叹。目前看来,Nvidia的技术成长空间还有很多,因为Nvidia正在转型成为平台公司而不是硬件公司,GPU会是它的核心但是不是全部,它要做的是围绕GPU的一个平台、一个生态。与GPU配套的各种设施,例如开发平台、开发者社区和包络编程语言在内的开发工具也非常重要。举例来说,在笔记本PC市场,其实ARM的处理器性能完全可以和Intel相抗衡,但是为什么基本没有笔记本电脑用ARM的处理器?就是因为ARM在笔记本PC上没有任何生态。一旦平台和生态做起来,即使它的技术发展不像原来那么生猛,我相信Nvidia的商业价值仍然可以得到保证。假如明天AMD做出来一个和Nvidia性能一模一样的GPU,它一时半会儿也还是无法取代Nvidia,因为Nvidia有自己的CUDA、CUDNN等配套的开发工具。

而Nvidia可能会面临的最大风险在于,它现在的股价完全由人工智能来支撑,但人工智能的应用会不会像投资者想象中发展的那么快是存疑的。其实非常明显现在人工智能的应用有很大的泡沫,大家预期它在一两年之内会起来。但是如果它在一两年之内没有起来或者说某些应用没有能真的落地,那时候投资者可能会有些反冲。现在是一个overshoot,发现没有达到预期之后就会有一个undershoot,几次震荡之后慢慢回到理性估值。


4.FPGA的玩家和留给创业公司的机会



FPGA全称“可编辑门阵列”(Field Programmable Gate Array),其基本原理是在FPGA芯片内集成大量的数字电路基本门电路以及存储器,而用户可以通过烧入FPGA配置文件来来定义这些门电路以及存储器之间的连线。这种烧入不是一次性的,即用户今天可以把FPGA配置成一个微控制器MCU,明天可以编辑配置文件把同一个FPGA配置成一个音频编解码器。现在FPGA和人工智能相关的主要机会是云端服务器的可配置运算 ,目前这个领域的玩家主要是两个,Xilinx和Altera,后者已经被Intel收购。

当下FPGA遇到的一个最关键的问题就是开发者生态。传统CPU也好GPU也好,编程是比较容易的,使用的是语言是C++、Java,大家都很熟悉,而且已经形成了成熟的体系,开发环境、生态系统还有开发者的社区这些都很好。但是FPGA开发通常需要使用硬件描述语言,如Verilog、VHDL等等,这些对于程序员来说需要大量的时间才能掌握。这样的话FPGA的生态就无法发展,因为门槛高意味着做的人少,做的人少意味着知名度低,相关项目数量少,这又导致了无法吸引到开发者参与项目,如此便形成了恶性循环。

针对这种情况,Xilinx就发布了一个比较能改善生态的东西,叫做可重配置加速栈,这些用于云端的FPGA将会使用部分重配置方案。什么意思呢?通常FPGA配置过程包括硬件描述语言的综合、布局布线、最后产生比特流文件并写入以完成配置。在这个过程中,综合以及布局布线花费的时间非常长,可达数小时,而最后比特流文件写入以及配置可以在一秒内完成。用于云端的FPGA方案为了实现快速应用切换,预计将会使用硬IP(即针对某应用硬件加速的比特流),并在需要使用该应用时快速写入该比特流。在未来,云端FPGA的生态预计将不止包括Xilinx,还会包括许多第三方IP提供商,最后形成类似App Store的形式让使用者方便地选购对应的硬件加速方案并实时加载/切换。

目前国内FPGA水平较弱,而且FPGA需要一整套从软件到硬件的流程,需要深刻的积累,对于创业公司并不是一个最好的方向,更适合国家科研项目。但是创业公司使用FPGA,做FPGA的解决方案,基于FPGA开发或者做FPGA上的IP,是个不错的机会。换句话说就是你不去手机,而是做APP。其实这个方向国内也已经有不少公司在做了,我知道的比较出名的有深鉴科技。


5.玩人工智能软件的正确姿势



目前人工智能软件最大问题是如何把技术真正落实到解决消费者的需求,一些算法非常有技术含量,但是落地并不容易,例如图像分类等等。我觉得现在做的比较好的软件是语音识别/交互类,比较典型的是讯飞输入法,前阵子在锤子手机的发布会上被秀了一把。

图像类的人工智能算法目前是最火的方向,比语音类要火很多,但是目前看来图像算法大多数只能作为一个大系统的一部分。比如一个安防系统,图像算法可以用来检测一个人是否带刀,但是把这个软件单独拉出来卖就不一定能成立了。当然也有单独做软件的,例如Prisma,这个之前在Instagram很火的软件就是利用深度学习来做图像风格变换。总结一句话就是,人工智能相关的软件当然是一个非常好的创业方向,只是要找准这个创新的卖点,光有好的技术其实是没什么大用的。

在人工智能领域,国内也出现了一批还不错的公司,我有在关注。在图像检测/人脸识别领域,有依图科技、Face++、商汤科技三只领头羊,它们主要为银行和一些安防系统提供人脸识别的解决方案。在医疗领域,就是用人工智能帮忙人类判定疾病也有很多公司在做,一图正在进军这个领域。在自动驾驶领域,软件方面做的比较有名的是图森、地平线。其实地平线摊子铺得比较大,硬件软件都做,除了辅助驾驶外,还跟美的合作在做智能家居。还有一些比较小众的领域,比如鉴黄,就是图谱在做。硬件的话,比较有名的是寒武纪。


6.芯片行业的未来除了人工智能,还有……



最后再说回到整个芯片行业的发展上来。有人问,芯片行业是不是有一个强者恒强的规律,出现黑马的几率有多大。我认为是这样的:在芯片这个地方,它是每隔一段就会换一个应用方向,90年代时候最火的是多媒体电脑,也就是PC端,后来就变到了移动端,最近则是人工智能。众所周知,Intel是PC时代永远的老大,在那25年的时间里基本碾压所有竞争对手,但移动设备这个方向它就完全错过了。所以说,在同一个领域里基本上是强者恒强,很难有超越,但是在这个领域强,不代表在下一个领域也会强,在“时代”交替的时候是最容易出黑马的。我们在评判企业价值的时候,要对芯片的技术应用有一个判断,要非常清楚下一个所谓的风口在哪里。

现在芯片应用最火的方向毫无疑问是人工智能了,我还同时看好另外一个方向,就是医疗。我相信在医疗电子领域还有很多可以做的事情,当然这个方向的发展还要倚赖一些基础设施的建设,比如在线的云平台和大数据库等等,这个部分在这里就不详细展开了。




AI芯片大战开打

AMD和Intel巨头的AI演变

来源:21世纪经济报道,作者:特派记者 张涵

【编者按】人们越来越看好人工智能的前景及其潜在的爆发力,而能否发展出具有超高运算能力且符合市场的芯片成为人工智能平台的关键一役。由此,2016年成为芯片企业和互联网巨头们在芯片领域全面展开部署的一年。而在这其中,英伟达保持着绝对的领先地位。但随着包括谷歌、脸书、微软、亚马逊以及百度在内的巨头相继加入决战,人工智能领域未来的格局如何,仍然待解。

在2016年,所有人都看到了人工智能的前景和其潜在的爆发力,但不管是AlphaGo还是自动驾驶汽车,要想使得任何精妙算法得以实现,其基础是硬件的运算能力:也就是说,能否发展出超高运算能力又符合市场需求的芯片成为了人工智能平台的关键一役。

因此,毫无疑问,2016年也成为了芯片企业和互联网巨头们在芯片领域全面展开部署的一年:先有CPU芯片巨头因特尔年内三次大手笔收购人工智能和GPU领域企业;后有谷歌宣布开发自己的处理系统,而苹果、微软、脸书和亚马逊也都纷纷加入。

而在这其中,领跑者英伟达(Nvidia)因其在人工智能领域的优势使其成为了资本市场的绝对宠儿:在过去的一年中,曾经以游戏芯片见长的Nvidia股价从十几年的稳居30美元迅速飙升至120美元。


就当资本市场都在犹豫是否人工智能风口使得英伟达股价虚高时,2月10日,英伟达发布2016年第四季度的财报显示,其营收同比增长55%,净利润达到了6.55亿美元,同比增长216%。

“正当Intel、微软等巨头投资人工智能为基础的芯片技术时,英伟达已经以Q4财报显示,这家已经在人工智能领域投资将近12年的芯片企业已经开始就此收获可观的盈利。”资深技术评论家Therese Poletti在其财报发布后指出。

研究机构Tractica LLC估计,由于深度学习项目产生的硬件花费将从2015年的4360万美元,上升到2024年的41亿美元,而企业的相关软件花费将同期从1.09亿美元上升到100亿美元。

正是这一庞大的市场吸引着谷歌、脸书、微软、亚马逊以及百度在内的巨头相继宣布企业向人工智能领域的技术转向。“在人工智能相关技术上,目前英伟达仍然保持着绝对的领先,但随着包括谷歌在内的TPU等技术不断推向市场,未来的AI硬件格局仍然待解。”一位不便具名的欧洲资深从业人员向21世纪经济报道表示。


英伟达在GPU领域显著领先



根据英伟达最新公布的年报,其最主要的业务领域均出现了两位数以上的增长。除了其一直占有领先优势的游戏业务增长之外,其更多的涨幅事实上来自于数据中心业务和自动驾驶两大全新业务板块。

年报数据显示,数据中心业务有138%的增长,而自动驾驶有52%的增长。


“事实上,这是整个英伟达财报里最具有说明力的内容,因为数据业务和自动驾驶的增长根本上是人工智能和深度学习的发展所激发的。”一位美国计算机硬件分析师向21世纪经济报道表示。

在目前的深度学习领域,把神经网络投入实际应用要经历两个阶段:首先是训练,其次是执行。从目前的环境来看,训练阶段非常需要处理大量数据的GPU(图形处理器,下同),也就是以游戏和高度图形化的应用做图像渲染起家的英伟达领先的领域;而在转型阶段则需要处理复杂程序的CPU,也就是微软十几年来领先的领域。

“英伟达目前的成功事实上代表了GPU的成功,它正是最早的GPU领先者之一。”上述行业分析师表示。

深度学习神经网络尤其是几百上千层的神经网络,对高性能计算需求非常高,而GPU对处理复杂运算拥有天然的优势:它有出色的并行矩阵计算能力,对于神经网络的训练和分类都可以提供显著的加速效果。

举个例子,研究员不用一开始就人工定义一个人脸,而是可以将几百万个人脸的图像展示出来,让计算机自己定义人脸应该是什么样子的。学习这样的例子时,GPU可以比传统处理器更加快速,大大加快了训练过程。

因此,搭载GPU的超级计算机已经成为训练各种深度神经网络的不二选择,比如Google大脑早期就是使用Nvidia的GPU做深度学习。“我们正在搭建一款带有跟踪功能的摄像装置,因此需要找到最适合的芯片,GPU是我们的首选。”欧盟AR初创企业Quine CEO Gunleik Groven在今年一月的CES(国际消费电子展)现场向本报记者表示。

目前,谷歌、Facebook、微软、Twitter和百度等互联网巨头,都在使用这种叫做GPU的芯片,让服务器学习海量的照片、视频、声音文档,以及社交媒体上的信息,来改善搜索和自动化照片标记等各种各样的软件功能。一些汽车制造商也在利用这项技术,开发可以感知周围环境、避开危险区域的无人驾驶汽车。

除了在GPU和图形计算领域长期领先,英伟达也是最早一批在人工智能领域进行投资的科技公司。2008年,当时在斯坦福做研究的吴恩达发表了一篇用GPU上的CUDA进行神经网络训练的论文。2012年“深度学习三巨头”之一Geoff Hilton的学生Alex Krizhevsky用英伟达的GeForce显卡在ImageNet中将图像识别准确率大幅提升,这也是英伟达CEO黄仁勋时常提到的英伟达注重深度学习的开端。

有报告显示,世界上目前约有3000多家AI初创公司,大部分都采用了Nvidia提供的硬件平台。

“深度学习被证明是非常有效的。”黄仁勋在季报2月10日的发布会中表示。在列举目前GPU计算平台正在人工智能、云计算、游戏和自动驾驶领域快速展开应用的同时,黄仁勋表示,在未来数年间,深度学习将会成为计算机计算的一种基础性的核心工具。


AMD和Intel巨头的AI演变




投资者和芯片制造商关注着所有互联网巨头的一举一动。仅仅以英伟达的数据中心业务为例,在很长一段时间以来,该公司一直为谷歌提供数据服务。

英伟达并非GPU的唯一领先者,巨头Intel和AMD都在这一领域有着不同的优势。

2016年11月,Intel公司发布了一个叫做Nervana的AI处理器,他们宣称会在明年年中测试这个原型。如果一切进展顺利,Nervana芯片的最终形态会在2017年底面世。这个芯片名称基于Intel早前购买的一个叫做Nervana的公司。按照Intel的人所说,这家公司是世界上第一家专门为AI打造芯片的公司。

Intel公司披露了一些关于这个芯片的一些细节,按照他们所说,这个项目代码为“Lake Crest”,将会用到Nervana Engine和Neon DNN相关软件。这款芯片可以加速各类神经网络,例如谷歌TensorFlow框架。

芯片由所谓的“处理集群”阵列构成,处理被称作“活动点”的简化数学运算。相对于浮点运算,这种方法所需的数据量更少,因此带来了10倍的性能提升。

Lake Crest利用私有的数据连接创造了规模更大、速度更快的集群,其拓扑结构为圆环形或其他形式。这帮助用户创造更大、更多元化的神经网络模型。这一数据连接中包含12个100Gbps的双向连接,其物理层基于28G的串并转换。


TPU与FPGA可能的逆袭




在上述芯片巨头进行GPU领域的提升之外,有更多的企业在试图引发一轮全面的颠覆。其代表为谷歌在2016年宣布将独立开发一种名为TPU的全新的处理系统。

TPU是专门为机器学习应用而设计的专用芯片。通过降低芯片的计算精度,减少实现每个计算操作所需的晶体管数量,从而能让芯片的每秒运行的操作个数更高,这样经过精细调优的机器学习模型就能在芯片上运行得更快,进而更快地让用户得到更智能的结果。Google将TPU加速器芯片嵌入电路板中,利用已有的硬盘PCI-E接口接入数据中心服务器中。

据Google资深副总裁Urs Holzle 透露,当前Google TPU、GPU 并用,这种情况仍会维持一段时间,但他表示,GPU 可执行绘图运算工作,用途多元;TPU 属于ASIC,也就是专为特定用途设计的特殊规格逻辑IC,由于只执行单一工作,速度更快,但缺点是成本较高。

除了上述提到的谷歌,微软也在使用一种叫做现场可变编程门阵列(FPGA)的新型处理器。

据介绍,这个FPGA 目前已支持微软Bing,未来它们将会驱动基于深度神经网络——以人类大脑结构为基础建模的人工智能——的新搜索算法,在执行这个人工智能的几个命令时,速度比普通芯片快上几个数量级。有了它,你的计算机屏幕只会空屏23毫秒而不是4秒。

在第三代原型中,芯片位于每个服务器的边缘,直接插入到网络,但仍旧创造任何机器都可接入的FPGA池。这开始看起来是Office 365可用的东西了。最终,Project Catapult准备好上线了。另外,Catapult硬件的成本只占了服务器中所有其它的配件总成本的30%,需要的运转能量也只有不到10%,但其处理速度却是原来的2倍。

此外,有一些公司,例如Nervada和Movidius,模拟GPU的平行模式,但是专注于更快速地移动数据,省略图像所需要的功能。其他公司,包括使用了被称为“True North”的芯片的IBM公司,开发了由神经元、突触等其他大脑特征所启发的芯片设计。

由于深度学习和人工智能未来的巨大前景,各大巨头都在尽量争取技术上的优势。如果这其中的某家公司,如谷歌,用一种新型芯片替换掉现有芯片,这基本上就相当于颠覆了整个芯片行业。

“不管是英伟达、Intel还是谷歌或是百度,都在寻找一种未来人工智能能够广泛应用的基础。”Therese Poletti表示。

而也有很多人持有与谷歌副总裁Urs Holzle 同样的观点,认为在人工智能的遥远未来,GPU没有代替CPU,而TPU也不会取代GPU,芯片市场将出现更大的需求和繁荣。

一网打尽系列文章,请回复以下关键词查看:

创新发展:习近平 | 创新中国 | 创新创业 | 科技体制改革 | 科技创新政策 | 协同创新 | 成果转化 | 新科技革命 | 基础研究 | 产学研 | 供给侧

热点专题:军民融合 | 民参军 | 工业4.0 | 商业航天 | 智库 | 国家重点研发计划 | 基金 | 装备采办 | 博士 | 摩尔定律 | 诺贝尔奖 | 国家实验室 | 国防工业 | 十三五 | 创新教育 | 军工百强 | 试验鉴定 | 影响因子 | 双一流

预见未来:预见2016 | 预见2020 | 预见2025 | 预见2030 | 预见2035 | 预见2045 | 预见2050 |

前沿科技:颠覆性技术 | 生物 | 仿生 | 脑科学 | 精准医学 | 基因 |  基因编辑 | 虚拟现实 | 增强现实 | 纳米 | 人工智能 |  机器人 | 3D打印 | 4D打印 | 太赫兹 | 云计算 | 物联网 | 互联网+ | 大数据 | 石墨烯 | 能源 | 电池 | 量子  | 超材料 | 超级计算机 | 卫星 | 北斗 | 智能制造 | 不依赖GPS导航 | 通信 | MIT技术评论 | 航空发动机 | 可穿戴 | 氮化镓 | 隐身 | 半导体 | 脑机接口

先进武器:中国武器 | 无人机 | 轰炸机 | 预警机 | 运输机 | 战斗机 | 六代机 |  网络武器 | 激光武器 | 电磁炮 | 高超声速武器 | 反无人机 | 防空反导 | 潜航器 |

未来战争:未来战争 | 抵消战略 | 水下战 | 网络空间战 | 分布式杀伤 | 无人机蜂群 | 太空站 |反卫星

领先国家:俄罗斯 | 英国 | 日本 | 以色列 | 印度 

前沿机构:战略能力办公室 | DARPA | Gartner | 硅谷 | 谷歌 | 华为 | 俄先期研究基金会 | 军工百强

前沿人物:钱学森 | 马斯克 | 凯文凯利 | 任正非 | 马云 | 奥巴马 | 特朗普

专家专:黄志澄 | 许得君 | 施一公 | 王喜文 | 贺飞 | 李萍 | 刘锋 | 王煜全 | 易本胜 | 李德毅 | 游光荣 | 刘亚威 | 赵文银 | 廖孟豪 | 谭铁牛

全文收录:2016文章全收录 | 2015文章全收录 | 2014文章全收录 

其他主题系列陆续整理中,敬请期待…… 

“远望智库”聚焦前沿科技领域,着眼科技未来发展,围绕军民融合、科技创新、管理创新、科技安全、知识产权等主题,开展情报挖掘、发展战略研究、规划论证、评估评价、项目筛选,以及成果转化等工作,为管理决策、产业规划、企业发展、机构投资提供情报、咨询、培训等服务,为推动国家创新驱动发展和军民融合深度发展提供智力支撑。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存