联电/格芯相继放弃7nm,后摩尔时代如何超越摩尔?
8月28日消息,全球第二大晶圆代工厂格芯(GLOBALFOUNDRIES)官方在今天凌晨正式宣布:为支持公司战略调整,格芯将搁置7纳米FinFET项目,并调整相应研发团队来支持强化的产品组合方案。在裁减相关人员的同时,一大部分顶尖技术人员将被部署到14/12nm FinFET衍生产品和其他差异化产品的工作上。值得注意的是,就在不久前,全球第三大晶圆代工厂联电也宣布放弃12nm以下制程。一时间,关于“摩尔定律已死”的讨论再次成为焦点。
8月22日,《第十六届中国集成电路技术与应用研讨会暨南京国际集成电路技术达摩论坛》在南京召开。在这次活动上,多位与会嘉宾谈到“摩尔定律”是否继续有效,如何超越摩尔定律的话题。作为摩尔定律的坚定推动者,英特尔中国研究院院长宋继强也在当天的活动及会后的采访环节发表了自己的观点。
英特尔中国研究院院长宋继强
摩尔定律已死?
摩尔定律是由英特尔创始人之一的戈登·摩尔(Gordon Moore)于半个世纪前提出来的。其内容为,“当价格不变时,集成电路上可容纳的晶体管的数目,约每隔18-24个月便会增加一倍。”
但是自2011年下半年英特尔发布了22nm之后,近2年半之后,即2014年上半年,英特尔的14nm工艺才发布(二季度末才量产)。而在14nm向10nm提升的过程中,英特尔在工艺上遭遇了挑战,其Tick-Tock策略(即一年提升工艺,一年提升架构)甚至停摆。时隔3年之后,英特尔才正式发布了新一代的10nm工艺。但是,真正的大规模量产却一再推迟到了2019年。这也使得外界都认为“摩尔定律已死”。
在本次的《第十六届中国集成电路技术与应用研讨会暨南京国际集成电路技术达摩论坛》大会上中国工程院院士许居衍先生以及赛迪顾问副总裁李珂纷纷直言“摩尔定律”已死。
不过,在英特尔中国研究院院长宋继强看来,摩尔定律虽然开始放缓,但还远没有到终结的时候。
宋继强表示:“CMOS本身半导体缩放的技术,目前我们看到还是可以继续往下走的,并不是走不下去,现在还远远没有到物理极限这个程度。现在的困难主要在于如何可以大批量、高精度的把它制造生产出来,这个是一个主要的问题。”
宋继强还透露:“英特尔的10纳米的量产一再延期,主要是因为英特尔在10纳米上采用了很多新的技术,目前已经看到了比较好的良率。我可以肯定的说,在明年我们可以有高良率、大批量的10纳米的产品出来。明年年底可以看到用10纳米主流芯片的计算机系统能够上市卖,这个会有比较明确的预期。而且我们在10纳米上积累的很多新的技术和经验(比如四图案成形等),在后续的7纳米上是可以复用的,所以我们后续对于7纳米的生产,比如功耗、密度还有性能的可控性,包括对于日程的预测的准确性上都有更大的提高和信心,所以7纳米比10纳米会来得更顺利一些。并且英特尔还有多种不同的技术研究在同步进行,为后边的技术继续演进进行铺路。”
另外,需要指出的是,摩尔定律不仅是一个有关价格和集成度(晶体管数量)的规律,其中还包括了性能。而提及性能,通常摩尔定律也会有相应的一些组合,需要加上“登纳德缩放”和“波拉克法则”。
“登纳德缩放”是指,如果能够把晶体管的特性和体积加以缩放,那么频率可以升高,功耗效率也可以提升,这样就可以得到更好的功耗和性能。实际上目前通过芯片制程工艺的提升,来提升芯片的性能和能效也正是利用了这一特性。这一点很多人应该都了解。
“波拉克法则”指的是,如果芯片的设计复杂度增加一倍的话,那它的这个性能会得到根号2倍的提升。
所以除了提升芯片的工艺制程之外,通过新的微处理器架构、新的3D工艺处理和设计、异构系统的集成、新的功能——比如能在很低的电压下工作的隧穿式FET(Tunnel FET)设计也都能够提升性能。
但是有时处理器性能虽然成倍提升了,但可能用户并没有感觉到比以前快了一倍,因为用户体验的实际上是一个完整的系统,而处理器性能的发挥也会受到内存容量/带宽、系统软件、甚至是网络瓶颈等多方面因素的影响。
在会后的专访环节,宋继强也直言:“摩尔定律能给我们直接带来的红利,确实越来越慢,因为过去的这二十年,我们仍然在享受摩尔定律的红利,从90年代一直到2010年,都是很明显的,我们不停的享受硬件能力提高,价格降低的好处。只是现在,这个红利没有那么容易拿到。但是摩尔定律的经济效益依然存在。另外,我们仍可以通过一些架构的创新,让这个计算力、经济效益,仍然可以保持一个上升的速度。”
摩尔定律没有推动“创新”?
虽然英特尔仍然在努力维持摩尔定律,但是实际上,对于芯片厂商而言,如果要遵循摩尔定律,就必须不断的提升芯片的制程工艺的不断提升,研发投入和成本也是急剧的提升。能够继续跟进摩尔定律,继续跟进先进制程的芯片代工厂以及芯片设计厂商也开始逐渐减少。
一个比较明显的例子就是,在智能手机兴起的初期,有非常多的手机芯片厂商,但现在只剩下高通、联发科、展讯这三大家,之前的TI、博通、Nvidia、Marverll等都纷纷退出了这个市场。同样的例子在存储芯片市场也同样如是,尔必达、奇梦达等玩家的纷纷退出,渐渐的只剩下了三星、SK海力士、美光、英特尔等大玩家。而现在在芯片代工市场也出现了这一幕,联电宣布放弃12nm以下制程,格芯宣布停止7nm研发。
对此,赛迪顾问副总裁李珂甚至抛出了一个非常惊人的观点:“摩尔定律推动了集成电路产业进步,但没有推动创新。”并且在过去几年,资本是呈现远离半导体市场的趋势。“摩尔定律就像是一场科举,有标准答案(每18-24个月晶体管的集成度增加一倍,性能提升一倍,价格不变),而且还采取的是末位淘汰这样的‘负激励’措施。这也使得很多玩家疲于应对,资本也不太愿意投资了。对于本身处于后发位置的中国半导体厂商来说,要实现赶超难度更是在进一步加大。比如三星2017年的半导体支出达到了242亿美元,而同期中芯国际资本支出却只有23亿美元,还不到三星的零头,怎么可能追的上?”
李珂进一步表示:“现在摩尔定律已经失效,但是半导体行业却更加的活跃了,创新也越来越多,特别是在AI、自动驾驶等领域表现尤为突出,显然,跳出摩尔定律的束缚,产业反而更加的繁荣了。与此同时,新型MEMS工艺、第三代半导体材料器件、二维材料、碳基电子、脑认知与神经计算、量子信息器件的出现,也将会是超越摩尔定律的重要发展方向。”
在会后的芯智讯也就赛迪顾问副总裁李珂的观点与英特尔中国研究院院长宋继强进行了讨论。宋继强表示:“我不认同这个观点,很多的高科技产业都会经历:初期从业企业遍地开花,到最后产业成熟稳定,只剩下少数有实力企业的一个过程。而现在AI、自动驾驶领域的很多创新实际上很多是技术应用上的创新,而摩尔定律则推动的是‘基础性’创新,不论是PC、手机,还是AI、无人驾驶,都离不开芯片的支持,如果没有摩尔定律的推动,这些领域的创新可能也难以为继。”
确实对于半导体产业来说,在‘摩尔定律’推动下,虽然使得跟进高端制程的门槛越来越高,但是也正是由于‘摩尔定律’加速推动才有了诸多领域的创新基础。比如,现在一款中高端智能手机的处理器性能,完全能够超越几年之前的主流PC的性能,如果没有摩尔定律,这一切将是不可想象的。
如何超越“摩尔定律”?——架构创新
不论是现行的x86架构,还是Arm架构,都是基于冯·诺依曼体系架构,其采取的是二进制计算,顺序执行程序,即在计算的运行过程中,需要把要执行的程序和处理的数据首先存入内存,计算机执行程序时,将自动地并按顺序从内存中取出指令一条一条地执行,这一概念称作顺序执行程序。
由于内存容量和带宽总线存在瓶颈,这也限制了处理器性能的发挥。过去几年,通过以更高的速度在总线上传输越来越多数据,冯·诺伊曼架构计算机的速度不断提高。但是,计算机速度受到总线数据吞吐量限制,造成所谓的“冯·诺伊曼瓶颈”。
另外,现行的冯·诺伊曼体系的计算机还存在“暗硅”(Dark Silicon)现象。此前有很多人认为,只要能编写并行软件,就能将传统的计算机芯片架构扩展到数千核。但是实际上,由于功耗的限制,一个多核处理器在同一时刻只能有很少的一部分晶体管能够工作,而其余部分则处于休眠状态。
中国工程院院士许居衍也认为,当下芯片技术有两个难以解决的问题:一个是硅技术在工艺制程的推进上越来越难;第二个就是冯·诺伊曼架构限制了现有计算机芯片算力的持续的高速提升。
在许居衍院士看来,要想突破现有的限制,就需要聚焦在芯片架构的创新:主要包括多片和堆叠架构、系统视野和异构架构的创新。
对与多片和堆叠架构的方面创新,其实上面有提及,主要就是芯片工艺由原来的2D转向2.5D/3D堆叠;
而系统视野上的创新,则主要是指将计算+感知+通信看作是一个整体,平衡计算、通信、存储之间的关系,提供跨层面接口、可靠安全隐私、异构并行编程、量身应对应用。
异构架构上的创新则包括两个方面,一个芯片内核架构上的创新,比如采用非冯·诺伊曼系统架构;另一个则是异构的SoC片上系统。
目前冯诺依曼架构芯片,主要包括传统的CPU和GPU;而非冯架构芯片,主要包括ASIC(寒武纪、谷歌TPU等)、FPGA和部分新型GPU(Nvidia的Tesla系列等),以及类脑芯片(IBM的TrueNorth、英特尔的Loihi等)。
由于类脑芯片还处于研发初期,所以我们看到,目前AI芯片主要以GPU、FPGA和ASIC为主。而后两者主要是按照工作负载的要求来进行不同的设计,比如说要求I/O性能高的,就放一些这样的架构在里面;要纯计算性能高的,比如在定点方面,就增加定点计算的单元,是浮点计算的,就增加浮点计算担忧。这种芯片架构就是去适应软件的要求的。这样的设计,在特定算法下不仅面积小、功耗低,性能也更高。
另外,而异构的SoC片上系统(比如集成了NPU的麒麟970)也是一种趋势。
“对于AI下一步的发展,必然是需要多种芯片来进行支持,不是一种芯片就能够单独能搞定的。我们需要根据具体的应用的场景,来选择多种处理器进行异构搭配。”英特尔中国研究院院长宋继强在会上说到。
英特尔的异构SoC“混搭”技术
众所周知,英特尔是目前x86 CPU市场的老大。不过英特尔在新型GPU(目前正在开发独显)、FPGA(收购了Altera)、类ASIC(Movidius)、存储芯片等多方面都有相应的产品和布局,同时英特尔还拥有先进的制程工艺。这也使得英特尔在异构SoC上拥有了更多的可能。
宋继强告诉芯智讯:“我们的异构SoC其实是两个层面:一个层面,就是通过全新的SoC架构形式来实现,比如我们的Movidius就是SoC,它虽然是一个ASIC芯片,但它也允许软件去定制里边的功能怎么用。还有一些手机SoC当中也通过加入AI内核来实现AI运算加速。另一个层面则是指我们能把不同的芯片通过多种封装形式放在一个芯片里面,放在一个封装里面,混合搭配。”
对于第一类的异构SoC,院士许居衍认为支持软硬件双编程的可重构芯片将是未来十年发展的一个重要方向。
“我觉得可重构SoC确实是一个不错的架构创新的方向。等于它是在SOC里面是设计进去了一些加速的部件,但是没把功能定死,还是允许你上层的软件去配置这些硬件模块、功能模块怎么去连接,怎么去做。这样就提供了一个高力度的可配置性,配置起来的速度和功耗的要求也降低了,所以它的能效比会很高,可能会接近ASIC。特别是当你不是要频繁的重配置,配一下以后,用一段时间,过一段时间又配一下,那他的运行效率,可能是基本上接近ASIC。但是这个前提也是你是预先跟几种应用做了调研,把它的一些通用的计算模块抽出来,这个跟以前的DSP也有点类似。”
“我认为可重构SoC还是要锁定一类应用,比如说我们的Movidius锁定的就是视觉相关的处理应用。清华的可重构SoC芯片Thinker,第一代实际上是一个学术验证芯片,那个是用来实验的。但他后边开始做一些产业化应用的新一代芯片,就分别确定了领域了,一个是做人脸的,一个是做语音的,不是可以随便换用的。但做人脸和做语音,上面的算法还是可以做一些调换。”宋继强解释到。
相对于ASIC来说,可重构芯片虽然性能略低,但更具灵活性;相对于FPGA来说,可重构芯片虽然灵活性略低,但是性能更强,成本更低。
至于英特尔所说的把不同的芯片通过多种封装形式放在一个芯片里面,放在一个封装里面,混合搭配的异构设计,这里就不得不提到英特尔去年推出的EMIB技术。
去年3月,英特尔在美国旧金山举行的 Intel Technology and Manufacturing Day 2017 大会上正式发布了最新的EMIB技术,其目的就是用在解决处理器性能与成本之间的矛盾问题。
英特尔表示,目前市场上处理器所有组件都采用统一制程,要不就全部都是22纳米,要不就是全部都是14纳米,或者是10 纳米、7 纳米制程。 但是,如此将造成研发成本因为制程的升级而大幅攀升,不利于产品价格的维持。这也使得摩尔定律的经济效益难以维持。但是英特尔新推出的EMIB嵌入式多芯片互连技术,将可解决这个问题。
简单来说,EMIB技术可以将不同制程工艺的组件组合在一起,来达成更高的性价比的目的。 例如在处理器中,电路部分用不到那么先进制程,那就依旧采用 22 纳米制程生产即可,而承担核心任务的芯片部分,由于需要较高的效能与较低的耗电量,则可使用14纳米或者10纳米制程来制造。
“我们又把这种支持多种不同制程节点组件封装在一起的技术称作MIX & MATCH (混搭)。这种结合跟SOC不一样。SoC是把不同的IP、不同的模块放到同一个芯片上,用同一个制程来实现,做成一个芯片。但是混搭则是把不同制程下的芯片放到一起,将它封装集成起来。这里面的要求其实是蛮高的,它要求有很好的连接技术、功耗管理技术。我们现在有多种不同的技术在去使用。也就是说,我们在集成封装的时候,不是说单一一种技术,而是这么多种技术在同时去使用。”
那么这种“混搭”的异构芯片能够带来什么好处呢?
宋继强表示:“首先,它解决了带宽、功耗和频率的问题。在一个芯片里面内部,它的连线是可以做芯片的布局设计的时候就布线上去的,那个性能很高,速度也非常快。但是一旦跨越了芯片边界的时候,就要用外围的接口,也就是说芯片出来的管角来连接。如果没有通过EMIB技术封装到同一个芯片的时候,需要通过类似于像PCIE这些接口连接的话,那么它的速度一下就会降下来。在芯片的内部可能是按照几百G的速度传输数据,一旦离开了这个芯片,这个速度能到G就不错了,可能还变成几百M这种层面。所以我们首先把它放到一个芯片里面,并设计了高速互联的连接方式,让它保持带宽很高,频率很高。”
“其次,这个工艺技术虽然很好,但是还得好生产,还得能够去验证,用到的材料也不能特别贵,所以这都是实际上最后做大批量产必须要解决的。而且功耗还要控制好,还要耐用,所以要解决这么多问题,就要去考虑选择用什么样的基底,用什么材料实现互联,才能保证这件事情做好。”
据介绍,使用EMIB 技术并不会造成整体芯片的性能下降,反而能够提升各部分之间的传输效率。其速度可以达到数百Gigabytes,较传统多芯片技术来说,延迟更是降低了四倍之多。
另外正如前面所提到的,对于AI的下一步发展,并不是单一一种芯片能够搞定的。所以需要根据不同的应用场景来选择多种处理器组合。而英特尔拥有CPU、GPU、FPGA、ASIC等非常全面的从云端到终端的全栈式AI解决方案。此外英特尔还有神经拟态芯片Loihi,这种芯片可以支持自学习,里边可以放多种不同的神经网络,同时去找它们之间的关联。
据英特尔介绍,在今年新的10nm的Loihi测试芯片出来以后,发现其确实受摩尔定律的加速很大,吞吐量提高了4倍,能耗比提高了6倍。因为Loihi是非冯德诺依曼个架构,所以它直接受益于摩尔定律,这也意味着可以把更多的神经元放到这个芯片里,而且耗电更少。
“这么多种不同的芯片,他们都是可以做组合的。我们在面对一个新的应用产品形态需求的时候,不需要再重新设计一款SoC了,因为重新设计一款SoC就算你再快,重新把IP放到一起去做验证,去做layout,也要6-9个月。而有了我们的混搭技术,我们就能把已经有的芯片进行组合,或者再配合上我们伙伴公司的芯片,通过混搭放在一起进行封装,把他们有效的、最经济合理、快速的组合在一个芯片里。同时保证它们之间的数据的传输率,功耗的管理,都非常高效。所以用这种技术,我们实际上可以用移动芯片功耗要求,去达到以前PC芯片那样的性能。这是一个非常大的核心技术。”宋继强非常兴奋的说到。
作者:芯智讯-浪客剑
【芯智讯】赋能AI·用芯感知——2018生物识别技术与应用高峰论坛开启报名!
直接扫描下方二维码或点击“阅读原文”报名
行业交流、合作请加微信:xintiyan001
投稿请发至:yj@padnews.cn
芯智讯官方交流:221807116