查看原文
其他

芯片大厂买买买,根本停不下来

杨阳 吹IP
2024-08-26

今天我们不谈专利,谈一谈芯片大厂们的消费故事。

2月8日,软银和NVIDIA正式发表声明收购Arm的交易终止。至此,NVIDIA加入购物车已久的价值660亿美元的Arm“提交订单”失败,“核弹之父”老黄黄仁勋通过付给软银孙正义一笔百亿级人民币的分手费购买了Arm的20年授权许可。

2022年一开年,虽然双11还没到,芯片大厂们貌似已经提前开启了“剁手”模式。虽然第一单就宣告失败令人“遗憾”,但抵不住大家买买买的热情,抢购仍在继续。

2月14日,Intel宣布即将达成一项协议,以接近60亿美元的价格收购以色列芯片企业高塔半导体公司(Tower Semiconductor)。

紧接着第二天(2月15日),另一家芯片巨头美国半导体厂商AMD宣布,以全股票交易方式完成对赛灵思公司(Xilinx)的收购,交易价值为498亿美元(约合3165亿元人民币)。那个喊出“AMD Yes!”的苏妈苏姿丰这次又扳回了一局。

通过上述交易标的可以看出,芯片大厂们在芯片厂商收购这件事情上毫不含糊。那为什么这些大厂大费周章,即使冒着收购失败付分手费的风险也要积极发起收购呢?

拿NVIDIA和AMD举例来解释说明:

作为全球图形处理芯片的领导者,NVIDIA的GPU广泛应用在包括高性能计算、图形处理、物联网、云计算等诸多领域。但是相比较另外两家巨头牙膏厂(Intel)以及A厂(AMD),N厂(NVIDIA)最大的短板就是缺少高性能CPU。在如今AI运算当道的计算市场,CPU的灵活性和高适应性使得GPU和CPU的融合成为了必然趋势。向来在这一领域缺位的N厂对CPU厂商觊觎已久,奈何天不遂人愿,这次天价交易仍以失败告终。

而AMD之所以一掷“千吨金”去收购赛灵思,也是有自己强烈的版图诉求。与CPU、GPU相比,FPGA的市场规模虽不大,但却是5G通信、数据中心等关键产业非常重要的技术。AMD收购赛灵思最大的目的就是增强数据中心技术的实力,这与英伟达在2020年以70亿美元收购Mellanox的目的倒是较为相近。收购完成后,AMD成为继Intel后又一家兼具CPU、GPU、FPGA三大产品线的半导体厂商。

回到最根本的问题上,各家收购的核心目的就是秉承“造不如买”的发展和扩张策略,通过直接收购行业内头部或准头部来快速补齐短板,拥抱AI计算的大趋势。那AI计算中近些年出现的“AI芯片”,到底是什么概念,又该如何去定义和分类呢?

AI芯片发展历程

视线转回2006年,深度学习三巨头之一的Hinton发表了一篇深度学习的开山论文,重燃了人们对神经网络的兴趣。至此,人工智能得到了快速发展和广泛应用,万物皆可AI、“人人都是炼丹师”等概念的兴起更是引爆了AI计算的大潮。而支撑AI发展的核心资源就是AI计算资源。相比于传统计算任务,AI计算对于运算量的需求有了指数级的增长,同时各类AI应用场景的出现和更迭,也加深了AI计算任务的复杂度,导致了各类AI计算芯片和芯片厂商持续涌现。

神经网络计算示意

那什么是AI芯片呢?广义上讲,只要能够运行人工智能算法的芯片都叫作AI芯片。但是通常意义上的AI芯片,指的是针对AI算法做了特殊加速设计的芯片,当前阶段的AI算法一般以深度学习算法为主,也可以包括其它机器学习算法,大部分计算资源分配在矩阵运算上。以“深度学习”为代表的神经网络算法,需要系统能够高效处理大量非结构化数据。计算任务具有:单位计算任务简单,逻辑控制难度要求低,但并行运算量大、参数多的特点。对于芯片的多核并行运算、片上存储、带宽、低延时的访存等提出了较高的需求。

AI芯片代表厂商/品牌

随着AI计算的需求爆炸性增长,以英伟达为首的GPU厂商开始不断探索GPU在高性能计算方面的应用与突破,而以Google、Intel以及国内厂商寒武纪为代表的芯片生产商开始研发专用于高算力运算的芯片,则寻求另一种方法进行技术突破。目前用于深度学习最广泛的芯片当属擅长并行计算的GPU,而随着深度学习对算力要求的不断提升,各家公司开始研发生产专用于深度学习、DNN的运算芯片或基于FPGA架构的半定制芯片,代表产品有Google研发的张量计算处理器TPU、寒武纪研发的神经网络计算处理器NPU以及Intel此前收购的Altera 的Stratix V FPGA等产品。

而之所以AI芯片分成上述四个大类,原因在于不同类型的芯片的设计理念和起初面向的应用场景不同,导致不同类型的计算架构分配上也各有侧重。举个可能并不太恰当的例子:

CPU就像金庸里习尽天下绝学的武学奇才(通用计算),即使功底扎实没有明显短板,但在拥有深不可测内力的虚竹或者九阳神功护体的张无忌这类BUG型GPU选手面前,要硬碰硬纯拼内力(算术逻辑运算ALU),那自然也要败下阵来。

不同类型芯片架构对比图

不同架构芯片性能对比图

以上两张图是对于不同类型芯片架构的对比,以及不同架构的芯片之间的性能对比梳理。

从上图可以看出:

CPU 通用芯片,主要生产厂家如Intel、AMD等,用于PC、服务器等领域。CPU作为通用芯片,可以用来做很多事情,灵活性最高,而性能、功耗效率比较低;

GPU 通用性强、速度快、效率高,特别适合用在深度学习训练方面,但是性能功耗比较低;

FPGA 具有低能耗、高性能以及可编程等特性,其设计初衷就是为了实现半定制芯片的功能,即硬件结构可根据需要实时配置灵活改变。相对于CPU与GPU有明显的性能或者能耗优势,可同时进行数据并行和任务并行计算,在处理特定应用时有更加明显的效率提升;

ASIC 为某一种单一用途专门制作的电路,ASIC芯片的计算能力和计算效率都是直接根据特定算法的需要进行定制的,具备超高的性能、超高能效,可以更有针对性地进行硬件层次的优化,从而获得更好的性能、功耗比,不过灵活性低,属于专用芯片。


除了性能上的考量,AI芯片另一大设计考量因素就是工艺实现:

例如ASIC芯片的设计和制造需要大量的资金、较长的研发周期和工程周期,而且深度学习算法仍在快速发展,若深度学习算法发生大的变化,FPGA芯片自身的可编程性能够使其很快改变架构,适应最新的变化,相比而言ASIC类芯片一旦定制则难于进行修改。

AI芯片发展趋势预测

通过上述的介绍和对比可以看出,不同类型的AI芯片都各有所长。而AI芯片的发展趋势自然离不开计算场景的迭代和拓展。

基于对AI芯片的粗浅认知,梳理几大趋势:

“云+端”融合芯片。现阶段云计算和边缘计算都很火热,计算任务的复杂度和实时性分布需要高端和低端芯片同时参与,而接下来的一大趋势就是端云协同融合,也自然对AI芯片的架构和灵活性提出了新的需求。在这一领域,国内厂商如华为海思、国外Google等都已经采取了行动。

软件定义芯片。人工智能带来的神经网络模型越来越复杂,计算应用场景的拓展也更为多元,软件定义芯片的概念逐渐浮出水面。硬件要能够动态地按照软件实时地改变架构,通过让软件实现智能化的功能,来赋能硬件实现智能化。软件的深度参与,使得传统的硬件架构为单一主导的局面将被打破和重构。

存算一体架构芯片。自计算机诞生以来一直遵循冯·诺依曼架构设计,运行时数据需要在处理器和内存之间来回传输。而随着时代发展,这一工作模式面临较大挑战:因为在高并发计算场景中,数据来回传输会产生巨大的功耗;但目前内存系统的性能提升速度大幅落后于处理器的性能提升速度,有限的内存带宽无法保证数据高速传输。在此背景下,存算一体成为解决计算机性能瓶颈的关键技术。存算一体芯片通过将数据存储单元和计算单元融合,可大幅减少数据搬运,从而极大地提高计算并行度和能效。

AI芯片行业正在迎来变局,谁能率先抢占新的技术路线,推出适用于未来计算场景的产品,谁就能够在这一轮芯片军备竞赛中处于领先。

引用作家William Gibson的一句名言:The future is already here, it's just not evenly distributed.

今天我们没谈专利,只谈了芯片大厂们的消费故事。不过,今天虽未谈专利,但“明天”可以。

毕竟未来已经来临,只是尚未流行。在这一轮技术变革的浪潮中,尤其是以IP为王的芯片行业,如何在抢占技术先机的同时,用知识产权构建核心竞争壁垒,做好布局规划;同时在产品研发设计之初就考虑到知识产权的风险,引入合理的风险管理体系,防止后续遭受他人专利的掣肘,是一系列复杂且必要的命题。例如在ASIC芯片领域势头正劲的中国企业,如何在研发及专利布局过程中构建小而美的技术护城河,也避免被传统大厂盯上专利侵权,有许许多多可以思考的空间。笔者在此前的工作中,也经历和见证了一些有趣和值得说道的例子。希望在以后的文章中,有机会和各位一起分享探讨AI芯片行业的IP故事。

图片来源丨网络(侵删)
作者简介:杨阳,集慧智佳信息技术事业部双证咨询师,热爱音乐与美剧,紧跟科技互联网与知识产权最新动态。






RECOMMEND
推荐阅读

可深了丨申请人必备小知识:专利不保护的客体


宝宝发烧用的可穿戴式体温记录贴,靠谱吗?


网抑云vs腾讯音乐侵权纠纷,核心专利或被自身产品公开?


郭吧丨掰开揉碎说《民法典》知识产权:著作权与邻接权




 用知识产权的眼光

看世界

 

欢迎原创投稿,稿件一经采用,支付稿费

投稿邮箱:iptree@iptalent.com


看都看了,点个“在看”再走鸭

继续滑动看下一个
吹IP
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存