查看原文
其他

矿机芯片的今天,AI芯片的明天?

歪睿老哥 歪睿老哥 2022-01-16


随着美元大放水时代的到来,近几天,比特币已经悄然站上了6万美元大关;从2009年诞生以来,比特币的价格上涨了2000多万倍;

 

从“郁金香泡沫”到区块链先锋,一万人心中有一万种“比特币”;但是对于矿机芯片来说,只有一种宿命,那就是用更少的电费,达到更多的算力,才能挖出更多的比特币,成为一门“点石成金”的好生意;

 

经历了2019年的低潮期,目前处于6万美元的比特币,召唤着全球的矿工和矿场都在积极的扩大算力,对于矿机芯片来说,则是水涨船高,出货大增;


曾经决战丰水期壮烈,追逐低价电的无奈,都烟消云散,目前比特币高价位徘徊,矿场,矿工,挖矿芯片厂家都可以获得较可观的收益;真可谓是守得云开见月明,


一:21世纪的结绳记事

 

比特币可以看作21世纪的部落的结绳记事,这不过这个“绳结”是通过SHA256暴力计算(SHA256的逆向运算)得到的;这个绳结(第N个)输入和上一个绳结(第N-1个)输出有关系;部落的任何一个人都可以从第1个绳结推导到第N个绳结,验证这个结绳记事的合法性(通过SHA256的正向运算);

 

这个“绳结”叫做区块;


而这条带着绳结的绳子,就是区块链


所有部落里面的人都认可这个事情的合法性(通过SHA256运算保证部落里没有人能作弊),这个就是部落的“区块链共识”;


根据谁能最快的找出下一个绳结(区块),给出力找到下一个各区块的人分配贝壳(比特币),这个就是POW(工作量证明);

 

建立在POW(工作量证明)的比特币,是矿机芯片存在的基础;工作量证明:宏观来说,就是通过矿工提供算力获得报酬比特币;而微观来说,就是通过矿机暴力计算SHA256哈希运算,从而看谁最快找到一个符合要求的哈希运算结果,然后加入区块;

 

SHA256的哈希算法,是一种把512bit 输入通过计算转换成256bit的单向函数;这个算法的完备性在于,只能知道输入计算输出,而不能通过输出返回来达到输入;(单向函数就类似鲁滨逊站在一个山洞出口,但是不能倒回去找到出口,只能通过尝试每一个入口都走一遍,来查找那个入口对应山洞出口);就类似于可以通过一本书来写一个摘要,而不能通过一个摘要逆向写完一本书;那现在比特币的工作量证明,就是给你一个结果,找到谁可以计算得到这个结果;

 

由于SHA256是一个单向函数,那么破解之道,就是挨个来试,如何能够最快找到下一个绳结,那就看比特币芯片的计算的速度;

 

block_header= version + previous_block_hash + merkle_root + time + target_bits + nonce

 

for i in  range(0, 2^32):

    if (sha256(sha256(block_header)) < target_bits):

        break

    else:

       continue

 

如上述算法描述所示:比特币芯片就计算两次SHA256 ,看目标结果是不是符合要求;

 

比特币的“救赎之道,就在其中”,没有取巧的手段,只有努力的尝试;这个和中国芯片的救赎之道非常相似,只有努力尝试所有的手段,没有投机取巧的方法;

 

 

二:点石成金的芯片

 

比特币挖矿,经历了4个阶段;


1:CPU挖矿阶段: 比特币最开始阶段,程序运行在普通PC机或者服务器阶段,很快就被淘汰了;


2:FPGA挖矿阶段:这个就是ASIC矿机的前身,但是切入简单,成本较低;


3:GPU挖矿阶段:曾经一度GPU卡,价格猛涨,现在GPU已经没有办法来挖比特币了,与ASIC比完全没有优势,但是可以用于挖以太坊以及其他的一些虚拟币;GPU是整个区块链领域的另一个赚的盆满钵满的芯片领域,主要是NVIDIA;


4:ASIC挖矿阶段;这个是目前比特币挖矿的主流方式;前比特币矿机ASIC阶段,这个是因为其他的方式,电费已经赶不上挖出来的币值了;每一个阶段,都是对上一个阶段算力的巨大提升,随着比特币的减半的,必然需要算力加倍,导致原有架构挖矿,电费也不能赚回来;

 

中国矿机ASIC芯片垄断了比特币芯片的生意,这个与其他芯片行业全然不同;中国人第一次占领了一个细分市场;这个领域的大玩家是:比特大陆,嘉楠云智,比特微等等,中国芯片第一次成为了比特币这个领域硬通货;是中国芯片扬眉吐气;

 

曾经,比特大陆一家就是整个台积电整个北方区最大的客户,矿机芯片和5G一样,给芯片制造厂家(台积电或者三星)带来很大的量;能够成为芯片行业的大玩家,在WAFER,封装制造,产能等方面拿到了很大的话语权;

 

经常网上有人炒作芯片全自研,但是一个芯片,从CPU,总线,模拟IP(serdes,PLL,sensor),接口IP(PCIE,mipi等等),辅助计算IP等等总要有需要外购的吧,不论这些IP从何而来,选择国内供应商还是国外供应商,所有都自己研发,这个不是芯片的研发之道;

 

但是想到比特币芯片,这个肯定符合全自研的要求;

 

比特币芯片就是一种可以全自研的芯片,完全用不到上述任何的外购的IP;是一种计算密集型,接口简单型的芯片;接口一般是普通SPI就可以了;

 

因此目前矿机芯片的核心技术在于两大方向

 

1:全定制:SHA256的计算是全定制模式,所谓全定制,不是通过硬件描述语言,综合得到电路,而是直接通过与非门来人工来定制SHA256计算的宏模块,然后把这些宏模块在同一个芯片内部复制几万甚至几十万份,从而达到高速的处理能力;

 

2:低电压技术:由于比特币芯片需要时时刻刻都在工作,所以关闭时钟(clock gating)和部分关电(power domain)都没有用,而低电压,就是比特币芯片的的核心技术之一;芯片动态功耗运行频率(F)和电源电压的平方(VCC^2);频率是不可能降低的,降低了就挖币慢了;所以低电压是比特币芯片核心技术;

 

三:殊途同归

 

中国公司在比特币芯片能够得在世界上拔得头筹,有几个原因:

 

1:新赛道:比特币芯片都属于芯片的新赛道,所有的玩家都是在同一起跑线上出发;所以国外的芯片厂商也没有太多的积累,就不会有领跑者的优势;

 

2:计算密集型:比特币芯片是计算密集型,对于IP的需求较小,要是开始比特币开始类似以太坊,这种需要对存储需求要求比较多(目前以太坊,主流还是GPU得挖矿,而不是ASIC得挖矿);可能比特币芯片就不是开始一两个人就具有类似的设计能力;当然以太坊就是为了对抗ASIC矿机的来设计的算法,以后ASIC化也是有可能的,只要有利可图;

 

通过这两个条件类比,就会发现,有个领域也符合这个要求,这个就是AI芯片;


我们可以简单把芯片行业来分类;并跑型和追赶型;

 

1:并跑型这个就是技术的更新换代,或者新业态的发展出现的新的芯片形态,这种形态下,中国芯片公司和国外芯片公司处于同一起跑线,并不依赖原始的积累,这种情况下,中国芯片公司目前可以和国外(主要是美国)处于同一技术能力层级,甚至还能有超过,比如比特币芯片,另一个例子就是AI,中国公司和研究也不逊于世界领先水平,各有千秋;只是在GPU这个路上,受制于NVIDIA,而GPGPU我国本身就是追赶型;

 

2:追赶型:这个就是旧有的业态,以CPU为例;INTEL和AMD在通用处理器市场耕耘几十年,打败了一干公司,成为了今天的霸业;所以追赶型行业,就需要付出更多的精力来补课;同理,例如在芯片制造代工等领域,模拟集成电路领域也是如此,需要补课,还要追赶,非常辛苦;

 

3:混合型:例如RISCV,就是并跑型和追赶型并存,虽然CPU技术我们是追赶型,但是RISCV的提出,则是一种新的业态,则是并跑型,大家基于RISCV设计不同的CPU,各有千秋;同理,还有5G,NVME的SSD控制器等等,这些领域处于变革之中,旧有的经验有作用,但不是主要的,主要的是新的技术形态带了新的机遇;

 

如果把这几条结合来看,AI芯片符合并跑型的分类,同时,也是计算密集型的数字电路,这种对于算法要求较高,而对模拟IP的经验积累需求很少;是中国芯片设计突破的一个很大的机会,目前市场上很多的国内AI芯片公司也印证了这些判断;

 

同样通过矿机芯片发展而来的比特大陆,嘉楠云智都切入了AI芯片领域,推出了相应的AI芯片产品;这两家“英雄所见略同”就是对目前的技术发展的判断以及技术路线的选择,不应是纯粹的赶AI的潮流

 

但是AI目前进展有两个问题是矿机芯片所没有的;


1:可编程的需求;矿机芯片是ASIC,没有内部固件以及升级的需求,而AI芯片目前可编程方面还是有相当大的需求;


2:软件等SDK的需求;矿机芯片需要配合上面矿机软件,交互非常简单;而AI芯片和SDK之间的交互比矿机芯片要复杂的多,其软硬界限的切割考验对系统架构的了解;

 

未来的AI算法的进化,是否在未来就能够形成一定的固化,举例来说目前推理方面更容易专用化(TPU模式),而训练方面可编程需求更强(GPGPU模式);可能具体到某些领域的AI处理方面,专用化(TPU模式)是变成一种潮流,那么同样这些就可以体现中国AI芯片公司的优势,避开GPGPU的一些优势;

 

中国公司在并跑型新技术赛道发展中,避开国外芯片大厂积累,依靠对技术的理解,快速的迭代,从而构建自己的技术优势,成长为世界的一极,矿机芯片已经证明是一条可行的模式;


从挖矿芯片来到AI芯片,能否延续这个模式?


这个涉及到AI的算法是需要可更灵活编程化(GPGPU模式),还是更加收敛更加专用化(TPU模式),是这个模式延续的一个关键点;但是从技术的普遍角度来看,随着人们对事物认知的加深,规律的掌握,从可编程(GPU模式)到逐渐固化(TPU模式)是技发展的趋势,相信AI芯片也不例外,或者保守说,至少某些领域的AI芯片也不例外;


毕竟DSA(领域定制架构)的流行说明,对于特定领域,DSA(领域定制架构)面积更小,效率更高,性能更强,功耗更优这个是像比特币矿机芯片ASIC打败GPU的道理一样,这个也是在某些AI领域打败GPU的机会;




往期阅读:

云端芯片之战-小乌云还是大风暴

芯片过热?一场芯片供应链的饱和式救援。

“为了这点醋,包了一顿饺子”-AI芯片的落地之道

降低芯片流片失败风险的"七种武器"

芯片设计公司修炼的“四层境界”

中国芯片产业什么时候能够超过美国?

中国2000多家芯片设计公司是从哪儿来的?

百度成立芯片公司的底气从何而来?

为“宅男”定制的超大芯片是什么样的?

RV64X:开源GPU来了,这次靠谱吗?

CPU的《长安十二时辰》是如何运行的?


欢迎关注




您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存