其他
重磅发布!2020全球量子计算机产业发展报告
2020全球量子计算机产业发展报告(全文4.2万字)
前言
目录
一、主要技术路线介绍及进展1、超导2、半导体量子点3、离子阱4、光学5、量子拓扑6、量子退火二、国外量子计算企业状况1、IBM2、谷歌3、D-Wave System4、Rigetti Computing5、IonQ6、霍尼韦尔7、微软8、英特尔9、亚马逊10、Slicon Quantum Computing三、中国量子计算主要玩家1、本源量子2、华为3、阿里巴巴达摩院量子实验室4、百度量子平台5、腾讯量子实验室6、国盾量子7、启科量子8、昆峰量子9、量旋科技四、核心设备及元器件1、超导量子处理器芯片2、大规模超导量子芯片制备产线3、大功率极低温制冷机五、 系统软件与语言算法1、量子算法2、量子编程语言3、量子计算开发工具4、量子云平台六、量子计算应用领域及进展1、人工智能2、生物医药(分子模拟)3、化工工业4、金融领域5、航空航天、交通七、产业链图谱及市场预测1、产业链图谱2、市场规模预测
一、主要技术路线及进展
量子计算包含处理器、编码和软件算法等关键技术,近年来发展加速,但仍面临量子比特数量少、相干时间短、出错率高等诸多挑战。目前,量子计算整体上仍然处于基础理论研究和原型产品研发验证阶段,多项关键技术仍有待突破。全球各主要研究机构和公司纷纷选用了不同的技术路线来进行量子计算的研究,并且这些技术都可以用来创造基本的信息单位,即量子比特或量子位。 目前主流的技术路线有超导、半导、离子阱、光学以及量子拓扑这五个方向。每种路线各有优劣势,尚无任何一种路线能够完全满足实用化要求并趋向技术收敛。目前,前四种路径均已制作出物理原型机,但量子拓扑这一微软重注的方向尚无物理层面的实现。1、超导
超导量子计算被普遍认为是最有可能率先实现实用化量子计算的方案之一,因而备受关注。量子比特不同于非“0”即“1”的经典比特,而是可以处于“0”态和“1”态之间的所谓“量子相干叠加态”。当人们把量子叠加拓展到多量子比特体系,就自然导致了量子纠缠的概念。量子纠缠,是一种描述当几个粒子在彼此相互作用后,由于各个粒子所拥有的特性已经综合成为整体性质,而无法单独描述各个粒子的性质,只能描述整体系统性质的现象。多个量子比特一旦实现了相干叠加,其代表的状态空间将会随着量子比特的数目呈指数增加。这也被认为是量子计算能够有指数加速能力的根源所在。目前,超导量子计算的核心目标正是如何同步地增加所集成的量子比特数目以及提升超导量子比特性能,从而能够高精度相干操控更多的量子比特,实现对特定问题处理速度上的指数加速,并最终应用于实际问题中。超导量子计算的原理是无电阻电流沿回路来回震荡,注入的微波信号使电流兴奋,让它进入叠加态。 势头正盛的超导体系备受谷歌、IBM、英特尔等科技巨头的青睐,除此之外,还有Quantum circuits、Rigetti和国内的本源量子、北京量子院等公司和机构使用此技术路线来对量子计算进行研究。2016年12月,中科大潘建伟团队首次实现了10个光子比特和10个超导量子比特的纠缠。2017年11月,IBM首次构建了50量子比特的处理器。2018年3月,谷歌量子人工智能实验室发布的Bristlecone量子芯片,可实现72个量子比特长度上的单比特门操纵,单量子比特门最佳保真度达到了99.9%。2018年8月,Rigetti Computing宣布在开发一个128量子比特量子计算系统。2019年1月,清华大学首次利用单量子比特实现了精度为98.8%的量子生成对抗网络,未来可应用于图像生成等领域。2019年4月,中科大潘建伟团队首次实现了12个超导比特的纠缠。2019年8月,中科大实现24量子比特处理器,并进行多体量子系统模拟。2020年9月12日,本源量子公司上线了中国首个接入实体量子计算机的量子计算云平台,虽然相比于IBM目前在云平台上提供的高达50个量子比特的系统,6个量子比特只是其在2017年的最初水平,但这意味着踏出了中国量子计算应用的第一步。2、半导体量子点
量子点(quantum dot)是在把激子在三个空间方向上束缚住的半导体纳米结构。它是一种重要的低维半导体材料,其三个维度上的尺寸都不大于其对应的半导体材料的激子玻尔半径的两倍。硅量子点,是量子点实例中的一部分。通过向纯硅中加入电子,科学家们造出了硅量子点这种人造原子,运用微波控制电子的量子态。硅的优势在于,可以利用传统的微电子工业几十年来积累的大规模集成电路制造经验。除此之外,硅量子比特比超导量子比特更加稳定,但量子纠缠数量较少,需要保持低温。英特尔量子计算的硬件研发团队负责人吉姆·克拉克(Jim Clarke)表示,用硅制造量子比特更容易达到要求的量子比特数目。 2017年开始,英特尔先后推出17量子比特和49量子比特的超导芯片,随后在2018年2月展示了一个2量子比特自旋量子计算机,它可以实现执行两个简单的量子算法的编程。英特尔还在其300毫米制程技术上发明了自旋量子比特制造流程,能和英特尔先进的晶体管技术一样,在同一个设施中制造。2019年5月,新南威尔士大学实现了保真度为98%的双比特逻辑门。本源量子成功研制半导体2比特量子处理器玄微。2020年,新南威尔士大学的量子计算研究人员在一篇论文中描述了他们如何在一个硅量子点中创造人工原子,Andrew Dzurak教授说:“我们最新的研究发现,拥有更多电子的人造原子,其量子比特的强度比之前认为的要大得多,这就意味着它们可以可靠地用于量子计算机的计算工作。这对我们来说很重要,毕竟仅基于一个电子的量子比特可能非常不可靠。”同年,新南威尔士大学研究人员在最新一期《先进材料》杂志上指出,他们研制出了迄今最安静,及噪音最低的半导体量子比特,为进一步研制出大规模纠错量子计算机奠定了基础。3、离子阱
离子阱,又称离子陷阱,其技术原理是利用电荷与电磁场间的交互作用力牵制带电粒子体运动,并利用受限离子的基态和激发态组成的两个能级作为量子比特,是一种将离子通过电磁场限定在有限空间内的设备。它并不是一个很新颖的装置,早在50年代末,离子阱就被应用于改进光谱测量的精确度。在应用于量子计算机中时,离子阱量子计算机相比于超导量子计算机最大的优势就是全连接性。由于使用了完全相同的、完全连接的量子位,再与精确控制相结合,所以离子阱量子计算机拥有了高质量的量子位和最低的错误率。但是离子阱难以扩展,一个离子阱里面一百多个量子比特已经是目前的技术上限,若要扩展成多个连接在一起的阱,则需要更多的技术投入,并且在可操控性上也很弱,而且与经典计算很难实现兼容。与超导技术路线相比,离子阱更学院派。 学界对离子阱路线的基础路线研究很多,但是近几年才开始有公司大规模开展离子阱量子计算机的研发,这其中包括美国的霍尼韦尔和IonQ、英国的UQ(Universal Quantum)以及中国的启科量子等。2018年12月,IonQ实现79位处理量子比特和160位存储量子比特。作为工业巨头的霍尼韦尔,在2018年宣布进军量子计算领域,采用离子阱技术实现量子计算,并于2020年6月推出了64量子体积的量子计算机。8月,美国杜克大学和马里兰大学的研究者设计出了在低温下运行的全连接的32比特离子阱量子计算机寄存器,相比霍尼韦尔6比特全连接提高了5倍,是目前公开最多量子比特全连接的技术架构。10月,霍尼韦尔将量子体积提升为128,但IonQ宣布在32量子比特离子阱量子计算机上实现预期超过400万量子体积。UQ在2020年获得了450万美元的超额种子轮融资,被投资机构评价为“UQ是全球唯一能够将量子计算的效率提高到指数级的公司”。同年,北京启科量子在中国光博会上透露“天算1号”离子阱可扩展分布式量子计算机项目,第一阶段技术指标可达到100个可操控量子比特以上,且预计在2-3年内完成。4、光学
光量子,简称光子(photon),是传递电磁相互作用的基本粒子,是一种规范玻色子,在1905年由爱因斯坦提出,1926年由美国物理化学家吉尔伯特·路易斯正式命名。光量子计算是量子计算中的一种,其原理是使用光子进行“多粒子纠缠的操纵”。大多数实验中,量子比特都是利用被困在振荡磁场、超导电路中的离子,或者在晶体结构中存在的缺陷来进行研究。但是,所有这些技术都很难维护量子比特的叠加性质。而因为光子不易与环境相互作用,所以它们反而很擅长维持叠加。但同时,由于同样的原因,它们很难被控制。因此,找到使光子相互作用的一种有效方法可以打开经典光学和量子计算的新前景,加速一些计算类型。近年来,物理学家们利用稀有元素的原子冷却到非常低的温度,使光子之间相互作用成为可能。另外,利用光子实现玻色取样和超导量子比特,都是目前国际学术界公认的演示量子计算优越性的两大途径。2017年5月,中科大潘建伟和陆朝阳等人宣布造出了世界上第一台超越早期电子计算机的光量子计算机。2018年5月,上海交通大学物理与天文学院金贤敏团队发表了节点数达49×49的光量子芯片的研究成果。2018年7月中科大首次实现18位光量子纠缠操控。2019年12月,中科大在国际上首次实现了20光子输入60×60模式干涉线路的玻色取样量子计算,输出了复杂度相当于48个量子比特的希尔伯特态空间,其维数高达370万亿。这个工作同时在光子数、模式数、计算复杂度和态空间4个关键指标上都大幅超越之前的国际纪录。其中,态空间维数比国际同行之前的光量子计算实验高百亿倍。
5、量子拓扑
在超导等架构下,量子比特的数量一多,错误率就会急剧上升。错误就来自局域噪音(Local Noise)。要知道,在微观世界,哪怕极其微小的电磁场都会对粒子构成干扰,产生所谓的局域噪音。而拓扑量子比特就不同,它是通过基本粒子的拓扑位置和拓扑运动来处理信息的。就像远古时代人类结绳记事,利用不同的节点绳子编织的(拓扑)结构的不同代表不同的信息,无论如何晃动绳子(微扰),信息的存储都是稳定的。在量子计算中,只需要找到一种特殊的粒子,让这几个粒子在时间空间上进行交换,它们的轨迹就相当于在绳子上打不同的结,从而代表着不同的信息。信息的存储只依赖于交换顺序而不依赖于交换的具体路径,所以拓扑量子计算对局部的微扰是免疫的。2005年,在微软首席研究战略官Craig Mundie的支持下,拓扑数学家Michael Freedman在加州圣芭芭拉建立了一个实验室——StationQ,并开始招募全球最杰出的凝聚态物质和理论物理学家、材料学家、数学家和计算机科学家,一起构建拓扑量子比特。拓扑量子比特的构建需要马约拉纳费米子,它的反粒子就是自己本身,状态非常稳定,2018年,代尔夫特理工大学的Leo Kouwenhoven团队在Nature发文,给出了马约拉纳费米子存在的强有力证据。微软量子计算软件部门负责人Krysta Svore表示,他们可以在2023年之前制造第一台拥有100个拓扑量子比特的量子计算机,这个具有100个拓扑量子比特的拓扑量子计算机的运算能力,最高可以相当于1000个逻辑量子比特的量子计算机。
6、量子退火
目前量子计算机可分为量子逻辑门计算机和量子退火计算机,前述五大主要技术路线都是构建量子逻辑门计算机提出的,基于量子逻辑门的量子计算机就是所谓的通用量子计算机。量子退火机则不需要量子逻辑门,而是通过伊辛模型(Ising model)来寻找最优解,这是一种专用量子计算机,在处理最优化问题上有独特优势。除了不采用逻辑门,通用量子计算机和量子退火计算机的最大区别是量子比特的连接方式,通用量子计算机追求的是所有量子比特相互连接(如霍尼韦尔的H0实现了6量子比特的全连接),量子退火机只能实现部分量子比特之间的连接,比如D-Wave Advantage拥有5000量子比特,但每个比特只与另外15个比特相连,这种连接方式称为Chimera graph。二、国外量子计算企业情况
1、IBM 自1981年开始,IBM已在量子信息处理领域深耕30余年。早在1999年,IBM就采用NMR量子比特技术开发出3位量子计算机。2001年,IBM分别在5位NMR量子计算机、7位NMR量子计算机上成功运行了Shor量子算法。 2015年4月,IBM的科学家实现了建造第一台实用量子计算机的关键步骤。他们首次展示了同时发现和测量两种量子误差的能力,并展示了一种新的方形量子比特电路设计,表示这是唯一能够成功扩展到更大尺寸的物理结构。2016年5月,IBM有史以来第一次向公众提供量子计算,名为IBM Q Experience的云计算平台将允许用户在IBM的量子处理器上运行算法和实验。该量子处理器由5个超导量子比特组成,位于纽约的IBM沃森研究中心。 2017年3月,IBM Q Experience发布了一个新的API(应用程序程序接口),使开发人员和程序员能够在基于5个量子比特的量子计算机与经典计算机之间建立接口,而无需具备量子物理的深厚背景。在IBM Q Experience上发布的升级版模拟器,可以用高达20个量子比特的电路建模。发布了IBM Q Experience的完整SDK(软件开发工具包),供用户构建简单的量子应用程序和软件程序。 IBM Q系统和服务通过IBM云平台交付,将制造商业化的通用量子计算系统。目标是在未来几年内构建约50个量子比特的商业IBM Q系统。 IBM提出量子体积(Quantum Volume)概念,一个衡量量子计算机性能的专用指标,其影响因素包括量子比特数、测量误差、设备交叉通信及设备连接、电路软件编译效率等。 2017年5月,IBM和雷神BBN的科学家们展示了量子计算机比经典计算机更具优势的首批被证明的例子之一。通过探测一个包含未知比特串的黑匣子,他们发现仅仅几个超导量子比特就能比现在的计算机更快、更有效地发现隐藏的串。 2017年5月,IBM宣布成功制造并测试了其最强大的通用量子计算处理器。IBM开发的两种新处理器包括:一个16比特的处理器,可以进行更复杂的实验;IBM的第一个商用处理器原型,拥有17个量子比特。
2017年9月,IBM开发出一种在量子计算机上模拟分子的新方法,有朝一日可能有助于化学和材料科学的革命。成功地使用了一个7量子比特的量子处理器来解决铍氢化物(BeH2)的分子结构问题,BeH2是迄今为止在量子计算机上模拟的最大分子。 2017年11月,IBM宣布对其IBM Q早期访问商业系统进行两次重要的量子处理器升级。 第一个在线提供给客户的IBM Q系统将有一个20量子比特处理器,其特点是超导量子比特设计、连接和封装的改进。相干时间的平均值为90微秒,可用于高保真量子操作。 IBM还成功地构建并测试了一个具有类似性能的50量子比特处理器原型。该处理器扩展了20比特的体系结构,并将在下一代IBM Q系统中提供。 同时,IBM发布了QISKit的量子软件包。 2017年12月,IBM Q Network成立,初始成员包括:摩根大通、戴姆勒公司、三星、JSR公司、巴克莱、日立金属、本田、长濑、庆应大学、橡树岭国家实验室、牛津大学和墨尔本大学。IBM Q Network为联盟成员提供了量子专业知识和资源,以及基于云的访问最先进和可扩展的通用量子计算系统。 2019年1月,IBM发布了世界上第一个为科学和商业用途而设计的通用量子计算系统IBM Q System One。Q System One是一个高度集成的模块化系统,包括IBM开发的硬件、固件和电子设备。
IBM提出摩尔定律的量子版本,即IBM开发的量子计算设备的量子体积每年翻一番。
2020年1月,IBM宣布Quantum Network联盟成员已有100多家,涉及行业包括航空、汽车、银行、金融、能源、保险和电子。
2020年9月,IBM发布了量子计算技术路线图,将在2021年突破100个量子比特,2023年突破1000个量子比特,并最终带领IBM通往百万量子比特以上级别的量子计算设备。此前IBM在内部向IBM Q Network的成员发布了65量子比特Hummingbird处理器。
2、谷歌 2013年,谷歌和NASA联手购买了一台D-Wave Two量子退火机,组建了谷歌量子人工智能实验室。2014年,谷歌招募了加州大学圣塔芭芭拉分校John Martinis团队,开始在量子计算方面发力。 2016年6月,Martinis领导的硬件团队宣布开发出了一个量子计算机实验原型,可以解决在化学和物理等领域的各种问题,甚至可潜能扩大到更广泛的领域和系统中。他们将铝原子冷却至0.02开氏度,将金属变成没有电阻的超导体。这样信息就可以被编码到量子比特的超导状态中。
2018年3月,谷歌在美国物理学会年度会议上推出了量子处理器Bristlecone,拥有72个量子比特。这一基于门的超导系统的目的为研究系统错误率和量子比特技术的可扩展性以及量子模拟、优化和机器学习应用提供一个测试平台。 谷歌展示了Bristlecone最佳结果:读出错误率1%、单量子比特门错误率0.1%,以及最为重要的两比特量子门错误率0.6%。
2019年9月,一篇来自谷歌研究人员的论文刊登在了NASA的网站上,声称他们的量子系统能够在3分20秒内执行一个计算,当今最强大的超级计算机需要约10000年,即谷歌实现量子霸权。 谷歌对基于Bristlecone处理器的系统进行了改造,设计了一个53量子比特的系统,代号Sycamore。 其中,处理器采用倒装焊封装技术和可调量子耦合器等先进工艺和架构设计,实现了53位量子物理比特二维阵列的纠缠与可控耦合。它在解决随机量子线路采样问题时,具有远超过现有超级计算机的处理能力。
2020年3月,谷歌宣布推出量子机器学习开源库TensorFlow Quantum。这一开源库集成了谷歌之前开源的量子计算框架Cirq和机器学习框架TensorFlow。 2020年8月,谷歌实现了迄今为止最大的量子化学模拟。谷歌AI量子团队及其合作者能够模拟H6、H8、H10和H12链的结合能以及二氮烯的异构化。 这是迄今为止最大的量子化学模拟,最大的模拟需要12个量子比特,72个2量子比特门和114个1量子比特门。分子电子能量的Hartree-Fock计算是在谷歌的53量子比特处理器上进行的。 2020年9月,谷歌发布了在2029年前实现100万个物理量子比特处理器的计划。 谷歌表示,他们已经制定了计划以102、103、104、105、106量子比特的里程碑逐步扩展量子处理器。一百万个量子比特的计算机将由100个模块组成,每个模块包含100×100个量子比特。谷歌计划使用通过表面代码进行纠错,不过谷歌还设置了其他项目来研究其他形式的纠错,以探索最佳的方法。
2015年9月,D-Wave宣布将向谷歌、美国宇航局和USRA(大学空间研究协会)的量子人工智能实验室提供技术。美国宇航局艾姆斯研究中心安装了新的D-Wave 2X。 2015年11月,洛斯阿拉莫斯国家实验室购买一台D-Wave 2X。D-Wave与洛克希德马丁签订多年协议,并将系统升级为D-Wave 2X。 2015年12月,谷歌和NASA宣布,在解决某些特定问题时,D-Wave量子计算机的运行速度比经典计算机快1亿倍。 2016年5月,D-Wave、1QBit与金融行业专家合作推出Quantum for Quants在线社区,以促进在复杂金融行业问题上的合作,并提供量子软件和硬件的使用。 2017年1月,发布了一个开放源码的量子软件工具,作为其构建和培育量子软件开发生态系统战略倡议的一部分。新工具qbsolv使开发人员能够利用D-Wave量子计算能力构建更高级别的工具和应用程序,而无需了解量子计算机的复杂物理。 2017年1月,发布2048量子比特系统D-Wave 2000Q,能够以更快的性能解决比以前更大的问题,向优化、网络安全、机器学习和采样等生产应用迈出了一大步。网络安全技术公司Temporal Defense Systems率先购买了第一台2000Q量子计算机,售价1500万美元。解决关键和复杂的网络安全问题。
2017年3月,谷歌和NASA的系统也升级为D-Wave 2000Q。7月,橡树岭国家实验室(ORNL)购买D-Wave 2000Q云服务以加速混合计算应用。 2018年8月,D-Wave利用其2000Q量子退火计算机首次证明了物质拓扑状态的大规模量子模拟。这种复杂的材料量子模拟是朝着减少耗时和昂贵的物理研究和开发的需要迈出的重要一步。 2018年10月,提供免费、实时访问D-Wave Leap™量子应用环境(QAE)。Leap是第一个提供实时访问实时量子计算机的基于云的QAE。综合软件工具、演示、实时代码、文档以及社区论坛。 2018年12月,D-Wave发布混合工作流平台,在Leap量子应用环境中构建和运行量子混合应用程序。 2019年5月,推出新的低噪声D-Wave 2000Q处理器,通过Leap提供给客户使用。低噪声处理器降低了量子退火系统中的环境噪声,证明了改进的性能、精度和对量子效应的影响。 2020年6月,NEC向D-Wave投资1000万美元,通过将D-Wave的组合优化量子退火技术与NEC的超级计算机相结合,开发能够高速解决大型组合优化问题的混合服务。新开发的服务将通过Leap 2云平台提供给客户。 2020年9月,发布5000量子比特系统D-Wave Advantage,每个量子比特与另外15个量子比特相连。这使得D-Wave Advantage比2017年推出的2000Q系统强大了许多倍,后者每个量子比特与另外6个量子比特相连。
4、Rigetti Computing
2013年,前IBM员工Chad Rigetti创办Rigetti Computing公司。2016年3月,Rigetti制造了有3个量子比特的超导量子计算芯片。2017年,Rigetti在弗里蒙特修建了一个量子芯片制造厂Fab-1,这是美国唯一一个专门的量子集成电路铸造厂。同年,Rigetti工厂开始制造量子芯片,量子比特数量增加到8个。
2017年6月,Rigetti Computing发布了他们的自有云平台Forest——世界上第一个混合经典计算和量子计算的全栈编程和执行环境。Forest平台支持开发者将自己的部分运算外包到量子芯片上。这种方式最大限度地利用了当前极为有限的量子计算资源,只需要将能够在量子设备上提速最多的部分计算分配到Rigetti的实验芯片上。 在Forest的基础上,Rigetti于2018年正式推出了量子云服务(QCS),通过QCS,Rigetti的量子计算机可以集成到任何公共、私有或混合云中。 硬件方面,Rigetti也在不断迭代,2017年、2018年的两款芯片Acorn、Agave的量子比特数量分别为19个和8个,单量子比特门保真度在95%以上,但是双量子比特门操作保真度较低。2019年的Aspen-4和Aspen-7的量子比特数量分别为13个和28个,先后将单量子比特门保真度提升至99%以上,双量子比特门保真度提升至95%。
Rigetti最新的量子处理器(QPU)是在2020年5月20日部署的Aspen-8,拥有31个量子比特,单量子比特门保真度99.8%,双量子比特门保真度94.7-96.0%。
Rigetti正计划基于一种新的芯片架构制造一台128量子比特计算机。他们制造了128量子比特的处理芯片,并正在努力将所有的部件组合在一起。 下图为可扩展的Aspen芯片结构:一个量子位与其三个最邻近量子位之间的直接耦合;通过频率调制(参数)控制方式驱动的纠缠门;通过有源寄存器重置进行快速采样。
2020年9月,Rigetti英国公司宣布,它将领导一个1000万英镑的财团,以加速量子计算在英国的商业化进程。这项为期三年的计划将在英国建造和运营第一台量子计算机,为合作伙伴和客户提供量子计算云服务,并在机器学习、材料模拟和金融领域寻求实际应用。加入Rigetti财团的还有牛津仪器、爱丁堡大学、量子软件初创公司Phasecraft和渣打银行。
5、IonQ 马里兰大学的Chris Monroe和杜克大学的Jungsang Kim在2016年创办了IonQ,一年之内融资2200万美元。 2018年12月,IonQ发布一台离子阱量子计算机,在离子阱中存储了160个量子比特,在79量子比特长度上进行单比特门操纵,平均保真度>99%,最佳保真度>99.97%;在11量子比特长度上进行双比特门操纵,平均保真度>98%,最佳保真度>99.3%。
2019年2月,IonQ首次对水分子进行量子计算机模拟。精确地模拟水分子,接近计算化学领域实际应用所需的精度。水是有史以来在量子计算机上模拟的最复杂的分子之一,而IonQ系统实现的精度远远高于其他设备公开的模拟结果。 2019年3月,IonQ公布了两项严格的现实世界测试结果,结果显示,它的量子计算机能够以更高的精度解决比任何其他量子计算机更复杂的问题。 该基准测试使用了Bernstein-Vazirani算法和Hidden Shift算法,每一个都要求计算机从一组可能的数字中找出一个隐藏的数字。对于每一种算法,IonQ都用他们的11-qubit机器解决了所有可能的1024个隐藏数字,这比以前在量子计算机上尝试过的更困难。 2019年11月,微软在Ignite大会上宣布推出量子计算云服务Azure Quantum,为客户提供包括IonQ在内的3台量子计算机原型机的接入服务,这是IonQ量子计算机通过云首次进行商业化。 2019年12月,亚马逊推出AWS Braket量子计算云服务,IonQ为三家硬件提供商之一。 2020年9月,IonQ联合创始人Chris Monroe被任命为美国国家量子计划咨询委员会成员。 2020年10月,IonQ宣布制造出了世界上最强大的量子计算机,在一台拥有32个量子比特的机器上,预期实现超过400万的量子体积。该机型目前已上线,是IonQ在AWS上推出的首款产品。 Chris Monroe组的一篇论文透露,该系统单比特门保真度为99.98%,双比特门保真度为98.5%-99.3%。退相干时间T2为2.75秒。
6、霍尼韦尔 2014年美国情报高级研究计划局(IARPA)委托霍尼韦尔研制量子计算机,利用离子阱技术实现量子计算。 2020年3月,霍尼韦尔宣布将在未来3个月内推出世界上最强大的量子计算机,量子体积将至少达到64,计算能力将是IBM拥有53位量子比特的量子计算机的两倍。未来五年,其量子计算机的性能每年将提高10倍。 2020年6月,霍尼韦尔宣布,他们的科学家、工程师和技术人员团队已经制造出目前性能最高的量子计算机。这台离子阱量子计算机的量子体积为64,其性能是上一代量子计算机的两倍。
2020年7月,霍尼韦尔型号为HØ的6量子比特离子阱计算机(量子体积64)正式上市,该系统具有高保真度、完全连接的量子位以及诸如中间电路测量和量子位重用等特性,使量子开发者能够设计更深层、更有意义的电路。HØ系统完全可以通过云端访问,并与各种软件框架兼容。
2020年10月,霍尼韦尔量子团队宣布他们的量子计算机实现了128量子体积。在完全连接量子比特的情况下,平均单量子比特保真度为99.97%,双量子比特门保真度为99.54%。
上图显示了霍尼韦尔量子解决方案的量子体积测试的突破性成果以及每个测试通过的日期。 7、微软 早在1997年,在微软任职的物理学家Alexei Kitaev就提出了一个构建马约拉纳费米子并最终实现拓扑量子计算的理论。2005年,微软建立StationQ,负责研究拓扑量子计算。 2017年9月,微软在Ignite大会发布了量子开发工具包,包括专为量子计算开发的Q#编程语言、一款量子计算模拟器,表示能够在未来真正的拓扑量子计算机上运行。 2018年3月,荷兰代尔夫特理工大学的Leo Kouwenhoven团队在Nature发文,给出了马约拉纳费米子存在的更强有力证据。实验发现,电子在他们的导线中分裂成半体。
2018年5月,微软量子计算软件部门负责人Krysta Svore在Build大会上表示,他们将在五年内(到2023年)制造第一台拥有100个拓扑量子比特的量子计算机。具有100个拓扑量子比特的拓扑量子计算机的运算能力,最高可以相当于拥有1000个逻辑量子比特的量子计算机。
2019年3月,微软成立量子计算联盟Microsoft Quantum Network。 微软量子计算联盟主要包括三类成员,一是解决方案合作者,以从事量子计算软硬件开发的初创公司为主;二是下游潜在客户,例如福特、丰田等汽车厂商;三是研究机构,例如普渡大学、代尔夫特理工大学、加州大学圣芭芭拉分校等。
2019年3月,微软发布新版的微软量子开发工具包,包括两款新工具——Toffoli模拟器和资源估算器。
2019年7月,微软宣布开源量子开发工具包(QDK),整合了所有的量子开发工具,包括Q#量子编程语言和编译器、入门示例和教程,以及量子程序的模拟器和资源估算器。开源QDK以便开发人员能够贡献量子应用程序和算法,以及在编译、优化和工具方面的进步。 2019年11月,微软宣布推出量子计算云服务Azure Quantum。将接入霍尼韦尔、IonQ、QCI和东芝的系统,以及1QBit的1Qloud云平台。其中,QCI的系统为Mukai量子软件开发和执行平台,东芝的系统为模拟分流机(SBM)。 2020年9月,微软宣布与哥本哈根大学合作成功实现了一种重要的、有希望用于拓扑量子计算机的材料。有了这种新材料,就有可能在没有磁场的情况下实现拓扑状态。新材料有望应用于拓扑量子比特,从而实现真正的拓扑量子计算机。
2020年9月,微软推出了量子程序的中间表示,称为量子中间表示(QIR),作为基于门的量子计算编程语言和目标量子计算平台之间的通用接口。QIR于9月23日推出,基于LLVM中间语言,它指定了在LLVM中表示量子结构的规则。不需要对LLVM进行扩展或修改。 8、英特尔 早在1998年,美国马里兰大学物理学家Bruce Kane就提出了制造固态量子计算机可以使用嵌入硅的磷原子的核自旋(nuclear spin)来实现。2012年,澳大利亚新南威尔士大学Michelle Simmons团队制作了可以工作的单磷原子晶体管。 2015年9月,英特尔向荷兰代尔夫特理工大学(TU Delft)与荷兰应用科学研究组织(TNO)合建的QuTech研究所投资5000万美元并建立战略合作关系。计划用十年时间加速量子计算研究,以解决更多的复杂问题。 2017年10月,英特尔向QuTech交付了17量子比特超导芯片。 2018年1月,英特尔在CES 2018上推出了49位超导量子测试芯片Tangle Lake。该芯片是以阿拉斯加的湖泊链命名的,充分体现了量子位运作所需的极寒温度和纠缠态。
在2018年2月美国科学促进协会(AAAS)年会上,QuTech展示了一个双量子比特自旋量子计算机,它可以实现执行两个简单的量子算法的编程。 英特尔在其300毫米制程技术上发明了自旋量子超然绝俗制造流程,采用专门用于生产自旋量子比特测试芯片的同位素纯晶圆,并能和英特尔先进的晶体管技术一样,在同一个设施中制造。 英特尔认为硅自旋量子比特比超导量子比特更有优势,首先硅自旋量子比特在物理尺寸上要小得多,它们的相干时间预计也会更长。还有一个优势,硅自旋量子位可以在更高的温度下工作,即从接近绝对零度提升至1开氏度,在宏观层面提升1开氏度看起来微不足道,但在原子层面已经是重大突破。 2018年6月,英特尔位于俄勒冈州的工厂制造出了一种微小的新型自旋量子比特芯片,并开始测试,它使用了英特尔用以制造数十亿传统计算机芯片相同的硅制造技术。 2019年3月,英特尔、Bluefors和Afore公司推出了首款cryoprober,这是一款低温晶圆探测器,旨在加快量子计算解决方案的研究。英特尔借助量子测试工具来收集更多关于量子芯片的数据。 2019年12月,英特尔实验室发布首款低温控制芯片Horse Ridge,实现了对多个量子比特的控制,以加快全栈量子计算系统的开发步伐。 通过用高度集成的系统芯片(SoC)来代替庞大的仪器,将简化系统设计,并允许使用复杂的信号处理技术来加快设置时间、改善量子比特性能,并使系统能够高效扩展到更多的量子比特。 Horse Ridge以俄勒冈州最冷的一个地区来命名,能够在大约4开氏度的低温下工作。
客户可以在使用Amazon EC2计算资源的量子计算机模拟器上运行,测试其算法并对其进行故障排除。准备就绪后,客户便可以在自己选择的量子计算机上运行其算法,无需聘请多个提供商或采用单一技术。 除了运行量子算法之外,客户还可使用Amazon Braket来运行混合算法,在该算法中,量子和经典计算系统的结合使用可以帮助克服当今量子技术固有的局限性。 Amazon Braket目前客户包括富达投资集团、大众汽车、Enel、安进、Rahko、Qu&Co等。 10、Slicon Quantum Computing 2016年6月,新南威尔士大学(UNSW)Michelle Simmons教授团队利用量子比特在单原子层面展示了一个系统。该团队的研究表明,硅比特可以使其量子态比超导回路形成的量子态长近100万倍,这可以让硅比特以仅相当于超导回路1/6的误差运行。 2017年8月,新南威尔士州政府、新南威尔士大学、联邦银行、澳洲电信、澳大利亚政府共同创办了澳大利亚第一家量子计算公司Silicon Quantum Computing(SQC),促进Simmons团队的专门技术开发及商业化。 2019年1月,Simmons团队提出全球首款3D原子级硅量子芯片架构,朝着构建大规模量子计算机迈出了重要一步。 2019年5月,SQC首次测量了硅双量子比特操作的精度,平均两个量子比特门的保真度为98%。 2019年7月,Simmons团队完成了在硅量子比特上的第一个双量子比特门,这是硅材料量子比特门中最快的,其可在0.8纳秒内完成一个操作,比现有自旋双量子比特门快200倍。 2020年3月,SQC宣布已经采取措施完善和集中其技术开发计划,以确保其实现其目标,即在2023年前制造出10个量子比特的硅量子处理器原型,并计划将商业实用的量子计算推向市场。 2020年9月,前谷歌量子硬件开发团队负责人John Martinis加入SQC。Martinis加入SQC的决定是对该公司在原子尺度构建硅基量子计算机这一方法的重要肯定。
三、中国量子计算企业情况
1、本源量子 ·基本信息 公司全称:合肥本源量子计算科技有限责任公司成立年份:2017年9月融资情况:种子轮+天使轮(8000万)总部:合肥高新区官网:www.originqc.com.cn ·公司概况 合肥本源量子计算科技有限责任公司(简称“本源量子”)成立于2017年9月,国内量子计算龙头企业,总部位于合肥高新区,并在北京、上海、成都、深圳等地设有分支机构。团队技术起源于中科院量子信息重点实验室,以量子计算机的研发、推广和应用为核心,专注量子计算全栈开发,各软、硬件产品,技术指标国内领先,知识产权成果四百余项。 ·业务版图·核心人员
郭国平 本源量子创始人兼首席科学家中国科学技术大学物理学院教授、博士生导师,中科院量子信息重点实验室副主任,中科大国家示范性微电子学院副院长,国家重点基础研究发展计划首席科学家,国家杰出青年基金获得者,科技部创新领军人才,长江特聘教授青年学者。 郭光灿 本源量子联合创始人兼科学顾问中国科学技术大学中科院量子信息重点实验室主任、物理系教授;中科院方向性项目首席专家,国家科技部973项目“量子通信和量子信息技术”的首席科学家。北京大学物理学院、中科院-北京大学超快光科学和激光联合中心双聘院士,华南师范大学双聘院士。 ·主要产品 量子计算机研发进展 1)量子计算机 ①真实量子计算机 本源量子云接入6比特超导量子计算服务,以云端接入方式实现真实量子芯片的完整后端体验。未来将接入半导体量子计算服务。 -超导量子计算机-悟源超导量子计算机,指以超导约瑟夫森结为物理基础形成的量子计算物理体系。 -半导体量子计算机-悟本半导体量子计算机,指结合和利用现代半 导体工业产线技术制备量子芯片,通过电场、微波等方式操控及读取量子比特信息的量子计算物理体系。 ②虚拟量子计算机 在真正的量子计算机没有成型之前,需要使用量子虚拟机承担量子算法、量子应用的验证的问题。本源量子虚拟机目前开发了四种国际前沿的虚拟机类型,分别是单振幅量子虚拟机、部分振幅量子虚拟机、全振幅量子虚拟机、含噪声量子虚拟机。
2)量子芯片 本源量子芯片分为量子计算芯片、新型量子功能芯片、量子芯片封装三大类,主要涵盖通用量子计算机中央处理器(QCPU)、专用量子模拟机中央处理器(QSPU)、IMPA、量子比特微波传感器、量子行波参量放大器以及各类芯片封装的研制生产、应用及销售。 ①玄微XW B2-100 本源第一代半导体二比特量子处理器
②玄微XW S2-20 本源量子第二代硅基自旋二比特量子芯片
通过调节栅电极上的超快电脉冲以及微波脉冲,实现了硅基半导体自旋量子比特的单比特和两比特普适量子逻辑门单元。
③夸父KF C6-130 本源第一代超导六比特量子处理器
3)量子云 现阶段的量子计算机受制于严苛的硬件运行环境,还无法脱离实验室的存在。利用云端接入的方式使用量子计算机或者由本源部署好的虚拟量子计算机去构建量子计算程序,可以允许用户轻松实现量子计算及其程序的开发运行。 4)应用系统
ChemiQ是运行量子程序的化学应用系统,主要用来模拟化学分子在不同键长下对应的能量,并可以查看和分析历史计算结果。 为了管理用户计算的结果,软件里面会有“项目”的概念,一个项目可以有多个“计算”,每个“计算”都分别对应着自己的一份参数配置。
该32位量子测控一体机能提供量子芯片的运行环境与接口,提供量子芯片所需的精密信号生成、采集、控制与处理,使得量子芯片最大程度发挥其性能优势。32位量子测控一体机在整体性能上全面继承了“悟源”中的第一代8比特量子测控一体机的水平,本源量子为此成果研制了更专业、更强大的量子测控软件,因此使用该量子测控一体机进行更大规模量子计算机的控制与应用时更加高效,当量子计算机的规模超出科研人员可以控制的程度时,量子测控一体机将替代科研人员完成任务,保障量子计算机的运行。量子测控一体机目前可用于超导量子芯片,并提供诸多功能选件供用户选择。 量子应用软件进展 基于自主研发的量子编程框架QPanda与量子编程语言QRunes,本源量子团队开发出复杂网络排序应用、手写数字识别应用、用户偏好行为预测应用等三款典型的量子计算编程应用。 OriginIR
EmuWare
·企业成就 1.2017年10月11日,由合肥本源量子计算科技有限公司联合中科院量子信息重点实验室发布的“本源量子计算云平台”上线。这也是世界上首个上线的基于半导体量子芯片的量子计算云平台投用,平台同时采用了超导量子芯片。
7.2020年9月7日,建信金融科技有限责任公司与合肥本源量子计算科技有限责任公司签署战略合作协议。
2、华为
网址:https://hiq.huaweicloud.com/ 华为在2017年的《创新研究计划公开项目》中首次提到了超导量子计算、量子算法方向的研究规划。2018年1月,华为就开始着手组建量子计算研发团队,邀请南方科技大学物理系副教授翁文康,担任量子计算软件与算法首席科学家。 ·核心产品 量子计算云平台HiQ 2018年10月12日,华为在全联接大会上首次发布了量子计算模拟器HiQ云服务平台。HiQ 1.0包括量子计算模拟器与基于模拟器开发的量子编程框架。 在此基础上,2019年6月翁文康团队研制了华为昆仑量子计算模拟一体机原型,采用HiQ编程架构,搭载量子计算模拟器和昆仑服务器9032。 2019年全连接大会,华为发布了HiQ 2.0量子计算软件解决方案,推出业界首个一站式VQE量子化学模拟云服务,助力量子化学应用研究。 相较于HiQ 1.0版本,此次HiQ2.0版本推出了业界首个一站式量子化学应用云服务及对应的软件包 HiQ Fermion,新增云端脉冲优化设计服务及对应的HiQ Pulse软件包。 2020年全连接大会,华为发布了HiQ 3.0量子计算模拟器及开发者工具。 新增两个核心模块:量子组合优化求解器HiQ Optimizer和张量网络计算加速器HiQ Tensor,同时升级HiQ Circuit、HiQ Fermion、 HiQ Pulse等多个模块,使得HiQ系统功能更完善、性能更优越,可适配更多应用场景。3、阿里巴巴达摩院量子实验室
网址:https://damo.alibaba.com/labs/quantum 2015年7月,中国科学院-阿里巴巴量子计算实验室在上海成立。2017年9月,密歇根大学终身教授施尧耘入职阿里巴巴,组建并负责阿里云量子计算实验室(达摩院量子实验室)。 达摩院量子实验室以实现量子计算潜能为己任。国际化团队横跨杭州、北京和西雅图三地,全栈式研发贯穿量子芯片、系统、算法和应用四层。2019年9月,阿里巴巴完成了第一个可控的量子比特的研发工作,该量子比特的设计、制备和测量全部是自主完成。 ·研究方向 量子处理器和量子计算系统设计和实现量子处理器,量子存储,和量子计算系统。 量子算法快速的量子以及量子-经典混合算法。 量子物理模拟量子物理的经典和量子算法模拟。 ·核心人员 施尧耘 达摩院量子实验室负责人 北大计算机本科、普林斯顿计算机博士。在加州理工学院的量子信息中心做博士后研究后,他加入密歇根大学安娜堡分校,历任电子工程和计算机科学助理教授、副教授和正教授。研究涉猎量子信息科学的多个领域,包括量子计算复杂度、量子计算经典模拟和量子密码学。他在阿里巴巴致力于建设一个跨学科的国际团队,以实现量子计算颠覆性的潜力。 邓纯青 量子计算硬件负责人 加拿大滑铁卢大学量子计算研究所博士,曾任D-Wave高级科学家,领导新一代量子处理器的研发工作。 ·核心产品 阿里云量子开发平台 阿里云量子开发平台(AC-QDP)利用阿里巴巴的海量计算资源来支持针对量子计算机的应用以及量子计算机本身的研发。目前,AC-QDP的计算引擎是量子电路的经典模拟器太章。 太章 太章是一个量子计算的经典模拟器,或者是一张量收缩的计算系统。太章借助阿里巴巴强大的分布式计算平台,成功模拟了一些作为基准的中间规模的量子电路。太章模拟器正在成为阿里巴巴基于张量的量子激发经典计算系统里的计算引擎。它将是研发量子计算物理实现和应用的核心工具之一。4、百度量子平台
网址:https://quantum.baidu.com/ 2018年3月,百度宣布成立量子计算研究所,将致力于量子计算软件和信息技术应用业务研究,由悉尼科技大学量子软件与信息中心主任段润尧教授担任研究所所长。 ·核心人员 段润尧 清华大学计算机系博士,悉尼科技大学终身教授、澳大利亚研究理事会Future Fellow。自2001年起从事量子计算和量子信息技术,特别是有关量子信道容量、量子信息分辨、量子纠缠、量子程序设计、以及量子算法等方向的研究。 ·核心产品5、腾讯量子实验室
腾讯量子实验室旨在研究量子计算与量子系统模拟的基础理论,以及在相关应用领域和行业中的应用。实验室在腾讯云上研发计算化学软件和平台,建立化学及制药,材料,能源等相关领域的生态系统。实验室开发新的量子组合算法和量子AI算法,进行实验验证和比较研究。实验室研制量子系统,筹建云平台接入。 网址:https://quantum.tencent.com/ ·核心人员 张胜誉 腾讯量子实验室负责人 量子算法、计算复杂性与量子人工智能国际专家;香港中文大学终身教授。 本科毕业于复旦大学,硕士毕业于清华大学,师从应明生教授。博士毕业于普林斯顿大学,师从姚期智教授。后在加州理工学院跟随John Preskill, Alexei Kitaev及 Leonard Schulman教授做博士后研究。在理论计算机科学,量子信息处理,人工智能等方面的顶级会议上发表数十篇文章,并于多个国际期刊任编委。 ·核心产品 量子计算云平台、化学计算云平台 2017年初,腾讯就进军量子计算。葛凌(Ling Ge)教授以腾讯欧洲首席代表身份加入腾讯,被认为是腾讯布局量子计算的开端。2018年初,香港中文大学著名量子理论计算机科学家张胜誉教授加盟,搭建腾讯量子实验室,担当起领导并拓展这个团队的重任。 2018年,腾讯提出用“ABC2.0”技术布局(AI、RoBotics、Quantum Computing),构建面向未来的基础设施,探索推动以技术服务B端实体产业。在2019年的全球数字生态大会上,腾讯量子实验室集中向外界展示了量子AI、化学相关行业初探、Simhub科学计算平台等几大核心研究成果。 随后,腾讯量子实验室联合加拿大Vector Institute of Artificial Intelligence,公开自研的分子量子性质数据集,发起Tencent Alchemy 2019竞赛,关注算法的泛化性能,推动学术界与产业界聚焦化学中分子的量子性质问题,以及AI解决方案。 6、国盾量子 ·基本信息 公司全称:科大国盾量子技术股份有限公司成立年份:2009年5月27日融资情况:IPO上市总部:合肥市高新区官网:www.quantum-info.com ·主要产品ezQTM Engine超导量子计算操控系统针对超导量子计算实现方案中对量子比特的驱动需求及状态读取需求,可以通过单套ez-QTM Engine设备快速开展实验。其便捷易用性可以满足实验的初步建设,有可以具有它的扩展性,迅速搭建大规模的实验系统。
7、启科量子
·基本信息 公司全称:国开启科量子技术(北京)有限公司成立年份:2016年4月14日总部:北京市海淀区官网:www.qudoor.cn ·公司概况 启科量子正式成立于2019年1月,是中国首家在量子通信、量子计算、量子传感领域均拥有自主核心技术与产品开发能力的高新技术企业。公司致力于发展千比特分布式量子计算机,帮助用户推动计算能力、运营成本和速度的改进并从中受益。公司已承担多项量子信息领域国家行业标准编制工作。 ·业务版图 量子设备:量子通信、量子计算、量子传感信息服务:用于安全通信的终极量子安全解决方案,启科量子加密迅捷和超安全的解决方案,以确保通信渠道的未来发展。 ·核心人员 罗乐 量子计算首席科学家 曾任美国国家标准研究院联合量子研究所研究科学家,美国光学学会光学冷却与囚禁专委会委员,中山大学教授,量子信息与测控科研团队学科带头人,从事原子分子光物理学研究二十年来,在超冷费米原子凝聚和囚禁离子量子信息等研究中,取得过一系列国际瞩目的重要科学成果。 ·主要产品 分阶段实现百比特至千比特分布式离子阱量子计算机。·应用领域 量子信息、时间分辨荧光探测、光通讯、集成电路 ·企业成就 1.2019年1月,启科量子成立。2.2019年10月,公司首先落地的产品是高速城域量子保密通信系统QCS-280,具有完全自主知识产权,是国内目前唯一可达到电信级别产品标准的量子保密通信设备,性能及稳定度已达到国际先进水平。3.截至目前,启科量子已注册13个商标,专利信息达22项,软件著作权达12项。
8、昆峰量子
网址:www.kfquantum.com 昆峰量子成立于2018年12月,从“助力量子技术应用”这一愿景入手,结合自身核心技术团队的工程化、应用化优势,在以下众多方面进行技术储备与研发突破: 1)基于高性能经典计算助力量子计算的应用研发,如量子算法加速、量子系统模拟、量子机器学习等方向,探索量子计算在不同行业的实际应用; 2)基于丰富的量子器件研发经验,支持量子计算芯片、量子传感器等各类量子器件的设计与制备优化以及研发的全流程支持。 3)基于多年大型复杂软硬件系统的研发经验,支持量子计算原型机、量子传感器系统等复杂软硬件系统开发,包括咨询、设计、架构以及工程集成开发。 ·核心产品2019年9月30日,昆峰量子发布了“昆冈”量子计算(模拟)云平台1.0版本。昆峰量子以此为基础,和国内外多家科研机构与企业积极合作,探索量子计算在多个行业领域的实际应用。 2020年9月30日,昆峰量子宣布“昆冈”量子计算(模拟)云平台2.0版本正式对外提供服务。2.0版本新增对经典量子混合式编程的支持,包括远程调用接口API与基于网页的集成开发环境IDE;此外,在模拟性能、易用性、可靠性等多个方面均比之前的1.0版本有着显著提升。 昆冈2.0版本支持40量子比特的量子电路模拟,现对外免费开放36量子比特的模拟能力;一体化集成的经典量子混合编程框架,向量子研发人员提供相对友好的交互界面;云原生的工程架构,拥有高可靠性、高可扩展性,可以根据需要支持不同级别的备份及容灾。
9、量旋科技 ·基本信息 公司全称:深圳量旋科技有限公司成立年份:2018年8月27日融资情况:天使轮(策源创投 明势资本)总部:深圳市福田区官网:www.spinq.cn ·公司概况 SpinQ 扎根于量子计算领域,专注于桌面型核磁共振量子计算机、量子计算测控系统、以及量子计算相关软件的自主研发,推动量子计算的普及化和商业化,让量子计算改变世界。
2.量子计算测控系统
对量子比特进行操控和测量的射频模块,为量子计算的核心模块,我们提供集成硬件、算法和软件的一体化解决方案。 3.量子计算云平台 全球第一个开放底层脉冲控制的量子计算云平台,提供专业级的科研量子计算实验平台。 云平台网址:http://cloud.spinq.cn/
·企业成就 1.2018年8月27日,深圳量旋科技(SpinQ)正式注册成立 致力量子计算商业化和普及化
四、核心设备及元器件
就如经典计算机类似,量子计算机概括地说也由三个部分组成,分别是存储器、处理器、输入和输出系统。量子存储器用来保存当前机器的状态,处理器则能够对机器状态执行各种基本操作。经典信息论要求一切“合理”的信息都能够表达为对一系列是非问题的回答,即一串比特。经典符号计算的每一步都可以映射到位串上,但与之不同的是,物理计算只需要对初始和最终机器状态进行标记即可,而这些标记就构成了计算的输入和输出。 具体来看,量子计算机的基本构件还细分有多种元素,这里以D-Wave量子计算机为例。SQUID量子晶体管,也叫超导量子比特晶体管,是量子计算机的基本组成部分。图中展示的是一个超导量子比特的示意图,图中的大环是由铌金属制成的,而当这种金属冷却下来,它就变成了所谓的超导体,并开始表现出量子力学效应。耦合器也是由超导回路制成,为了从单个量子比特处理器升级到多量子比特处理器,量子比特必须通过耦合器连接在一起,才能互相交换信息。除此之外,处理器还需要几个额外的组件来构成支持电路,进行寻址、编程和读取量子位。每个量子比特都附有读出装置,在计算过程中,这些器件不活动,并且不影响量子比特的行为。计算完成后,量子比特最终进入经典的0和1的状态,读数能够用来查询每个量子比特所持有的值,并且将答案以0和1的位串形式返回给最终用户。与此同时,量子处理器的外部支持组件也有着重要作用。首先是量子处理单元的封装。要构建一个量子计算机,就需要从晶圆中选择其中一个量子处理单元(QPU)并放置在QPU封装系统的中心,才能被连接到信号线。其次是稀释冰箱,它是一个用来冷却量子处理器的制冷系统,能够让输入输出系统在其所需的绝对零度条件下顺利运行。磁屏蔽系统由经过严格过滤,并为单个QPU最佳运行而设计的线路组成,这是输入输出系统对所涉及的材料提出的又一个要求。除了内部的磁屏蔽,还需要屏蔽外壳来屏蔽射频电磁噪声,信号在屏蔽外壳的内部和外部之间拥有一个唯一的数字光通道。最后,D-Wave量子计算机的QPU编程使用的是一个基于云的模型,这意味着系统可以在任何与互联网连接的位置进行远程编程。
上图演示了量子计算机的运作流程。首先将任务发送到云中排队,再将其发送到控制/测量计算机中。在微波电子设备中将信号混频到可以数字化的频率后,测量脉冲将在控制脉冲之后沿着相同的同轴电缆下降。测量脉冲通过读出谐振器与量子比特的相互作用,并被反射出去由循环器传送。设备内部的隔离器可以防止噪声进入量子比特,通过4K放大器放大信号后,微博电子设备再将信号混频到可以数字化的频率。混合后的信号通过经典计算机进行数字化处理,将结果分成0或1,最后可通过云发送至任务发布者手中。 超导量子计算发展到今天,依赖的技术大多是现有的成熟技术。这主要是因为超导量子处理器的规模还不是很大,从设计、制备、测试到操控,都可以直接用商用的仪器设备或经过简单的改造实现,和常规的科学研究课题没本质区别,可以完全按照基础科研的模式开展研究。 当超导量子处理器规模达到几十个比特甚至更大以后,大部分商用仪器已经无法满足需求,甚至现有技术都无法满足需求,需要系统性地从头开发整套的仪器设备和技术,这包括:
1、超导量子处理器芯片
超导量子计算机的核心部件是超导量子处理器芯片,和半导体集成电路芯片一样,规模大了以后纯靠人手工无法完成设计、仿真,需要EDA软件辅助设计和仿真。 超导量子处理器芯片基于独特超导约瑟夫森结这种非线性器件,基本组成单元是量子器件而不是传统电子学元件,和半导体芯片电路特性完全不同,电路原理和结构设计遵循完全不同的逻辑,不可能直接使用现有的半导体芯片设计EDA软件,需要重新开发。 英特尔在2019年12月发布了一款以美国俄勒冈州最冷的地方为名的Horse Ridge芯片,旨在承担量子计算机上的线缆工作,并将芯片和电子元件缩小到只有茶碟大小。该芯片被设计为能够放在冰箱里面,让未来的量子计算机更加实用。 Google Sycamore量子计算芯片具有数十条微小的通讯线可链接到外界。该芯片有54个量子比特,这是用于在量子计算机存储和处理数据的基本单元。谷歌用结合在一起的两个部分来构建其Sycamore量子计算芯片:左侧是与外界通信的控制器接口,右边是容纳执行数据处理的量子比特的芯片元素。如果仔细观察,还能够发现介于两者之间有一个由铱点组成的“Google”图案。2、大规模超导量子芯片制备产线,类似于半导体芯片制备产线
超导量子处理器芯片基于超导材料,对制备和工艺有特殊要求,这意味着芯片制备需要专门的工艺和设备产线。目前量子计算硬件制造所面临的挑战实质上是从小规模、学术驱动的现状,过渡到工业上可行的突破。现阶段,行业内的研究目标是实现一种类似于半导体集成电路的可扩展公式,以提高量子位接口的质量以及量子处理器的可扩展性。3、大功率极低温制冷机
超导量子处理器只能在10mK左右的极低温(约零下273.14度)下才能工作,而且还要提供足够的制冷功率,目前能做到的只有稀释制冷机。在此低温下运行的主要原因有三点。 首先,绝对零度可以使超导量子比特进入超导状态从而避免了正常态的电阻损耗,因而提高了超导量子比特的量子特性。其次,超导是产生非线性Josephson效应的必要条件,而Josephson效应是形成超导量子比特的直接原因。第三,超低温可以尽可能地减少热运动导致的能带变宽,能够更好地保证量子比特的相干性。因此,将样品冷却到超低温是进行超导量子计算的先决条件。这样低的温度只能利用He3-He4稀释制冷机来获取,这也是世界上几乎所有超低温实验室里所应用的设备。当前的稀释制冷机技术仅能做到满足数百个比特的需求,支持更大规模的量子芯片的技术仍是一个待研究的课题。谷歌量子计算机在运行时,所有复杂的设备都被隐藏起来,并冷藏到接近绝对零度。谷歌没有为其量子计算机设置冷藏箱,其多层结构是从上到下下降的,每层都冷却到较低的温度。量子比特存储量子计算芯片所在的底层仅比绝对零度高出一点。 当然,如果做到一百万个量子比特被证实在实际中是很难实现的,实用量子计算也不是完全没有希望。我们通常所说的实用量子计算需要百万级别的量子比特,是基于已知的量子算法和现有的比特操控错误率,但不管是量子算法还是比特操控错误率,将来都有可能出现新的突破。 一方面,制备工艺、量子调控技术的提升会让物理比特的出错率降低,大大降低实际需要的物理比特数,另一方面将来有可能提出全新的实用量子算法,对量子比特出错阀值有更低的要求,也会大大降低实际需要的物理比特数量。 这两方面的突破很有可能在不久的将来,在人类实现通用量子计算这个遥远目标前,为量子计算带来一些近期的有价值应用,量子人工智能就是其中的一种可能。毕竟,原始人即使最终驯服不了野牛来耕地,用野牛干点别的也是有可能的。
五、系统软件、语言与算法
1、量子算法
Shor算法的关键之处是利用量子傅立叶变换求
·应用问题 Grover算法适宜于解决再无序数据库中搜索某一个特定数据的问题。现实中有许多问题,如最短路径问题、图的着色问题、排序问题及密码的穷举攻击问题等,都可以利用Grover算法进行求解。目前Grover算法已经再核磁共振和光学系统中得到实现。由于在求解过程中,Grover算法的实现简单而且没有使用问题的特殊结构信息,因此它为这类问题提供了一种框架,属于通用算法。 ·算法内容 Grover量子搜索算法在未整理的数据库中,在N(N=2n)个数据的搜索空间中搜索符合给定条件(
②应用Oracle过程,使目标态置反:
(6)HHL量子算法 解线性方程组是一个基本的数学问题, 在工程等领域有着重要应用。给定一个
1)QAOA的工作流程第 1 步:制备线路的初始状态;第 2 步:初始化待优化的参数β和γ,主要是用来确定RZ门和RX门的旋转角度(通常参数初始化为0);第 3 步:根据参数生成量子线路;第 4 步:测量量子状态计算每一个子项的期望;第 5 步:计算当前参数对应的总的期望值;第 6 步:将当前参数及其对应的期望值传入到经典优化器进行优化得到一组新的参数;第 7 步:重复执行 3-6 步,一直到满足预先设定好的结束条件。
六、量子计算应用领域及进展
量子计算机体积比常规计算机大数倍,并且只能进行特定领域的计算,严苛的低温运行环境以及千万美元价格使普通个人用户无法使用量子计算机。即便是较为廉价的量子云服务,作为领先时代的技术,相比经典计算机并不能更好地满足日常生活环境的大规模应用,量子软件的学习成本也抬高了使用门槛。因此,个人用户尚不具备使用量子计算机的条件。 当前阶段,量子计算主要有两个类型的应用。第一类是量子模拟,即在药物研究、材料科学、量子化学等领域需通过计算机来模拟量子系统,若用经典计算机则需耗费巨量计算资源,而运用量子计算机做量子模拟则最接近自然的状态; 第二类是量子计算加速及优化,即我们日常所见技术公司的计算加速及优化,包括AI机器学习的加速,大数据处理及优化等,目前在金融领域、航空、交通领域探索较多。 根据波士顿咨询(BCG)发布的量子计算行业调研报告,参考目前的消费电子市场规模,保守估计(不考虑量子纠错算法的进展),量子计算应用市场规模2035年将达20亿美元,之后暴涨,2050年飙至2600多亿美元;乐观估计(考虑量子纠错算法的进展),2035年将达600亿美元,2050年飙至2950亿美元。 若干潜在的应用场景:1、人工智能
图灵奖得主姚期智院士曾表示,“人工智能是人类想要了解自然界是怎样做出聪明的人,而如果我们能够把量子计算用到这里,我们可能比大自然更聪明。” 量子计算科学家研究了很多可以基于量子计算机的算法,往往可以把原本计算复杂度为NP或更高的问题转化为多项式复杂度,实现平方甚至指数级的加速,目前不少经典的机器学习问题,如主元素分析(PCA)、支持向量机(SVM),生成对抗网络(GAN)都有了量子算法的理论加速版本,并且有的还在专用或通用的量子计算机中进行了原理性实验演示。 案例: Google推出了TensorFlow Quantum,将公司的机器学习和量子计算计划结合在一起。该框架可以构建量子数据集,原型混合量子模型和经典机器学习模型,支持量子电路模拟器以及训练判别和生成量子模型。 Google与滑铁卢大学、X 和大众汽车合作,宣布发布 TensorFlow Quantum(TFQ),这是一个用于快速建立量子机器学习模型原型的开源库。TFQ 提供了必要的工具,可以将量子计算和机器学习研究界聚集在一起,以控制和建模自然或人工量子系统。例如有噪声的中规模量子(Noisy Intermediate Scale Quantum,NISQ)处理器,具有约 50-100 量子位。 小结:量子计算被主要应用于机器学习提速,基于量子硬件的机器学习算法,加速优化算法和提高优化效果。而量子计算与人工智能的结合将对工业、交通、金融等领域的技术变革提供强有力的支持。 2、生物医药(分子模拟) 费曼提出通过创造一个人工的符合量子规律的有效系统,且系统所满足的量子方程与所被模拟的对象完全一致,就能通过人工系统进行试验,得到无法通过计算得出的解,这一理论成为量子模拟的基础。由于量子模拟不仅能够实现对量子多体系统随时间所发生的变化的模拟,还能够实现强关联多体系统的模拟。 利用量子模拟技术对化学分子进行建模,能够极大地推动制药行业药品研发、药物审核。生物领域的应用小到模拟分子的生物结构,大到模拟神经网络,甚至在未来可能模拟人工生命。 根据波士顿咨询(BCG)发布的量子计算行业调研报告,部分制药行业的高管预估,量子模拟可将药物发现率提高5%到10%,并优化(节约)15%到20%的研发时间。与此同时,他们还认为更优的分子设计将推动药物审批效率。药研发中的复杂分子发现对应着150-300亿美元的量子计算市场机会。 案例: ①ProteinQure+阿斯利康:2020年7月9日宣布合作。利用量子算法+机器学习+化学分子模拟、组合优化的方法,研发基于蛋白质组合模型的多肽类药物并且构建应用于治疗的肽库。预计将克服传统计算难以覆盖多肽变异数量过多的难题,提炼和验证数百万种治疗候选药物,发挥多肽类药物对某些疾病靶标的独特效力。 ②埃森哲+1QBit+Biogen:2017年6月程序已落地并测试,但受限于量子计算机的性能,尚无法大规模计算分子匹配。通过采用混合量子计算方法并加权不同的分子变量进行比较,从而提高分子比较模型的保真度。由于量子计算方法能比任何现有方法更准确地比较分子结构并获得更多信息,Biogen便可以据此减少筛选适用于药物分子的成本。 3、化工工业 化工与医药有类似的地方,比如与居民生活息息相关、手握大量科研经费、也形成了某些环节外包合作的研发习惯和模式。但亦有不同,化工体系过于庞大,并且利润水平远远不如医药,所以对于化工行业来说,非常注重工业化的过程,规模小于5亿人民币的化工企业根本不存在科研部门,可能能够应用到量子计算的环节很少,由化工企业资助或扶植的科研机构对量子计算的需求可能更大,因此在化工企业内,工业设计和催化剂两个环节是量子计算最有应用前景的环节。 案例: ①华为:2019年9月发布量子化学应用云服务HiQ 2.0模拟器,作为国内首个一站式量子化学应用云服务,已成功模拟乙烯(C2H4)、氨气(NH3)、甲硅烷(SiH4)等分子基态能量。 ②奥地利Alpine Quantum Technologies(AQT)+德国HQS Quantum Simulations:2020年4月宣布战略合作。预计通过云端量子化学软件,可以在量子计算机和经典计算机上有效地模拟分子和材料的化学过程。 小结:传统新药/新材料的研发都需要大量的专业人员经过反复长时间的试验才能有所收获。在设计的过程中最先使用的方法是逆向合成法,这种方式是一种典型的经验驱动的开发方式,合成家在选定目标分子后,不断地探索各种逆向途径,整个过程短则几周,长则几年,既费时又不容易规模化。 近些年来,随着计算机科学在医药和材料领域应用加深,通过AI模型建立与训练,超级计算机可以列出众多逆向合成的潜在路径,但仍有大量潜在活性化合物未被发现,在面对大量分子的筛选和分子模拟水平等复杂问题时,超级计算机的算力就显得捉襟见肘了。 在芯片制作工艺越来越接近物理极限的情况下,经典算力的提升变得越来越困难,此时,量子计算成为大幅提升算力的突破口。 BCG预测2030年,在制药行业,量子计算市场规模将达200亿美元,化学、材料科学等科技密集型产业的规模将达70亿美元。 4、金融领域 金融业的客群庞大,储存着大量真实有效的数据,从而为智能金融的发展打下了可靠的基础。智能金融的广泛应用得益于人工智能技术的快速发展,目前,人工智能在金融领域比较典型的且相对较为成熟的应用主要包括量化交易、信用评级、智能投顾等方面。但人工智能的发展离不开算法、数据和硬件算力的支持。 所以在全球数据量飞速增长的情况下,依托经典计算方式实现如此庞大的数据处理,人工智能的训练学习将因数据量超出了内存和处理器的承载上限而变得十分漫长,甚至无法实现。因此,大数据的爆炸式增长,势必会给智能金融的升级带来巨大阻力。另一方面,摩尔定律趋于失效引发经典计算的能力达到瓶颈。 因此,近年来,量子计算成为炙手可热的技术热点。在金融工程领域,量子优化、机器学习、量子加速蒙特卡罗算法将成为三大量子金融计算应用方向。①量子优化:优化问题是许多金融问题的核心。经典计算机很难有效地确定投资组合的最佳选择,在量子计算机上实现量子优化算法有许多不同的方法,其中最突出的是量子退火。量子退火为经典计算机难以解决的最优化问题提供更好的解决方案,可以为执行大额交易指令提供最佳交易路线,从而降低交易成本,为同一资产在不同市场不同价格中提供最佳套利机会,从而赚取差价。
案例:
2016年,在最佳交易路线的选择方面,加拿大量子软件公司1QBit利用D-Wave系统的量子退火算法,解决了一个离散多周期投资组合优化问题。这个问题分别在512和1152量子位的D-Wave芯片上得到了解决。而且对D-Wave机器进行适当的微调可以显著提高成功率。 ②机器学习:量子机器学习(QML)领域基本上分为两条主线:一是寻找量子版本的机器学习算法,二是应用机器学习来理解量子系统。在投资组合优化中,对利率路径有一个全球视野是至关重要的。实现这一点的标准工具是主成分分析(PCA)方法。目前,已经有了量子PCA算法,可以在量子处理器上以指数级的速度运行。具体地说,这种算法寻找相关矩阵主成分的近似值,计算成本O((logN)2)(计算复杂度和查询复杂度)比经典计算机上成倍的降低。这一发展应极大地拓宽了主成分分析的适用范围,使我们能够在使用经典方法不可行的情况下估计风险并使利润最大化。 而机器学习中最突出的可能是神经网络,包括浅层网络、深层网络、递归网络、卷积网络等。考虑到训练成本的问题而涉及全新的、完全的量子神经网络算法,能够学习比传统神经网络更复杂的数据模式。隐马尔可夫模型通常用于金融预测(股价预测),量子隐马尔可夫模型可以提供更好更快的预测 案例: IBM+西班牙CaixaBank:2019年完成量子算法测试,2020年6月CaixaBank与IBM签署合作协议。使用量子机器学习算法,基于实际数据评估了专为该项目创建的两个投资组合(抵押投资组合和国库券投资组合)的财务风险。预计将复杂的工作从几天减少到只有几分钟。 国民西敏寺银行与富士通、1QBit开展合作试验,利用量子计算帮助投资组合经理决定银行1,200亿英镑“高质量”流动资产(HQLA)投资组合的正确构成。 西班牙银行CaixaBank与IBM合作,西班牙第二大银行BBVA则与初创公司Zapata Computing和Multiverse、科技公司富士通(Fujitsu)和咨询公司埃森哲(Accenture)合作,研究量子计算金融用例。其中包括静态投资组合优化、信用评分流程优化等。 ③量子加速蒙特卡罗算法:金融衍生品的定价,经典方法是通过简化的场景,例如Black-Scholes-Merton模型和蒙特卡罗抽样。由于衍生品的数量越来越多,只有蒙特卡罗模拟是可行的,但计算成本高,执行时间长。量子蒙特卡罗算法可以解决这一问题,提供二次加速。 案例: Xanadu+加拿大BMO金融集团&丰业银行:2019年8月宣布已成功落地应用。利用量子蒙特卡罗算法,完成百倍级实时定价,提高衍生品定价的处理速度和准确性(经预测,运行完整的量子蒙特卡罗将提速达数百到数千倍) IBM+摩根大通&巴克莱:2017年以来,摩根大通、巴克莱一直在测试IBM的量子计算软件,希望通过蒙特卡罗模拟这样的优化来加速他们的投资组合。 最后,国内金融机构里,建设银行最先试水量子计算。2020年9月,建信金融科技有限责任公司与合肥本源量子签署战略合作协议。本源量子与建信金融科技将围绕金融领域应用场景,推动量子生态的构建及其与金融产业的协同发展。 5、航空航天、交通 (1)航空领域 量子计算有助于解决航空航天行业面临的一些最严峻的挑战,从基础材料科学研究、机器学习优化到复杂的系统优化。一些航空航天领域的世界知名企业也在涉足量子计算硬件和软件,旨在通过量子计算激发本行业的技术革命。 案例: 美国国家航空航天局(NASA)设立了量子人工智能实验室(QuAIL)来解决航空、地球和空间科学以及太空探索任务中出现的困难优化和机器学习优化的问题。QuAIL的合作伙伴包括D-Wave、谷歌公司、大学空间研究学会(USRA)等。 航空巨头洛克希德·马丁公司很早就开始关注量子计算领域,是D-Wave的早期投资者之一。20洛马公司认为,量子计算的潜在应用包括处理复杂系统和大量数据的任何领域,包括软件验证与确认(V&V)。超大型软件开发的成本中约有一半花费在V&V上。 另一家航空巨头空中客车集团也在量子计算领域投入较多,早于2015年底在威尔士纽波特建立了一个量子计算研发团队,同时还投资了量子计算初创公司QC Ware。 2019年1月,空客公司举办了全球量子计算挑战赛,通过采用量子计算这种新型计算能力,为飞机全生命周期的复杂优化和模型化提供解决方案。挑战问题包括: (1)飞机爬升优化。这个问题集中在爬升以及如何应用量子计算于达到低成本指数(时间和燃料的相对成本),这对于提高效率至关重要。 (2)计算流体力学。该设计使用计算流体力学(CFD)进行,可演示飞机周围的气流行为并揭示作用在其表面上的空气动力。 (3)用于求解偏微分方程的量子神经网络。在求解空气动力学问题时,求解偏微分方程(PDE)是一项主要的挑战。挑战拟通过量子计算来优化机器学习的方法来解决耦合的偏微分方程。 (4)翼盒设计优化。翼盒设计优化必须同时计算机身载荷、质量建模和结构分析等设计配置,存在较大计算需求。量子计算通过同时评估不同参数提供了探索更宽松设计空间的替代途径,从而在优化重量的同时保持结构完整性。
七、产业链图谱及市场预测
1、产业链图谱 量子计算行业目前处于早期探索阶段,核心参与者不多,产业链上下游较为清晰,目前以国外如IBM、Google、Intel、IonQ及霍尼韦尔、国内以本源量子、阿里巴巴、华为等量子巨头为核心,构建了较为完整的产业链。我们对量子计算产业按照产业链环节进行了拆分,主要包括量子计算的硬件部分、基础软件部分、应用软件部分和相关服务。其中,硬件部分是形成量子计算机的所有硬件,包括研发、制备和测试量子计算机的设备和量子计算机;基础软件包括操作系统、编译语言及各种中间件;应用软件是针对下游领域具体应用的软件;服务包含的范围较广,主要指量子计算机的云服务,也包括教育培训、媒体服务及研发服务等。 未来三年,用于本地或基于公共云的量子计算硬件交付的市场收入将占全球量子计算市场的50%,未来随着量子计算的产业生态逐步完善、商业应用场景逐渐扩大,量子计算服务产值比例将逐步扩大。 虽然整体产业仍处于早期研发阶段,技术路线尚无定论,但仍可以对未来保持乐观心态。 单位:亿美元
-End-
1930年秋,第六届索尔维会议在布鲁塞尔召开。早有准备的爱因斯坦在会上向玻尔提出了他的著名的思想实验——“光子盒”,公众号名称正源于此。