查看原文
其他

重磅发布!2020全球量子计算机产业发展报告

光子盒研究院 光子盒 2021-12-15
光子盒研究院出品
2020全球量子计算机产业发展报告(全文4.2万字)

前言


量子计算是量子力学与计算机科学相结合的一种通过遵循量子力学规律、调控量子信息单元来进行计算的新型计算方式。它以微观粒子构成的量子比特为基本单元,具有量子叠加、纠缠的特性。并且,通过量子态的受控演化,量子计算能够实现信息编码和计算存储,具有经典计算技术无法比拟的巨大信息携带量和超强并行计算处理能力。随着量子比特位数的增加,其计算存储能力还将呈指数级规模拓展。这是目前量子信息技术(Quantum Information Technology)领域重点关注的发展方向之一。 量子计算的概念最早由费曼提出,1985年英国物理学家David Deutsch进一步发展了费曼的构想,通过“量子线路”方法,将经典计算机中负责运算处理的逻辑门扩展到了量子力学领域。90年代,Shor算法和Grover算法证明了量子计算拥有经典计算无可比拟的速度。 从此以后,人们一直在寻找能够运行Shor算法的量子硬件,目前主流的物理实现方案包括超导、离子阱、半导体、光学、拓扑等,其中超导和离子阱发展最为迅速。 超导路线方面,2020年Rigetti部署Aspen-8(31量子比特)量子处理器;IBM实现了64量子体积,发布了65量子比特Hummingbird处理器;IBM和谷歌提出了在2021年突破100量子比特的目标;本源量子发布了6比特超导量子计算机——悟源。 离子阱路线方面,2020年霍尼韦尔发布了6量子比特HØ离子阱计算机,先后实现了64和128量子体积,平均单量子比特门保真度为99.97%,双量子比特门保真度为99.54%;美国杜克大学和马里兰大学设计出了全连接的32比特离子阱量子计算机寄存器;IonQ宣布在32量子比特离子阱量子计算机上,实现预期超过400万量子体积。 半导体路线方面,2020年英特尔与代尔夫特QuTech共同在Nature上发表论文,证明了在高于1开氏度下能够成功控制“高温”量子比特;澳大利亚硅量子计算公司(SQC)刷新了有史以来的半导体量子比特的最低噪声水平,通过将该研究成果与在1微秒内读出量子比特信息的能力相结合,实现了双量子比特门保真度99.99%;本源量子将在今年底上线半导体量子计算机——悟本。 光学路线方面,2020年Xanadu发布全球首个光量子计算云平台,开发者可以基于云访问Xanadu的光量子计算机,包括8量子比特和12量子比特两个版本;PsiQuantum获得了包括微软在内的1.5亿美元融资,致力于开发100万量子比特的光量子计算机;中国科大自去年12月首次实现了20个光子输入60×60模式干涉线路的玻色取样量子计算后,今年完成了对50个光子的玻色取样。 拓扑路线方面,2020年微软宣布与哥本哈根大学合作成功实现了一种重要的、有希望用于拓扑量子计算机的材料。这种新材料有可能在没有磁场的情况下实现拓扑状态,可用于实现真正的拓扑量子计算机。 2020年,量子计算物理实现方案研究取得一定进展,但仍未实现技术路线收敛。同时量子计算云平台已成为该领域最大热点,除了IBM、D-Wave、Rigetti、本源量子以及Xanadu等硬件公司已经推出了云平台服务,微软、亚马逊也在今年正式上线量子计算云平台。 软件方面,包括量子计算编程语言、开发工具、算法在内,本报告均有完整收录。2020年还有了第一个量子计算操作系统,英国量子软件公司Riverlane宣布,高性能通用操作系统Deltaflow.OS已经进入了量子计算机商业化发展的关键阶段。 行业应用方面,量子计算在医药和金融领域的表现尤为惊艳,2020年谷歌实现了迄今为止最大的量子化学模拟,渣打银行、CaixaBank、BBVA等金融机构与量子计算公司合作,研究量子计算金融用例。同时,量子计算也在不断向人工智能、航天航空、交通运输领域渗透。 从各方面来看,2020年都是量子计算发展最快的一年。因此,光子盒编写了《2020年全球量子计算行业发展报告》,深入分析量子计算领域的关键技术、核心玩家、软件开发、行业应用、政策资金、人才教育,以把握全球量子计算最新趋势。

目录


一、主要技术路线介绍及进展1、超导2、半导体量子点3、离子阱4、光学5、量子拓扑6、量子退火二、国外量子计算企业状况1、IBM2、谷歌3、D-Wave System4、Rigetti Computing5、IonQ6、霍尼韦尔7、微软8、英特尔9、亚马逊10、Slicon Quantum Computing三、中国量子计算主要玩家1、本源量子2、华为3、阿里巴巴达摩院量子实验室4、百度量子平台5、腾讯量子实验室6、国盾量子7、启科量子8、昆峰量子9、量旋科技四、核心设备及元器件1、超导量子处理器芯片2、大规模超导量子芯片制备产线3、大功率极低温制冷机五、 系统软件与语言算法1、量子算法2、量子编程语言3、量子计算开发工具4、量子云平台六、量子计算应用领域及进展1、人工智能2、生物医药(分子模拟)3、化工工业4、金融领域5、航空航天、交通七、产业链图谱及市场预测1、产业链图谱2、市场规模预测

一、主要技术路线及进展

 量子计算包含处理器、编码和软件算法等关键技术,近年来发展加速,但仍面临量子比特数量少、相干时间短、出错率高等诸多挑战。目前,量子计算整体上仍然处于基础理论研究和原型产品研发验证阶段,多项关键技术仍有待突破。全球各主要研究机构和公司纷纷选用了不同的技术路线来进行量子计算的研究,并且这些技术都可以用来创造基本的信息单位,即量子比特或量子位。 目前主流的技术路线有超导、半导、离子阱、光学以及量子拓扑这五个方向。每种路线各有优劣势,尚无任何一种路线能够完全满足实用化要求并趋向技术收敛。目前,前四种路径均已制作出物理原型机,但量子拓扑这一微软重注的方向尚无物理层面的实现。


资料来源:中国计算机学会青年计算机科技论坛 目前进展最快最好的是超导方向。原因有二,其一是人类很希望借助现有非常先进的技术促进量子计算发展,包括半导体集成、电路工艺和技术。其二是超导路径的优势是可扩展性非常强,固态器件、电学方向能够使未来的量子计算与经典的计算机相兼容、融合。但未来技术更加成熟之后,或将持续发力离子阱和量子拓扑这两个前景更加广阔但很难实现的方向。谷歌、IBM、英特尔等巨头目前都押注超导或者半导体方向。 

1、超导

 超导量子计算被普遍认为是最有可能率先实现实用化量子计算的方案之一,因而备受关注。量子比特不同于非“0”即“1”的经典比特,而是可以处于“0”态和“1”态之间的所谓“量子相干叠加态”。当人们把量子叠加拓展到多量子比特体系,就自然导致了量子纠缠的概念。量子纠缠,是一种描述当几个粒子在彼此相互作用后,由于各个粒子所拥有的特性已经综合成为整体性质,而无法单独描述各个粒子的性质,只能描述整体系统性质的现象。多个量子比特一旦实现了相干叠加,其代表的状态空间将会随着量子比特的数目呈指数增加。这也被认为是量子计算能够有指数加速能力的根源所在。目前,超导量子计算的核心目标正是如何同步地增加所集成的量子比特数目以及提升超导量子比特性能,从而能够高精度相干操控更多的量子比特,实现对特定问题处理速度上的指数加速,并最终应用于实际问题中。超导量子计算的原理是无电阻电流沿回路来回震荡,注入的微波信号使电流兴奋,让它进入叠加态。 势头正盛的超导体系备受谷歌、IBM、英特尔等科技巨头的青睐,除此之外,还有Quantum circuits、Rigetti和国内的本源量子、北京量子院等公司和机构使用此技术路线来对量子计算进行研究。2016年12月,中科大潘建伟团队首次实现了10个光子比特和10个超导量子比特的纠缠。2017年11月,IBM首次构建了50量子比特的处理器。2018年3月,谷歌量子人工智能实验室发布的Bristlecone量子芯片,可实现72个量子比特长度上的单比特门操纵,单量子比特门最佳保真度达到了99.9%。2018年8月,Rigetti Computing宣布在开发一个128量子比特量子计算系统。2019年1月,清华大学首次利用单量子比特实现了精度为98.8%的量子生成对抗网络,未来可应用于图像生成等领域。2019年4月,中科大潘建伟团队首次实现了12个超导比特的纠缠。2019年8月,中科大实现24量子比特处理器,并进行多体量子系统模拟。2020年9月12日,本源量子公司上线了中国首个接入实体量子计算机的量子计算云平台,虽然相比于IBM目前在云平台上提供的高达50个量子比特的系统,6个量子比特只是其在2017年的最初水平,但这意味着踏出了中国量子计算应用的第一步。 

2、半导体量子点

 量子点(quantum dot)是在把激子在三个空间方向上束缚住的半导体纳米结构。它是一种重要的低维半导体材料,其三个维度上的尺寸都不大于其对应的半导体材料的激子玻尔半径的两倍。硅量子点,是量子点实例中的一部分。通过向纯硅中加入电子,科学家们造出了硅量子点这种人造原子,运用微波控制电子的量子态。硅的优势在于,可以利用传统的微电子工业几十年来积累的大规模集成电路制造经验。除此之外,硅量子比特比超导量子比特更加稳定,但量子纠缠数量较少,需要保持低温。英特尔量子计算的硬件研发团队负责人吉姆·克拉克(Jim Clarke)表示,用硅制造量子比特更容易达到要求的量子比特数目。 2017年开始,英特尔先后推出17量子比特和49量子比特的超导芯片,随后在2018年2月展示了一个2量子比特自旋量子计算机,它可以实现执行两个简单的量子算法的编程。英特尔还在其300毫米制程技术上发明了自旋量子比特制造流程,能和英特尔先进的晶体管技术一样,在同一个设施中制造。2019年5月,新南威尔士大学实现了保真度为98%的双比特逻辑门。本源量子成功研制半导体2比特量子处理器玄微。2020年,新南威尔士大学的量子计算研究人员在一篇论文中描述了他们如何在一个硅量子点中创造人工原子,Andrew Dzurak教授说:“我们最新的研究发现,拥有更多电子的人造原子,其量子比特的强度比之前认为的要大得多,这就意味着它们可以可靠地用于量子计算机的计算工作。这对我们来说很重要,毕竟仅基于一个电子的量子比特可能非常不可靠。”同年,新南威尔士大学研究人员在最新一期《先进材料》杂志上指出,他们研制出了迄今最安静,及噪音最低的半导体量子比特,为进一步研制出大规模纠错量子计算机奠定了基础。 

3、离子阱

 离子阱,又称离子陷阱,其技术原理是利用电荷与电磁场间的交互作用力牵制带电粒子体运动,并利用受限离子的基态和激发态组成的两个能级作为量子比特,是一种将离子通过电磁场限定在有限空间内的设备。它并不是一个很新颖的装置,早在50年代末,离子阱就被应用于改进光谱测量的精确度。在应用于量子计算机中时,离子阱量子计算机相比于超导量子计算机最大的优势就是全连接性。由于使用了完全相同的、完全连接的量子位,再与精确控制相结合,所以离子阱量子计算机拥有了高质量的量子位和最低的错误率。但是离子阱难以扩展,一个离子阱里面一百多个量子比特已经是目前的技术上限,若要扩展成多个连接在一起的阱,则需要更多的技术投入,并且在可操控性上也很弱,而且与经典计算很难实现兼容。与超导技术路线相比,离子阱更学院派。 学界对离子阱路线的基础路线研究很多,但是近几年才开始有公司大规模开展离子阱量子计算机的研发,这其中包括美国的霍尼韦尔和IonQ、英国的UQ(Universal Quantum)以及中国的启科量子等。2018年12月,IonQ实现79位处理量子比特和160位存储量子比特。作为工业巨头的霍尼韦尔,在2018年宣布进军量子计算领域,采用离子阱技术实现量子计算,并于2020年6月推出了64量子体积的量子计算机。8月,美国杜克大学和马里兰大学的研究者设计出了在低温下运行的全连接的32比特离子阱量子计算机寄存器,相比霍尼韦尔6比特全连接提高了5倍,是目前公开最多量子比特全连接的技术架构。10月,霍尼韦尔将量子体积提升为128,但IonQ宣布在32量子比特离子阱量子计算机上实现预期超过400万量子体积。UQ在2020年获得了450万美元的超额种子轮融资,被投资机构评价为“UQ是全球唯一能够将量子计算的效率提高到指数级的公司”。同年,北京启科量子在中国光博会上透露“天算1号”离子阱可扩展分布式量子计算机项目,第一阶段技术指标可达到100个可操控量子比特以上,且预计在2-3年内完成。 

4、光学

 光量子,简称光子(photon),是传递电磁相互作用的基本粒子,是一种规范玻色子,在1905年由爱因斯坦提出,1926年由美国物理化学家吉尔伯特·路易斯正式命名。光量子计算是量子计算中的一种,其原理是使用光子进行“多粒子纠缠的操纵”。大多数实验中,量子比特都是利用被困在振荡磁场、超导电路中的离子,或者在晶体结构中存在的缺陷来进行研究。但是,所有这些技术都很难维护量子比特的叠加性质。而因为光子不易与环境相互作用,所以它们反而很擅长维持叠加。但同时,由于同样的原因,它们很难被控制。因此,找到使光子相互作用的一种有效方法可以打开经典光学和量子计算的新前景,加速一些计算类型。近年来,物理学家们利用稀有元素的原子冷却到非常低的温度,使光子之间相互作用成为可能。另外,利用光子实现玻色取样和超导量子比特,都是目前国际学术界公认的演示量子计算优越性的两大途径。



2017年5月,中科大潘建伟和陆朝阳等人宣布造出了世界上第一台超越早期电子计算机的光量子计算机。2018年5月,上海交通大学物理与天文学院金贤敏团队发表了节点数达49×49的光量子芯片的研究成果。2018年7月中科大首次实现18位光量子纠缠操控。2019年12月,中科大在国际上首次实现了20光子输入60×60模式干涉线路的玻色取样量子计算,输出了复杂度相当于48个量子比特的希尔伯特态空间,其维数高达370万亿。这个工作同时在光子数、模式数、计算复杂度和态空间4个关键指标上都大幅超越之前的国际纪录。其中,态空间维数比国际同行之前的光量子计算实验高百亿倍。 

5、量子拓扑

 在超导等架构下,量子比特的数量一多,错误率就会急剧上升。错误就来自局域噪音(Local Noise)。要知道,在微观世界,哪怕极其微小的电磁场都会对粒子构成干扰,产生所谓的局域噪音。而拓扑量子比特就不同,它是通过基本粒子的拓扑位置和拓扑运动来处理信息的。就像远古时代人类结绳记事,利用不同的节点绳子编织的(拓扑)结构的不同代表不同的信息,无论如何晃动绳子(微扰),信息的存储都是稳定的。在量子计算中,只需要找到一种特殊的粒子,让这几个粒子在时间空间上进行交换,它们的轨迹就相当于在绳子上打不同的结,从而代表着不同的信息。信息的存储只依赖于交换顺序而不依赖于交换的具体路径,所以拓扑量子计算对局部的微扰是免疫的。



2005年,在微软首席研究战略官Craig Mundie的支持下,拓扑数学家Michael Freedman在加州圣芭芭拉建立了一个实验室——StationQ,并开始招募全球最杰出的凝聚态物质和理论物理学家、材料学家、数学家和计算机科学家,一起构建拓扑量子比特。拓扑量子比特的构建需要马约拉纳费米子,它的反粒子就是自己本身,状态非常稳定,2018年,代尔夫特理工大学的Leo Kouwenhoven团队在Nature发文,给出了马约拉纳费米子存在的强有力证据。微软量子计算软件部门负责人Krysta Svore表示,他们可以在2023年之前制造第一台拥有100个拓扑量子比特的量子计算机,这个具有100个拓扑量子比特的拓扑量子计算机的运算能力,最高可以相当于1000个逻辑量子比特的量子计算机。 

6、量子退火

 目前量子计算机可分为量子逻辑门计算机和量子退火计算机,前述五大主要技术路线都是构建量子逻辑门计算机提出的,基于量子逻辑门的量子计算机就是所谓的通用量子计算机。量子退火机则不需要量子逻辑门,而是通过伊辛模型(Ising model)来寻找最优解,这是一种专用量子计算机,在处理最优化问题上有独特优势。除了不采用逻辑门,通用量子计算机和量子退火计算机的最大区别是量子比特的连接方式,通用量子计算机追求的是所有量子比特相互连接(如霍尼韦尔的H0实现了6量子比特的全连接),量子退火机只能实现部分量子比特之间的连接,比如D-Wave Advantage拥有5000量子比特,但每个比特只与另外15个比特相连,这种连接方式称为Chimera graph。



1998年,东京工业大学的西森秀稔和门胁正史在论文中首次提出量子退火理论。Farhi等人在2001年也发表了一篇关于量子退火的论文。他们没有使用“量子退火”这个名词,而是将其称为“绝热量子计算”。目前D-Wave是全球最大的量子退火公司,他们在2011年推出128量子比特的D-Wave 1,并提出两年量子比特翻倍的目标,今年发布的Advantage系统拥有5000个量子比特。相比之下,通用量子计算机目前的量子比特尚不到100个。但量子比特不是衡量量子计算机性能的唯一指标,还要考虑到量子比特质量,由于量子退火系统中量子比特只是局部连接,所以与通用量子计算机没有太多可比性。目前,量子退火机只能解决优化问题,但因为优化问题在现实生活中处处可见,因此量子退火计算机的应用也十分广泛。

二、国外量子计算企业情况

 1、IBM 自1981年开始,IBM已在量子信息处理领域深耕30余年。早在1999年,IBM就采用NMR量子比特技术开发出3位量子计算机。2001年,IBM分别在5位NMR量子计算机、7位NMR量子计算机上成功运行了Shor量子算法。 2015年4月,IBM的科学家实现了建造第一台实用量子计算机的关键步骤。他们首次展示了同时发现和测量两种量子误差的能力,并展示了一种新的方形量子比特电路设计,表示这是唯一能够成功扩展到更大尺寸的物理结构。


 
2016年5月,IBM有史以来第一次向公众提供量子计算,名为IBM Q Experience的云计算平台将允许用户在IBM的量子处理器上运行算法和实验。该量子处理器由5个超导量子比特组成,位于纽约的IBM沃森研究中心。 2017年3月,IBM Q Experience发布了一个新的API(应用程序程序接口),使开发人员和程序员能够在基于5个量子比特的量子计算机与经典计算机之间建立接口,而无需具备量子物理的深厚背景。在IBM Q Experience上发布的升级版模拟器,可以用高达20个量子比特的电路建模。发布了IBM Q Experience的完整SDK(软件开发工具包),供用户构建简单的量子应用程序和软件程序。 IBM Q系统和服务通过IBM云平台交付,将制造商业化的通用量子计算系统。目标是在未来几年内构建约50个量子比特的商业IBM Q系统。 IBM提出量子体积(Quantum Volume)概念,一个衡量量子计算机性能的专用指标,其影响因素包括量子比特数、测量误差、设备交叉通信及设备连接、电路软件编译效率等。 2017年5月,IBM和雷神BBN的科学家们展示了量子计算机比经典计算机更具优势的首批被证明的例子之一。通过探测一个包含未知比特串的黑匣子,他们发现仅仅几个超导量子比特就能比现在的计算机更快、更有效地发现隐藏的串。 2017年5月,IBM宣布成功制造并测试了其最强大的通用量子计算处理器。IBM开发的两种新处理器包括:一个16比特的处理器,可以进行更复杂的实验;IBM的第一个商用处理器原型,拥有17个量子比特。



2017年9月,IBM开发出一种在量子计算机上模拟分子的新方法,有朝一日可能有助于化学和材料科学的革命。成功地使用了一个7量子比特的量子处理器来解决铍氢化物(BeH2)的分子结构问题,BeH2是迄今为止在量子计算机上模拟的最大分子。 2017年11月,IBM宣布对其IBM Q早期访问商业系统进行两次重要的量子处理器升级。 第一个在线提供给客户的IBM Q系统将有一个20量子比特处理器,其特点是超导量子比特设计、连接和封装的改进。相干时间的平均值为90微秒,可用于高保真量子操作。 IBM还成功地构建并测试了一个具有类似性能的50量子比特处理器原型。该处理器扩展了20比特的体系结构,并将在下一代IBM Q系统中提供。 同时,IBM发布了QISKit的量子软件包。 2017年12月,IBM Q Network成立,初始成员包括:摩根大通、戴姆勒公司、三星、JSR公司、巴克莱、日立金属、本田、长濑、庆应大学、橡树岭国家实验室、牛津大学和墨尔本大学。IBM Q Network为联盟成员提供了量子专业知识和资源,以及基于云的访问最先进和可扩展的通用量子计算系统。 2019年1月,IBM发布了世界上第一个为科学和商业用途而设计的通用量子计算系统IBM Q System One。Q System One是一个高度集成的模块化系统,包括IBM开发的硬件、固件和电子设备。



2019年3月,IBM实现16量子体积,其发布的IBM Q System One量子计算机采用第四代20量子位处理器,其量子体积为16,此前IBM系统的量子体积为8。
 IBM提出摩尔定律的量子版本,即IBM开发的量子计算设备的量子体积每年翻一番。



2020年1月,IBM宣布Quantum Network联盟成员已有100多家,涉及行业包括航空、汽车、银行、金融、能源、保险和电子。



20120年8月,IBM在其27量子比特系统上实现了64量子体积,这是该公司迄今为止最高的量子体积。
 2020年9月,IBM发布了量子计算技术路线图,将在2021年突破100个量子比特,2023年突破1000个量子比特,并最终带领IBM通往百万量子比特以上级别的量子计算设备。此前IBM在内部向IBM Q Network的成员发布了65量子比特Hummingbird处理器。



2、谷歌 2013年,谷歌和NASA联手购买了一台D-Wave Two量子退火机,组建了谷歌量子人工智能实验室。2014年,谷歌招募了加州大学圣塔芭芭拉分校John Martinis团队,开始在量子计算方面发力。 2016年6月,Martinis领导的硬件团队宣布开发出了一个量子计算机实验原型,可以解决在化学和物理等领域的各种问题,甚至可潜能扩大到更广泛的领域和系统中。他们将铝原子冷却至0.02开氏度,将金属变成没有电阻的超导体。这样信息就可以被编码到量子比特的超导状态中。



2016年11月,Martinis团队与杜兰大学的研究人员展示了一个完整的量子控制平台,这个平台可以同时控制3个超导量子比特。
 2018年3月,谷歌在美国物理学会年度会议上推出了量子处理器Bristlecone,拥有72个量子比特。这一基于门的超导系统的目的为研究系统错误率和量子比特技术的可扩展性以及量子模拟、优化和机器学习应用提供一个测试平台。 谷歌展示了Bristlecone最佳结果:读出错误率1%、单量子比特门错误率0.1%,以及最为重要的两比特量子门错误率0.6%。



2019年9月,一篇来自谷歌研究人员的论文刊登在了NASA的网站上,声称他们的量子系统能够在3分20秒内执行一个计算,当今最强大的超级计算机需要约10000年,即谷歌实现量子霸权。 谷歌对基于Bristlecone处理器的系统进行了改造,设计了一个53量子比特的系统,代号Sycamore。 其中,处理器采用倒装焊封装技术和可调量子耦合器等先进工艺和架构设计,实现了53位量子物理比特二维阵列的纠缠与可控耦合。它在解决随机量子线路采样问题时,具有远超过现有超级计算机的处理能力。



2020年3月,谷歌宣布推出量子机器学习开源库TensorFlow Quantum。这一开源库集成了谷歌之前开源的量子计算框架Cirq和机器学习框架TensorFlow。 2020年8月,谷歌实现了迄今为止最大的量子化学模拟。谷歌AI量子团队及其合作者能够模拟H6、H8、H10和H12链的结合能以及二氮烯的异构化。 这是迄今为止最大的量子化学模拟,最大的模拟需要12个量子比特,72个2量子比特门和114个1量子比特门。分子电子能量的Hartree-Fock计算是在谷歌的53量子比特处理器上进行的。 2020年9月,谷歌发布了在2029年前实现100万个物理量子比特处理器的计划。 谷歌表示,他们已经制定了计划以102、103、104、105、106量子比特的里程碑逐步扩展量子处理器。一百万个量子比特的计算机将由100个模块组成,每个模块包含100×100个量子比特。谷歌计划使用通过表面代码进行纠错,不过谷歌还设置了其他项目来研究其他形式的纠错,以探索最佳的方法。


  3、D-Wave System D-Wave成立于1999年。2007年,拥有16量子比特的量子退火机Orion宣告成功。 2011年5月,发布D-Wave One,拥有128量子比特。美国航天航空制造商洛克希德·马丁成为首位客户,应用于最具挑战性的一些计算问题。 2011年10月,南加州大学、洛克希德·马丁公司和D-Wave推出了第一个商业和运营量子计算机学术中心。 2013年5月,发布D-Wave Two,拥有512量子比特,谷歌和NASA联手购买了一台,售价为1000万美元。 2014年5月,由D-Wave和南加州大学的科学家撰写的题为“量子退火处理器中的纠缠”的论文,证实了D-Wave商用量子计算机中存在纠缠。 2014年6月,D-Wave建立量子应用生态系统,与DNA-SEQ和1QBit建立合作关系。DNA-SEQ和1QBit将开发利用D-Wave独特量子计算能力的软件应用程序。 2015年8月,将D-Wave Two升级为D-Wave 2X,可用量子比特数目增加到1000+。在1000+量子比特的情况下,在收敛到最佳或接近最优解时同时评估所有21000个可能的解决方案,比可观测宇宙中的粒子更多。



2015年9月,D-Wave宣布将向谷歌、美国宇航局和USRA(大学空间研究协会)的量子人工智能实验室提供技术。美国宇航局艾姆斯研究中心安装了新的D-Wave 2X。 2015年11月,洛斯阿拉莫斯国家实验室购买一台D-Wave 2X。D-Wave与洛克希德马丁签订多年协议,并将系统升级为D-Wave 2X。 2015年12月,谷歌和NASA宣布,在解决某些特定问题时,D-Wave量子计算机的运行速度比经典计算机快1亿倍。 2016年5月,D-Wave、1QBit与金融行业专家合作推出Quantum for Quants在线社区,以促进在复杂金融行业问题上的合作,并提供量子软件和硬件的使用。 2017年1月,发布了一个开放源码的量子软件工具,作为其构建和培育量子软件开发生态系统战略倡议的一部分。新工具qbsolv使开发人员能够利用D-Wave量子计算能力构建更高级别的工具和应用程序,而无需了解量子计算机的复杂物理。 2017年1月,发布2048量子比特系统D-Wave 2000Q,能够以更快的性能解决比以前更大的问题,向优化、网络安全、机器学习和采样等生产应用迈出了一大步。网络安全技术公司Temporal Defense Systems率先购买了第一台2000Q量子计算机,售价1500万美元。解决关键和复杂的网络安全问题。



2017年3月,谷歌和NASA的系统也升级为D-Wave 2000Q。7月,橡树岭国家实验室(ORNL)购买D-Wave 2000Q云服务以加速混合计算应用。 2018年8月,D-Wave利用其2000Q量子退火计算机首次证明了物质拓扑状态的大规模量子模拟。这种复杂的材料量子模拟是朝着减少耗时和昂贵的物理研究和开发的需要迈出的重要一步。 2018年10月,提供免费、实时访问D-Wave Leap™量子应用环境(QAE)。Leap是第一个提供实时访问实时量子计算机的基于云的QAE。综合软件工具、演示、实时代码、文档以及社区论坛。 2018年12月,D-Wave发布混合工作流平台,在Leap量子应用环境中构建和运行量子混合应用程序。 2019年5月,推出新的低噪声D-Wave 2000Q处理器,通过Leap提供给客户使用。低噪声处理器降低了量子退火系统中的环境噪声,证明了改进的性能、精度和对量子效应的影响。 2020年6月,NEC向D-Wave投资1000万美元,通过将D-Wave的组合优化量子退火技术与NEC的超级计算机相结合,开发能够高速解决大型组合优化问题的混合服务。新开发的服务将通过Leap 2云平台提供给客户。 2020年9月,发布5000量子比特系统D-Wave Advantage,每个量子比特与另外15个量子比特相连。这使得D-Wave Advantage比2017年推出的2000Q系统强大了许多倍,后者每个量子比特与另外6个量子比特相连。 

4、Rigetti Computing

 2013年,前IBM员工Chad Rigetti创办Rigetti Computing公司。2016年3月,Rigetti制造了有3个量子比特的超导量子计算芯片。



2017年,Rigetti在弗里蒙特修建了一个量子芯片制造厂Fab-1,这是美国唯一一个专门的量子集成电路铸造厂。同年,Rigetti工厂开始制造量子芯片,量子比特数量增加到8个。



2017年6月,Rigetti Computing发布了他们的自有云平台Forest——世界上第一个混合经典计算和量子计算的全栈编程和执行环境。Forest平台支持开发者将自己的部分运算外包到量子芯片上。这种方式最大限度地利用了当前极为有限的量子计算资源,只需要将能够在量子设备上提速最多的部分计算分配到Rigetti的实验芯片上。 在Forest的基础上,Rigetti于2018年正式推出了量子云服务(QCS),通过QCS,Rigetti的量子计算机可以集成到任何公共、私有或混合云中。 硬件方面,Rigetti也在不断迭代,2017年、2018年的两款芯片Acorn、Agave的量子比特数量分别为19个和8个,单量子比特门保真度在95%以上,但是双量子比特门操作保真度较低。2019年的Aspen-4和Aspen-7的量子比特数量分别为13个和28个,先后将单量子比特门保真度提升至99%以上,双量子比特门保真度提升至95%。



Rigetti最新的量子处理器(QPU)是在2020年5月20日部署的Aspen-8,拥有31个量子比特,单量子比特门保真度99.8%,双量子比特门保真度94.7-96.0%。



Rigetti正计划基于一种新的芯片架构制造一台128量子比特计算机。他们制造了128量子比特的处理芯片,并正在努力将所有的部件组合在一起。 下图为可扩展的Aspen芯片结构:一个量子位与其三个最邻近量子位之间的直接耦合;通过频率调制(参数)控制方式驱动的纠缠门;通过有源寄存器重置进行快速采样。



在升级硬件的同时,Rigetti也注重补齐自己在软件方面的短板,与多家量子软件初创公司合作推出开发者工具和应用程序,组成了一个类似IBM Q Network的小型联盟。



Rigetti开发了量子计算编程语言PyQuil,让开发人员使用Python编写量子算法,再将其翻译成Quil,可以实现量子线路的计算模拟、含噪声的量子逻辑门计算模拟,量子芯片的云端运行等功能。 2019年7月,Rigetti宣布收购澳大利亚的量子软件公司QxBranch。目前,QxBranch团队已经在与澳洲联邦银行(CBA)和UBS等公司合作开发应用程序。 2019年12月,亚马逊推出AWS Braket量子计算云服务,Rigetti为三家硬件提供商之一。 Rigetti拥有设计量子处理器(QPU)、控制系统的能力,同时提供量子计算云服务,开发量子计算编程工具。通过收购QxBranch提高Rigetti在软件开发、算法方面的能力。还有一些面向终端的应用程序。 截至目前,Rigetti是唯一一家为混合经典/量子计算部署全栈解决方案的公司,客户通过Forest云平台连接Rigetti一个19量子位的量子计算机,第一批商业应用已在探索之中。




2020年9月,Rigetti英国公司宣布,它将领导一个1000万英镑的财团,以加速量子计算在英国的商业化进程。这项为期三年的计划将在英国建造和运营第一台量子计算机,为合作伙伴和客户提供量子计算云服务,并在机器学习、材料模拟和金融领域寻求实际应用。加入Rigetti财团的还有牛津仪器、爱丁堡大学、量子软件初创公司Phasecraft和渣打银行。
 5、IonQ 马里兰大学的Chris Monroe和杜克大学的Jungsang Kim在2016年创办了IonQ,一年之内融资2200万美元。 2018年12月,IonQ发布一台离子阱量子计算机,在离子阱中存储了160个量子比特,在79量子比特长度上进行单比特门操纵,平均保真度>99%,最佳保真度>99.97%;在11量子比特长度上进行双比特门操纵,平均保真度>98%,最佳保真度>99.3%。



2019年2月,IonQ首次对水分子进行量子计算机模拟。精确地模拟水分子,接近计算化学领域实际应用所需的精度。水是有史以来在量子计算机上模拟的最复杂的分子之一,而IonQ系统实现的精度远远高于其他设备公开的模拟结果。 2019年3月,IonQ公布了两项严格的现实世界测试结果,结果显示,它的量子计算机能够以更高的精度解决比任何其他量子计算机更复杂的问题。 该基准测试使用了Bernstein-Vazirani算法和Hidden Shift算法,每一个都要求计算机从一组可能的数字中找出一个隐藏的数字。对于每一种算法,IonQ都用他们的11-qubit机器解决了所有可能的1024个隐藏数字,这比以前在量子计算机上尝试过的更困难。 2019年11月,微软在Ignite大会上宣布推出量子计算云服务Azure Quantum,为客户提供包括IonQ在内的3台量子计算机原型机的接入服务,这是IonQ量子计算机通过云首次进行商业化。 2019年12月,亚马逊推出AWS Braket量子计算云服务,IonQ为三家硬件提供商之一。 2020年9月,IonQ联合创始人Chris Monroe被任命为美国国家量子计划咨询委员会成员。 2020年10月,IonQ宣布制造出了世界上最强大的量子计算机,在一台拥有32个量子比特的机器上,预期实现超过400万的量子体积。该机型目前已上线,是IonQ在AWS上推出的首款产品。 Chris Monroe组的一篇论文透露,该系统单比特门保真度为99.98%,双比特门保真度为98.5%-99.3%。退相干时间T2为2.75秒。



6、霍尼韦尔 2014年美国情报高级研究计划局(IARPA)委托霍尼韦尔研制量子计算机,利用离子阱技术实现量子计算。 2020年3月,霍尼韦尔宣布将在未来3个月内推出世界上最强大的量子计算机,量子体积将至少达到64,计算能力将是IBM拥有53位量子比特的量子计算机的两倍。未来五年,其量子计算机的性能每年将提高10倍。 2020年6月,霍尼韦尔宣布,他们的科学家、工程师和技术人员团队已经制造出目前性能最高的量子计算机。这台离子阱量子计算机的量子体积为64,其性能是上一代量子计算机的两倍。



2020年7月,霍尼韦尔型号为HØ的6量子比特离子阱计算机(量子体积64)正式上市,该系统具有高保真度、完全连接的量子位以及诸如中间电路测量和量子位重用等特性,使量子开发者能够设计更深层、更有意义的电路。HØ系统完全可以通过云端访问,并与各种软件框架兼容。



2020年10月,霍尼韦尔量子团队宣布他们的量子计算机实现了128量子体积。在完全连接量子比特的情况下,平均单量子比特保真度为99.97%,双量子比特门保真度为99.54%。



上图显示了霍尼韦尔量子解决方案的量子体积测试的突破性成果以及每个测试通过的日期。 7、微软 早在1997年,在微软任职的物理学家Alexei Kitaev就提出了一个构建马约拉纳费米子并最终实现拓扑量子计算的理论。2005年,微软建立StationQ,负责研究拓扑量子计算。 2017年9月,微软在Ignite大会发布了量子开发工具包,包括专为量子计算开发的Q#编程语言、一款量子计算模拟器,表示能够在未来真正的拓扑量子计算机上运行。 2018年3月,荷兰代尔夫特理工大学的Leo Kouwenhoven团队在Nature发文,给出了马约拉纳费米子存在的更强有力证据。实验发现,电子在他们的导线中分裂成半体。



2018年5月,微软量子计算软件部门负责人Krysta Svore在Build大会上表示,他们将在五年内(到2023年)制造第一台拥有100个拓扑量子比特的量子计算机。具有100个拓扑量子比特的拓扑量子计算机的运算能力,最高可以相当于拥有1000个逻辑量子比特的量子计算机。



2019年3月,微软成立量子计算联盟Microsoft Quantum Network。 微软量子计算联盟主要包括三类成员,一是解决方案合作者,以从事量子计算软硬件开发的初创公司为主;二是下游潜在客户,例如福特、丰田等汽车厂商;三是研究机构,例如普渡大学、代尔夫特理工大学、加州大学圣芭芭拉分校等。



2019年3月,微软发布新版的微软量子开发工具包,包括两款新工具——Toffoli模拟器和资源估算器。
 2019年7月,微软宣布开源量子开发工具包(QDK),整合了所有的量子开发工具,包括Q#量子编程语言和编译器、入门示例和教程,以及量子程序的模拟器和资源估算器。开源QDK以便开发人员能够贡献量子应用程序和算法,以及在编译、优化和工具方面的进步。 2019年11月,微软宣布推出量子计算云服务Azure Quantum。将接入霍尼韦尔、IonQ、QCI和东芝的系统,以及1QBit的1Qloud云平台。其中,QCI的系统为Mukai量子软件开发和执行平台,东芝的系统为模拟分流机(SBM)。 2020年9月,微软宣布与哥本哈根大学合作成功实现了一种重要的、有希望用于拓扑量子计算机的材料。有了这种新材料,就有可能在没有磁场的情况下实现拓扑状态。新材料有望应用于拓扑量子比特,从而实现真正的拓扑量子计算机。



2020年9月,微软推出了量子程序的中间表示,称为量子中间表示(QIR),作为基于门的量子计算编程语言和目标量子计算平台之间的通用接口。QIR于9月23日推出,基于LLVM中间语言,它指定了在LLVM中表示量子结构的规则。不需要对LLVM进行扩展或修改。 8、英特尔 早在1998年,美国马里兰大学物理学家Bruce Kane就提出了制造固态量子计算机可以使用嵌入硅的磷原子的核自旋(nuclear spin)来实现。2012年,澳大利亚新南威尔士大学Michelle Simmons团队制作了可以工作的单磷原子晶体管。 2015年9月,英特尔向荷兰代尔夫特理工大学(TU Delft)与荷兰应用科学研究组织(TNO)合建的QuTech研究所投资5000万美元并建立战略合作关系。计划用十年时间加速量子计算研究,以解决更多的复杂问题。 2017年10月,英特尔向QuTech交付了17量子比特超导芯片。 2018年1月,英特尔在CES 2018上推出了49位超导量子测试芯片Tangle Lake。该芯片是以阿拉斯加的湖泊链命名的,充分体现了量子位运作所需的极寒温度和纠缠态。


 
在2018年2月美国科学促进协会(AAAS)年会上,QuTech展示了一个双量子比特自旋量子计算机,它可以实现执行两个简单的量子算法的编程。 英特尔在其300毫米制程技术上发明了自旋量子超然绝俗制造流程,采用专门用于生产自旋量子比特测试芯片的同位素纯晶圆,并能和英特尔先进的晶体管技术一样,在同一个设施中制造。 英特尔认为硅自旋量子比特比超导量子比特更有优势,首先硅自旋量子比特在物理尺寸上要小得多,它们的相干时间预计也会更长。还有一个优势,硅自旋量子位可以在更高的温度下工作,即从接近绝对零度提升至1开氏度,在宏观层面提升1开氏度看起来微不足道,但在原子层面已经是重大突破。 2018年6月,英特尔位于俄勒冈州的工厂制造出了一种微小的新型自旋量子比特芯片,并开始测试,它使用了英特尔用以制造数十亿传统计算机芯片相同的硅制造技术。 2019年3月,英特尔、Bluefors和Afore公司推出了首款cryoprober,这是一款低温晶圆探测器,旨在加快量子计算解决方案的研究。英特尔借助量子测试工具来收集更多关于量子芯片的数据。 2019年12月,英特尔实验室发布首款低温控制芯片Horse Ridge,实现了对多个量子比特的控制,以加快全栈量子计算系统的开发步伐。 通过用高度集成的系统芯片(SoC)来代替庞大的仪器,将简化系统设计,并允许使用复杂的信号处理技术来加快设置时间、改善量子比特性能,并使系统能够高效扩展到更多的量子比特。 Horse Ridge以俄勒冈州最冷的一个地区来命名,能够在大约4开氏度的低温下工作。


Horse Ridge技术指标 2020年4月,英特尔与QuTech共同在Nature上发表论文,证明了在高于1开氏度下能够成功控制“高温”量子比特。英特尔和QuTech还证明了能够控制双量子比特系统电子自旋的能力,并测量出单量子比特门保真度99.3%,且可对系统进行精确调整。 9、亚马逊 2019年12月,AWS宣布推出量子计算服务Amazon Braket,是一项全新的、完全托管的AWS服务,让科学家、研究人员和开发者能够在一个地方开始试验来自量子硬件提供商(包括D-Wave、IonQ和Rigetti)的计算机。 2020年8月,亚马逊宣布了Amazon Braket的全面上市,作为完全托管的AWS服务,Amazon Braket可提供开发环境来帮助客户探索和设计量子算法。Amazon Braket现已在美国东部的弗吉尼亚州、俄亥俄州和美国西部的加利福尼亚州、俄勒冈州上市,并且未来还会计划更多地区。



客户可以在使用Amazon EC2计算资源的量子计算机模拟器上运行,测试其算法并对其进行故障排除。准备就绪后,客户便可以在自己选择的量子计算机上运行其算法,无需聘请多个提供商或采用单一技术。 除了运行量子算法之外,客户还可使用Amazon Braket来运行混合算法,在该算法中,量子和经典计算系统的结合使用可以帮助克服当今量子技术固有的局限性。 Amazon Braket目前客户包括富达投资集团、大众汽车、Enel、安进、Rahko、Qu&Co等。 10、Slicon Quantum Computing 2016年6月,新南威尔士大学(UNSW)Michelle Simmons教授团队利用量子比特在单原子层面展示了一个系统。该团队的研究表明,硅比特可以使其量子态比超导回路形成的量子态长近100万倍,这可以让硅比特以仅相当于超导回路1/6的误差运行。 2017年8月,新南威尔士州政府、新南威尔士大学、联邦银行、澳洲电信、澳大利亚政府共同创办了澳大利亚第一家量子计算公司Silicon Quantum Computing(SQC),促进Simmons团队的专门技术开发及商业化。 2019年1月,Simmons团队提出全球首款3D原子级硅量子芯片架构,朝着构建大规模量子计算机迈出了重要一步。 2019年5月,SQC首次测量了硅双量子比特操作的精度,平均两个量子比特门的保真度为98%。 2019年7月,Simmons团队完成了在硅量子比特上的第一个双量子比特门,这是硅材料量子比特门中最快的,其可在0.8纳秒内完成一个操作,比现有自旋双量子比特门快200倍。 2020年3月,SQC宣布已经采取措施完善和集中其技术开发计划,以确保其实现其目标,即在2023年前制造出10个量子比特的硅量子处理器原型,并计划将商业实用的量子计算推向市场。 2020年9月,前谷歌量子硬件开发团队负责人John Martinis加入SQC。Martinis加入SQC的决定是对该公司在原子尺度构建硅基量子计算机这一方法的重要肯定。


Simmons和Martinis 2020年10月,SQC刷新了有史以来的半导体量子比特的最低噪声水平。SQC通过将该研究成果与在1微秒内读出量子比特信息的能力相结合,实现了双量子比特门保真度99.99%。

三、中国量子计算企业情况

 1、本源量子 ·基本信息 公司全称:合肥本源量子计算科技有限责任公司成立年份:2017年9月融资情况:种子轮+天使轮(8000万)总部:合肥高新区官网:www.originqc.com.cn ·公司概况 合肥本源量子计算科技有限责任公司(简称“本源量子”)成立于2017年9月,国内量子计算龙头企业,总部位于合肥高新区,并在北京、上海、成都、深圳等地设有分支机构。团队技术起源于中科院量子信息重点实验室,以量子计算机的研发、推广和应用为核心,专注量子计算全栈开发,各软、硬件产品,技术指标国内领先,知识产权成果四百余项。 ·业务版图



·核心人员
 郭国平 本源量子创始人兼首席科学家中国科学技术大学物理学院教授、博士生导师,中科院量子信息重点实验室副主任,中科大国家示范性微电子学院副院长,国家重点基础研究发展计划首席科学家,国家杰出青年基金获得者,科技部创新领军人才,长江特聘教授青年学者。 郭光灿 本源量子联合创始人兼科学顾问中国科学技术大学中科院量子信息重点实验室主任、物理系教授;中科院方向性项目首席专家,国家科技部973项目“量子通信和量子信息技术”的首席科学家。北京大学物理学院、中科院-北京大学超快光科学和激光联合中心双聘院士,华南师范大学双聘院士。 ·主要产品 量子计算机研发进展 1)量子计算机 ①真实量子计算机 本源量子云接入6比特超导量子计算服务,以云端接入方式实现真实量子芯片的完整后端体验。未来将接入半导体量子计算服务。 -超导量子计算机-悟源超导量子计算机,指以超导约瑟夫森结为物理基础形成的量子计算物理体系。 -半导体量子计算机-悟本半导体量子计算机,指结合和利用现代半 导体工业产线技术制备量子芯片,通过电场、微波等方式操控及读取量子比特信息的量子计算物理体系。 ②虚拟量子计算机 在真正的量子计算机没有成型之前,需要使用量子虚拟机承担量子算法、量子应用的验证的问题。本源量子虚拟机目前开发了四种国际前沿的虚拟机类型,分别是单振幅量子虚拟机、部分振幅量子虚拟机、全振幅量子虚拟机、含噪声量子虚拟机。 



2)量子芯片 本源量子芯片分为量子计算芯片、新型量子功能芯片、量子芯片封装三大类,主要涵盖通用量子计算机中央处理器(QCPU)、专用量子模拟机中央处理器(QSPU)、IMPA、量子比特微波传感器、量子行波参量放大器以及各类芯片封装的研制生产、应用及销售。 ①玄微XW B2-100 本源第一代半导体二比特量子处理器



②玄微XW S2-20 本源量子第二代硅基自旋二比特量子芯片



通过调节栅电极上的超快电脉冲以及微波脉冲,实现了硅基半导体自旋量子比特的单比特和两比特普适量子逻辑门单元。
 ③夸父KF C6-130 本源第一代超导六比特量子处理器



超导量子芯片是基于对超导约瑟夫森结构进行改造,构造出超导量子比特,并通过“量子数据总线”来实现6个超导量子比特的任意两两相互耦合。利用精确设计的脉冲序列,可以实现高保真度的量子逻辑门操作,进而能够设计并演示量子算法。
 3)量子云 现阶段的量子计算机受制于严苛的硬件运行环境,还无法脱离实验室的存在。利用云端接入的方式使用量子计算机或者由本源部署好的虚拟量子计算机去构建量子计算程序,可以允许用户轻松实现量子计算及其程序的开发运行。 4)应用系统
ChemiQ是运行量子程序的化学应用系统,主要用来模拟化学分子在不同键长下对应的能量,并可以查看和分析历史计算结果。 为了管理用户计算的结果,软件里面会有“项目”的概念,一个项目可以有多个“计算”,每个“计算”都分别对应着自己的一份参数配置。
量子化学应用系统


量子测控进展 从0到1:本源量子成功研发完全自主知识产权量子计算机控制系统——32位量子测控一体机Origin Quantum AIO。 本源量子在2018年12月发布了第一代国产量子计算机控制系统——本源量子测控一体机Origin Quantum AIO,在经过不断更新优化后,本源量子为用户带来了全新的32位量子计算机控制系统(以下简称32位量子测控一体机)。


左为32位量子测控一体机,右为8位量子测控一体机
 该32位量子测控一体机能提供量子芯片的运行环境与接口,提供量子芯片所需的精密信号生成、采集、控制与处理,使得量子芯片最大程度发挥其性能优势。32位量子测控一体机在整体性能上全面继承了“悟源”中的第一代8比特量子测控一体机的水平,本源量子为此成果研制了更专业、更强大的量子测控软件,因此使用该量子测控一体机进行更大规模量子计算机的控制与应用时更加高效,当量子计算机的规模超出科研人员可以控制的程度时,量子测控一体机将替代科研人员完成任务,保障量子计算机的运行。量子测控一体机目前可用于超导量子芯片,并提供诸多功能选件供用户选择。 量子应用软件进展 基于自主研发的量子编程框架QPanda与量子编程语言QRunes,本源量子团队开发出复杂网络排序应用、手写数字识别应用、用户偏好行为预测应用等三款典型的量子计算编程应用。 OriginIR
EmuWare Qurator QPanda ·量子教育进展 1.重点培养“无人区”青年才俊:本源重磅发布本源量子计算全物理体系学习机,该学习机通过3D虚拟仿真实验室、量子计算微课堂、量子计算GUI编程以及量子开源社区等,为学习者建立了理论、实验、实践、交流一体的量子计算学习生态环境,助力培育量子计算的专业人才。 2.着力打造量子计算公益教育平台:为量子计算相关行业人员与社会大众提供科研加科普教育的融合平台,推动量子计算技术的普及,本源量子计算体验中心暨量子计算教育科普基地自今年8月面向公众免费开放。 本源量子曾推出本源溯知教育平台、量子计算系统课程、国内第一部专业的量子计算与编程教材《量子计算与编程入门》教材等系列学习产品,帮助不同使用者找到适合自己的学习方式,助力培养量子计算行业人才。 ·量子计算产业联盟动态 为加速量子计算技术开发,探索量子计算应用落地,培养量子计算生态圈,推动量子计算技术服务惠及国人,本源量子于2018年8月,成立本源量子计算产业联盟OQIA。联盟以汇聚各行业合作伙伴,共同推进量子计算实用化进程为宗旨。 1.本源量子计算产业联盟(OQIA)成员安徽瀚海博兴生物技术有限公司发布与本源量子联合研发的新型冠状病毒检测试剂与量子计算联合应用成果。 2.本源量子与建信金融科技有限责任公司签署战略合作协议。



·知识产权情况 知识产权产业媒体IPRdaily与incoPat创新指数研究中心联合发布了“全球量子计算技术发明专利排行榜(TOP100)”。本源量子以77件专利跻身全球第七,较上年度提升五位,是国内唯一进入前十的量子计算公司。



·企业成就 1.2017年10月11日,由合肥本源量子计算科技有限公司联合中科院量子信息重点实验室发布的“本源量子计算云平台”上线。这也是世界上首个上线的基于半导体量子芯片的量子计算云平台投用,平台同时采用了超导量子芯片。


2.2018年1月11日,合肥本源量子计算科技有限公司的“本源量子计算云平台” 新版本Beta2.0正式发布。基于国内首创的“量子音符”QRunes量子语言,该平台成功搭建32位量子虚拟机,与国际通用的量子语言相比,算法效率更高、更具可操作性。


3.2018年12月6日,本源量子2018年度产品发布会在本源量子云展厅召开。此次发布的是首款国产量子计算机控制系统——本源量子测控一体机OriginQ Quantum AIO,该产品能够实现对大型量子芯片的精准测控。


4.2019年1月底,本源量子发布Qurator-VSCode量子程序开发插件和量子机器学习框架VQNet,并成功上线本源量子云平台3.0。


5.2019年12月12日上午,由合肥高新区管委会主办,合肥本源量子计算科技有限责任公司承办的“量子赋能 产业融合”大会暨本源量子计算产业联盟OQIA揭牌仪式在合肥高新区成功举办。


6.2020年8月6日,本源量子计算体验中心暨量子计算科普教育基地开幕,正式免费对外开放。
7.2020年9月7日,建信金融科技有限责任公司与合肥本源量子计算科技有限责任公司签署战略合作协议。


8.2020年9月12日,本源完全自主开发的超导量子计算云平台正式向全球用户开放,该平台基于本源量子自主研发的超导量子计算机——悟源(搭载6比特超导量子处理器夸父 KF C6-130)。 

2、华为

 网址:https://hiq.huaweicloud.com/ 华为在2017年的《创新研究计划公开项目》中首次提到了超导量子计算、量子算法方向的研究规划。2018年1月,华为就开始着手组建量子计算研发团队,邀请南方科技大学物理系副教授翁文康,担任量子计算软件与算法首席科学家。 ·核心产品 量子计算云平台HiQ 2018年10月12日,华为在全联接大会上首次发布了量子计算模拟器HiQ云服务平台。HiQ 1.0包括量子计算模拟器与基于模拟器开发的量子编程框架。 在此基础上,2019年6月翁文康团队研制了华为昆仑量子计算模拟一体机原型,采用HiQ编程架构,搭载量子计算模拟器和昆仑服务器9032。 2019年全连接大会,华为发布了HiQ 2.0量子计算软件解决方案,推出业界首个一站式VQE量子化学模拟云服务,助力量子化学应用研究。 相较于HiQ 1.0版本,此次HiQ2.0版本推出了业界首个一站式量子化学应用云服务及对应的软件包 HiQ Fermion,新增云端脉冲优化设计服务及对应的HiQ Pulse软件包。 2020年全连接大会,华为发布了HiQ 3.0量子计算模拟器及开发者工具。 新增两个核心模块:量子组合优化求解器HiQ Optimizer和张量网络计算加速器HiQ Tensor,同时升级HiQ Circuit、HiQ Fermion、 HiQ Pulse等多个模块,使得HiQ系统功能更完善、性能更优越,可适配更多应用场景。


 

3、阿里巴巴达摩院量子实验室

 网址:https://damo.alibaba.com/labs/quantum 2015年7月,中国科学院-阿里巴巴量子计算实验室在上海成立。2017年9月,密歇根大学终身教授施尧耘入职阿里巴巴,组建并负责阿里云量子计算实验室(达摩院量子实验室)。 达摩院量子实验室以实现量子计算潜能为己任。国际化团队横跨杭州、北京和西雅图三地,全栈式研发贯穿量子芯片、系统、算法和应用四层。2019年9月,阿里巴巴完成了第一个可控的量子比特的研发工作,该量子比特的设计、制备和测量全部是自主完成。 ·研究方向 量子处理器和量子计算系统设计和实现量子处理器,量子存储,和量子计算系统。 量子算法快速的量子以及量子-经典混合算法。 量子物理模拟量子物理的经典和量子算法模拟。 ·核心人员 施尧耘 达摩院量子实验室负责人 北大计算机本科、普林斯顿计算机博士。在加州理工学院的量子信息中心做博士后研究后,他加入密歇根大学安娜堡分校,历任电子工程和计算机科学助理教授、副教授和正教授。研究涉猎量子信息科学的多个领域,包括量子计算复杂度、量子计算经典模拟和量子密码学。他在阿里巴巴致力于建设一个跨学科的国际团队,以实现量子计算颠覆性的潜力。 邓纯青 量子计算硬件负责人 加拿大滑铁卢大学量子计算研究所博士,曾任D-Wave高级科学家,领导新一代量子处理器的研发工作。 ·核心产品 阿里云量子开发平台 阿里云量子开发平台(AC-QDP)利用阿里巴巴的海量计算资源来支持针对量子计算机的应用以及量子计算机本身的研发。目前,AC-QDP的计算引擎是量子电路的经典模拟器太章。 太章 太章是一个量子计算的经典模拟器,或者是一张量收缩的计算系统。太章借助阿里巴巴强大的分布式计算平台,成功模拟了一些作为基准的中间规模的量子电路。太章模拟器正在成为阿里巴巴基于张量的量子激发经典计算系统里的计算引擎。它将是研发量子计算物理实现和应用的核心工具之一。 

4、百度量子平台

 网址:https://quantum.baidu.com/ 2018年3月,百度宣布成立量子计算研究所,将致力于量子计算软件和信息技术应用业务研究,由悉尼科技大学量子软件与信息中心主任段润尧教授担任研究所所长。 ·核心人员 段润尧 清华大学计算机系博士,悉尼科技大学终身教授、澳大利亚研究理事会Future Fellow。自2001年起从事量子计算和量子信息技术,特别是有关量子信道容量、量子信息分辨、量子纠缠、量子程序设计、以及量子算法等方向的研究。 ·核心产品


量脉 量脉旨在打通量子软件层和硬件层,根据量子算法自动、高效地生成高保真脉冲序列。目前包含量脉超导和量脉核磁两套脉冲计算系统,分别适用于超导电路和核磁共振平台。今后将支持更多类型的量子硬件平台。 量桨 国内首个量子机器学习开发工具量桨(Paddle Quantum),是一个基于百度开源框架PaddlePaddle的机器学习库,支持量子神经网络的搭建与训练。该机器学习库提供了量子机器学习开发者套件,对各种量子应用开发提供了应用工具包。 量易伏 量易伏量子云平台通过云端对量子硬件后端进行访问。通过百度自研的高性能模拟器,用户通过普通的笔记本电脑,便可运行28个量子比特的量子随机线路模型。量易伏具有极好的适用性,不论是专业开发者还是量子研究员,还是量子计算爱好者,都可以找到适合自己的前后端。 

5、腾讯量子实验室

 腾讯量子实验室旨在研究量子计算与量子系统模拟的基础理论,以及在相关应用领域和行业中的应用。实验室在腾讯云上研发计算化学软件和平台,建立化学及制药,材料,能源等相关领域的生态系统。实验室开发新的量子组合算法和量子AI算法,进行实验验证和比较研究。实验室研制量子系统,筹建云平台接入。 网址:https://quantum.tencent.com/ ·核心人员 张胜誉 腾讯量子实验室负责人 量子算法、计算复杂性与量子人工智能国际专家;香港中文大学终身教授。 本科毕业于复旦大学,硕士毕业于清华大学,师从应明生教授。博士毕业于普林斯顿大学,师从姚期智教授。后在加州理工学院跟随John Preskill, Alexei Kitaev及 Leonard Schulman教授做博士后研究。在理论计算机科学,量子信息处理,人工智能等方面的顶级会议上发表数十篇文章,并于多个国际期刊任编委。 ·核心产品 量子计算云平台、化学计算云平台 2017年初,腾讯就进军量子计算。葛凌(Ling Ge)教授以腾讯欧洲首席代表身份加入腾讯,被认为是腾讯布局量子计算的开端。2018年初,香港中文大学著名量子理论计算机科学家张胜誉教授加盟,搭建腾讯量子实验室,担当起领导并拓展这个团队的重任。 2018年,腾讯提出用“ABC2.0”技术布局(AI、RoBotics、Quantum Computing),构建面向未来的基础设施,探索推动以技术服务B端实体产业。在2019年的全球数字生态大会上,腾讯量子实验室集中向外界展示了量子AI、化学相关行业初探、Simhub科学计算平台等几大核心研究成果。 随后,腾讯量子实验室联合加拿大Vector Institute of Artificial Intelligence,公开自研的分子量子性质数据集,发起Tencent Alchemy 2019竞赛,关注算法的泛化性能,推动学术界与产业界聚焦化学中分子的量子性质问题,以及AI解决方案。 6、国盾量子 ·基本信息 公司全称:科大国盾量子技术股份有限公司成立年份:2009年5月27日融资情况:IPO上市总部:合肥市高新区官网:www.quantum-info.com ·主要产品
ezQTM Engine超导量子计算操控系统针对超导量子计算实现方案中对量子比特的驱动需求及状态读取需求,可以通过单套ez-QTM Engine设备快速开展实验。其便捷易用性可以满足实验的初步建设,有可以具有它的扩展性,迅速搭建大规模的实验系统。


ezQTM Engine超导量子计算操控系统


中国知名的中科大超导量子朱晓波团队,应用该套系统多年,取得了:12bit“簇态”纠缠态的制备(PRL)、强关联量子行走(Science)、24超导比特的高精度量子相干调控(PRL)等成绩。并成功应用到中国首台云端超导量子计算平台。 

7、启科量子

 ·基本信息 公司全称:国开启科量子技术(北京)有限公司成立年份:2016年4月14日总部:北京市海淀区官网:www.qudoor.cn ·公司概况 启科量子正式成立于2019年1月,是中国首家在量子通信、量子计算、量子传感领域均拥有自主核心技术与产品开发能力的高新技术企业。公司致力于发展千比特分布式量子计算机,帮助用户推动计算能力、运营成本和速度的改进并从中受益。公司已承担多项量子信息领域国家行业标准编制工作。 ·业务版图 量子设备:量子通信、量子计算、量子传感信息服务:用于安全通信的终极量子安全解决方案,启科量子加密迅捷和超安全的解决方案,以确保通信渠道的未来发展。 ·核心人员 罗乐 量子计算首席科学家 曾任美国国家标准研究院联合量子研究所研究科学家,美国光学学会光学冷却与囚禁专委会委员,中山大学教授,量子信息与测控科研团队学科带头人,从事原子分子光物理学研究二十年来,在超冷费米原子凝聚和囚禁离子量子信息等研究中,取得过一系列国际瞩目的重要科学成果。 ·主要产品 分阶段实现百比特至千比特分布式离子阱量子计算机。



·应用领域 量子信息、时间分辨荧光探测、光通讯、集成电路 ·企业成就 1.2019年1月,启科量子成立。2.2019年10月,公司首先落地的产品是高速城域量子保密通信系统QCS-280,具有完全自主知识产权,是国内目前唯一可达到电信级别产品标准的量子保密通信设备,性能及稳定度已达到国际先进水平。3.截至目前,启科量子已注册13个商标,专利信息达22项,软件著作权达12项。 

8、昆峰量子

 网址:www.kfquantum.com 昆峰量子成立于2018年12月,从“助力量子技术应用”这一愿景入手,结合自身核心技术团队的工程化、应用化优势,在以下众多方面进行技术储备与研发突破: 1)基于高性能经典计算助力量子计算的应用研发,如量子算法加速、量子系统模拟、量子机器学习等方向,探索量子计算在不同行业的实际应用; 2)基于丰富的量子器件研发经验,支持量子计算芯片、量子传感器等各类量子器件的设计与制备优化以及研发的全流程支持。 3)基于多年大型复杂软硬件系统的研发经验,支持量子计算原型机、量子传感器系统等复杂软硬件系统开发,包括咨询、设计、架构以及工程集成开发。 ·核心产品

2019年9月30日,昆峰量子发布了“昆冈”量子计算(模拟)云平台1.0版本。昆峰量子以此为基础,和国内外多家科研机构与企业积极合作,探索量子计算在多个行业领域的实际应用。 2020年9月30日,昆峰量子宣布“昆冈”量子计算(模拟)云平台2.0版本正式对外提供服务。2.0版本新增对经典量子混合式编程的支持,包括远程调用接口API与基于网页的集成开发环境IDE;此外,在模拟性能、易用性、可靠性等多个方面均比之前的1.0版本有着显著提升。 昆冈2.0版本支持40量子比特的量子电路模拟,现对外免费开放36量子比特的模拟能力;一体化集成的经典量子混合编程框架,向量子研发人员提供相对友好的交互界面;云原生的工程架构,拥有高可靠性、高可扩展性,可以根据需要支持不同级别的备份及容灾。


Grover算法
9、量旋科技 ·基本信息 公司全称:深圳量旋科技有限公司成立年份:2018年8月27日融资情况:天使轮(策源创投 明势资本)总部:深圳市福田区官网:www.spinq.cn ·公司概况 SpinQ 扎根于量子计算领域,专注于桌面型核磁共振量子计算机、量子计算测控系统、以及量子计算相关软件的自主研发,推动量子计算的普及化和商业化,让量子计算改变世界。


·主要产品 1.桌面型量子计算机



2.量子计算测控系统
 对量子比特进行操控和测量的射频模块,为量子计算的核心模块,我们提供集成硬件、算法和软件的一体化解决方案。 3.量子计算云平台 全球第一个开放底层脉冲控制的量子计算云平台,提供专业级的科研量子计算实验平台。 云平台网址:http://cloud.spinq.cn/



·企业成就 1.2018年8月27日,深圳量旋科技(SpinQ)正式注册成立 致力量子计算商业化和普及化


2.2018年11月10日,量旋科技发布首款开放控制层的核磁共振量子云平台。


3.2019年4月3日,量旋科技发布桌面型量子计算教学仪器。


4.2020年1月6日,量旋科技在全球最大的量子计算会议(QIP)上发布全球首款2比特桌面型核磁共振量子计算机。


5.2020年10月14日,在ICT2020·中国高层论坛之量子计算论坛上,量旋科技重磅发布了最新一代通用量子云平台“金牛座”。

四、核心设备及元器件

 就如经典计算机类似,量子计算机概括地说也由三个部分组成,分别是存储器、处理器、输入和输出系统。量子存储器用来保存当前机器的状态,处理器则能够对机器状态执行各种基本操作。经典信息论要求一切“合理”的信息都能够表达为对一系列是非问题的回答,即一串比特。经典符号计算的每一步都可以映射到位串上,但与之不同的是,物理计算只需要对初始和最终机器状态进行标记即可,而这些标记就构成了计算的输入和输出。 具体来看,量子计算机的基本构件还细分有多种元素,这里以D-Wave量子计算机为例。SQUID量子晶体管,也叫超导量子比特晶体管,是量子计算机的基本组成部分。图中展示的是一个超导量子比特的示意图,图中的大环是由铌金属制成的,而当这种金属冷却下来,它就变成了所谓的超导体,并开始表现出量子力学效应。耦合器也是由超导回路制成,为了从单个量子比特处理器升级到多量子比特处理器,量子比特必须通过耦合器连接在一起,才能互相交换信息。除此之外,处理器还需要几个额外的组件来构成支持电路,进行寻址、编程和读取量子位。每个量子比特都附有读出装置,在计算过程中,这些器件不活动,并且不影响量子比特的行为。计算完成后,量子比特最终进入经典的0和1的状态,读数能够用来查询每个量子比特所持有的值,并且将答案以0和1的位串形式返回给最终用户。


超导量子比特 
与此同时,量子处理器的外部支持组件也有着重要作用。首先是量子处理单元的封装。要构建一个量子计算机,就需要从晶圆中选择其中一个量子处理单元(QPU)并放置在QPU封装系统的中心,才能被连接到信号线。其次是稀释冰箱,它是一个用来冷却量子处理器的制冷系统,能够让输入输出系统在其所需的绝对零度条件下顺利运行。磁屏蔽系统由经过严格过滤,并为单个QPU最佳运行而设计的线路组成,这是输入输出系统对所涉及的材料提出的又一个要求。除了内部的磁屏蔽,还需要屏蔽外壳来屏蔽射频电磁噪声,信号在屏蔽外壳的内部和外部之间拥有一个唯一的数字光通道。最后,D-Wave量子计算机的QPU编程使用的是一个基于云的模型,这意味着系统可以在任何与互联网连接的位置进行远程编程。



上图演示了量子计算机的运作流程。首先将任务发送到云中排队,再将其发送到控制/测量计算机中。在微波电子设备中将信号混频到可以数字化的频率后,测量脉冲将在控制脉冲之后沿着相同的同轴电缆下降。测量脉冲通过读出谐振器与量子比特的相互作用,并被反射出去由循环器传送。设备内部的隔离器可以防止噪声进入量子比特,通过4K放大器放大信号后,微博电子设备再将信号混频到可以数字化的频率。混合后的信号通过经典计算机进行数字化处理,将结果分成0或1,最后可通过云发送至任务发布者手中。 超导量子计算发展到今天,依赖的技术大多是现有的成熟技术。这主要是因为超导量子处理器的规模还不是很大,从设计、制备、测试到操控,都可以直接用商用的仪器设备或经过简单的改造实现,和常规的科学研究课题没本质区别,可以完全按照基础科研的模式开展研究。 当超导量子处理器规模达到几十个比特甚至更大以后,大部分商用仪器已经无法满足需求,甚至现有技术都无法满足需求,需要系统性地从头开发整套的仪器设备和技术,这包括: 

1、超导量子处理器芯片

 超导量子计算机的核心部件是超导量子处理器芯片,和半导体集成电路芯片一样,规模大了以后纯靠人手工无法完成设计、仿真,需要EDA软件辅助设计和仿真。 超导量子处理器芯片基于独特超导约瑟夫森结这种非线性器件,基本组成单元是量子器件而不是传统电子学元件,和半导体芯片电路特性完全不同,电路原理和结构设计遵循完全不同的逻辑,不可能直接使用现有的半导体芯片设计EDA软件,需要重新开发。 英特尔在2019年12月发布了一款以美国俄勒冈州最冷的地方为名的Horse Ridge芯片,旨在承担量子计算机上的线缆工作,并将芯片和电子元件缩小到只有茶碟大小。该芯片被设计为能够放在冰箱里面,让未来的量子计算机更加实用。 Google Sycamore量子计算芯片具有数十条微小的通讯线可链接到外界。该芯片有54个量子比特,这是用于在量子计算机存储和处理数据的基本单元。谷歌用结合在一起的两个部分来构建其Sycamore量子计算芯片:左侧是与外界通信的控制器接口,右边是容纳执行数据处理的量子比特的芯片元素。如果仔细观察,还能够发现介于两者之间有一个由铱点组成的“Google”图案。 

2、大规模超导量子芯片制备产线,类似于半导体芯片制备产线

 超导量子处理器芯片基于超导材料,对制备和工艺有特殊要求,这意味着芯片制备需要专门的工艺和设备产线。目前量子计算硬件制造所面临的挑战实质上是从小规模、学术驱动的现状,过渡到工业上可行的突破。现阶段,行业内的研究目标是实现一种类似于半导体集成电路的可扩展公式,以提高量子位接口的质量以及量子处理器的可扩展性。 

3、大功率极低温制冷机

 超导量子处理器只能在10mK左右的极低温(约零下273.14度)下才能工作,而且还要提供足够的制冷功率,目前能做到的只有稀释制冷机。在此低温下运行的主要原因有三点。 首先,绝对零度可以使超导量子比特进入超导状态从而避免了正常态的电阻损耗,因而提高了超导量子比特的量子特性。其次,超导是产生非线性Josephson效应的必要条件,而Josephson效应是形成超导量子比特的直接原因。第三,超低温可以尽可能地减少热运动导致的能带变宽,能够更好地保证量子比特的相干性。因此,将样品冷却到超低温是进行超导量子计算的先决条件。这样低的温度只能利用He3-He4稀释制冷机来获取,这也是世界上几乎所有超低温实验室里所应用的设备。当前的稀释制冷机技术仅能做到满足数百个比特的需求,支持更大规模的量子芯片的技术仍是一个待研究的课题。



上图所示为稀释制冷机的内部构造,从上至下依次为量子比特信号放大器、微波输入线、超导同轴电缆、低温光电隔离器、混合室、量子放大器、低温盾。为了保护量子比特在向处理器发送收缩信号和读出信号的过程中不受热噪声的影响,稀释冰箱的每一个阶段都进行了衰减。此外,为了将能量损失降到最低,在第一和第二放大级之间直接传递信号的同轴线是由超导体构成。低温光电隔离器能够使量子比特的信号继续向前,同时也能够防止噪声影响量子比特的质量。在冰箱最底部分的混合室提供了必要的冷却电源,这里能够将处理器和相关部件的温度降低到比外层空间低15mK的温度。
 谷歌量子计算机在运行时,所有复杂的设备都被隐藏起来,并冷藏到接近绝对零度。谷歌没有为其量子计算机设置冷藏箱,其多层结构是从上到下下降的,每层都冷却到较低的温度。量子比特存储量子计算芯片所在的底层仅比绝对零度高出一点。 当然,如果做到一百万个量子比特被证实在实际中是很难实现的,实用量子计算也不是完全没有希望。我们通常所说的实用量子计算需要百万级别的量子比特,是基于已知的量子算法和现有的比特操控错误率,但不管是量子算法还是比特操控错误率,将来都有可能出现新的突破。 一方面,制备工艺、量子调控技术的提升会让物理比特的出错率降低,大大降低实际需要的物理比特数,另一方面将来有可能提出全新的实用量子算法,对量子比特出错阀值有更低的要求,也会大大降低实际需要的物理比特数量。 这两方面的突破很有可能在不久的将来,在人类实现通用量子计算这个遥远目标前,为量子计算带来一些近期的有价值应用,量子人工智能就是其中的一种可能。毕竟,原始人即使最终驯服不了野牛来耕地,用野牛干点别的也是有可能的。

五、系统软件、语言与算法


1、量子算法


在量子计算中,量子算法是一种在量子计算的现实模型上运行的算法,最常用的模型是量子电路计算模型。经典(或非量子)算法是指令的有限序列,或解决问题的分步过程,其中每个步骤或指令都可以在经典计算机上执行。同样,量子算法是一个分步过程,其中每个步骤都可以在量子计算机上执行。虽然所有经典算法也可以在量子计算机上执行,量子算法通常用量子计算的一些基本特征,如量子叠加或量子纠缠。 使用经典计算机无法避免的问题现在仍然无法使用量子计算机解决。量子算法能够比经典算法更快地解决一些问题,因为量子算法利用的量子叠加和量子纠缠可能无法在经典计算机上有效地类比。 最著名的算法是Shor的因子算法和Grover搜索非结构化数据库或无序列表的算法。Shor的算法执行速度比最有名的保理经典算法(一般数位栏位筛)快得多,几乎呈指数级。Grover的算法以四倍速度执行线性搜寻,比同一任务的最佳经典算法快。 量子算法简史 1.1985年,Deutsch提出第一个量子算法。


2.1992年,David Deutsch和Richard Jozsa提出Deutsch - Jozsa算法,这是第一个有着指数级加速的量子算法。


3.1994年,Shor提出分解大数质因子算法,这个算法在分解大数质因子具有指数级加速,同时也发展出基于傅立叶变换的量子算法。


4.1995年,主要由Kitaev提出量子相位估计算法,这个算法是许多其他量子算法的子例程。


5.1996年,Grover提出量子搜索算法,这一算法对于数据搜索具有二次方加速。


6.1996年,Sazuki、Trotter和Lloyd提出哈密顿量模拟。


7.2009年,Harrow、Hssidim和Lloyd提出可以在对数时间内求解线性方程组的量子算法,这一算法现已推广应用于机器学习。


8.2011年,Panella和Martineli提出量子神经网络,量子神经网络由若干个量子神经元按一定的拓扑结构构成,它是试图将人工神经网络模型与量子信息优势相结合的一种方法。


9.2013年,哈佛量子化学团队提出VQE算法,这一算法是为NISQ量子计算机设计,它主要应用于分子结构研究。


10.2014年,QAOA算法由Edward Farhi,Jeffrey Goldstone, SamGutmann共同发表,它是一个多项式时间的近似优化算法,用于求解组合优化问题,其具有展示量子霸权的潜力。 如下介绍一些常见的量子算法: (1)Deutsh-Jozsa算法 Deutsch - Jozsa算法是David Deutsch和Richard Jozsa在1992年提出的量子算法,由Richard Cleve, Artur Ekert, Chiara Macchiavello和Michele Mosca在1998年改进。虽然目前没有实际应用,它是量子算法的第一个例子,是任何可能的确定性经典算法指数速度级。 Deutch-Jozsa算法是一个简单的量子算法, 用来判定一个函数是常数函数还是对称函数 。在实际应用中, 就是 Deutch-Jozsa 问题, 可以描述为如下的游戏:纽约的 Alice( A) 在 从 0 到的数中选择一个数 x , 通过信把它邮寄给波士顿的 Bob( B) 。B 计算出某个函数值, 不是0 就是 1, 并将结果寄回给 A 。B 保证只用两类函数之一, 要么对所有的 x 是常数, 要么是平衡的, 即恰好有所有可能的 x 的一半使函数取 1, 另一半使函数取0 。A 的目的是用尽可能少的通信, 确定出B用的是常数还是平衡函 数。A 能做到多快? 在经典的情形下, A 一封信只能发给 B 一 个 x 值 。在最差情况下, A 至少要问Bob 2n /2 +1 次, 因 A 可能在收到 2n/2 个 0 后收到一个1, 使自己得知 B 的函数是平衡的, 所以最好的确定性经典算法需要 2n/2 +1次询问。如果 B 和 A 可以交换量子比特, 而不是经典比特, 一次通信就可以达到目的。 (2)Shor分解大数质因子算法 Shor分解大数质因子算法解决了离散对数问题以及多项式时间中的整数分量问题,而最著名的经典算法解决这些问题需要超多项式时间。这些问题都是未知的P完备问题或NP完备问题。它也是为数不多的在多项式时间内解决非黑盒问题的量子算法之一,而最著名的经典算法在超多项式时间内运行。 ·主要步骤 大数因子分解问题为:N为已知大整数,N=pq,,求p和q。Shor算法的主要步骤:①随即取正整数y,y<N,且与y互质,即gcd(y,N)=1。这可由辗转相除法得出。②定义, 可看出是一个周期函数。若周期是r, 则:故:③求p和q。用辗转相除法求和N的最大公约数,次数即为p。


上面各步中的主要计算是辗转相除、计算和求的周期。辗转相除的时间复杂度为。计算的时间复杂度为。求的周期需要傅立叶变换,量子傅立叶变换的时间复杂度为,所以,Shor量子算法的时间复杂度为
Shor算法的关键之处是利用量子傅立叶变换求的周期。 (3)量子相位估计算法 量子相位估计算法用于在给定一个量子态与特征向量成正比的情况下,确定幺正门的特征向量的特征相位。该算法经常用作其他算法的子例程。 ·应用 相位在量子力学和量子信息中起着十分重要的作用,并且有着十分重要的应用。若直接测量量子信息处理过程中的相位就要不可恢复的破坏量子态矢。有些作者提到一种新的方式,那就是间接估计幺正算符U本征值相位沪及给出本征态矢的相位估计算法,它是一种十分重要的估计相位的方式。例如在量子傅立叶变换中起着支配的作用,此外也在量子计数算法、Grover算法和现代精确的频率测量中有决定性的作用。 (4)Grover算法 Grover量子搜索算法由于其能够实现在未整理数据库中对满足条件的目标成功搜索,并使计算复杂度由经典搜索算法的降低为,实现了数据检索的二次加速;同时,由于量子计算的并行性,使得受作用元素由经典计算的单个元素变化为全体参与运算元素,使得其从诞生之日起就在信息计算领域受到了广泛关注。1999年,Zalka等人更是证明了Grover量子搜素算法为最优量子搜索算法。
·应用问题 Grover算法适宜于解决再无序数据库中搜索某一个特定数据的问题。现实中有许多问题,如最短路径问题、图的着色问题、排序问题及密码的穷举攻击问题等,都可以利用Grover算法进行求解。目前Grover算法已经再核磁共振和光学系统中得到实现。由于在求解过程中,Grover算法的实现简单而且没有使用问题的特殊结构信息,因此它为这类问题提供了一种框架,属于通用算法。 ·算法内容 Grover量子搜索算法在未整理的数据库中,在N(N=2n)个数据的搜索空间中搜索符合给定条件(中的x)的M(1≤M≤N)个解,其基本的迭代过程如下:


①制备均匀叠加态。对寄存器的初态应用Hadamard变换,得到均匀几率幅叠加态:其中,目标态是
②应用Oracle过程,使目标态置反:③执行条件相移④执行步骤2-3R步:式中,为取距x最近的整实数。⑤测量寄存器,即可得到搜索问题的解。


其中步骤②和③作用只和是Grover迭代的核心,常被称为Grover算子,即: (5)量子随机游走 量子随机游走是量子算法中的重要核心,为量子资讯科学的分支,是一种利用量子力学性质产生随机过程的数学统计模型,分为离散量子随机游走和连续量子随机漫步,前者使用一枚量子铜板与漫步者共同演化,后者无需使用铜板而是透过马尔可夫链分析。和古典的随机游走相比,由于量子纠缠的非局域性和量子叠加态的相位干涉,能够以更高的速度探索目标空间。1993年由亚基尔·阿哈罗诺夫首先提出。 ·应用问题 量子随机游走的一个重要应用是“判定一个图中是否存在三角形” 问题, 直接应用 Grover 搜索可以给出一个查询复杂度为的量子算法。利用量子游走技术, 2007 年 Magniez 等把复杂度降低到, 2012 年 Belovs提出了一种基于量子张成方案 (quantum span program) 的 “学习图” (learning graph) 量子算法设计技术, 并利用这种技术设计了一个复杂度为的量子三角形查找算法。Lee等应用改进后的 “学习图” 技术得到了一个复杂度为的量子算法, Jeffery等直接利用量子随机游走也得到了具有相同复杂度的量子算法。另一方面, 孙晓明等证明了任何图性质函数的量子算法复杂度至少是的, 这 里 N 是图中边的数目。Belovs 等证明了对于边有权重的寻找三角形问题, 上述的量子算法是最优的 (至多相差一个对数因子)。对于无权的三角形查找问题, Le Gall 将复杂度进一步提升到。此外应用改进后的 “学习图” 技术, Belovs 还改进了 “相异元素问题”(k-distinctness, 判定是否有 k 个元素相同) 的量子算法。
(6)HHL量子算法 解线性方程组是一个基本的数学问题, 在工程等领域有着重要应用。给定一个的矩阵 A,以及一个N维向量 b, 算法需要输出一个向量x使得。众所周知 Gauss 消元法可以在的时间内计算x。2009 年 Harrow等提出了一种可以在对数时间内求解线性方程组的量子算法(HHL算法): 输入一个位的量子态, 如果可以在常数时间内实现酉变换, 则算法可以在的时间内近似得到一个量子态满足线性方程。由于写下x都需要N的时间, 所以在经典情形下不可能存在比N更快的算法。 (7)变分本征求解算法(Variational quantum eigensolver) 第一个提出的量子-经典混合算法是变分本征求解算法,即 VQE 算法,它可以被用于求解化学分子的基态,因此,这个算法可以被用于解决各类涉及化学计算的相关问题。对于经典计算机而言,要表示N个分子轨道的占据状态,需要用2n维的线性空间去计算,因此,在计算具有超过50个轨道的分子时,就无法进行精确计算;而量子计算机 N个轨道正好需要 N 个量子比特完成模拟过程,所以这个问题可以在量子计算机上被有效的求解。 ·算法原理 对于一个 n 阶的较大方阵,如果想找到它的特征值,可以利用 VQE 算法,同样该算法也可以寻找到描述某一体系(如多电子体系)的哈密顿量的特征值,进而求得体系的基态能量,VQE算法是基于变分原理而提出的。 所谓变分原理,是指对于任意一个试验态(它是一个品优波函数),用某一体系(如多电子体系)的哈密顿量作用于它时,可以得到该体系在这一状态下的平均能量 E,它将大于或接近于体系的基态能量,即:


从该表达式中不难看出,如果所选择的试验态正好就是体系的基态,那么不等式中的等号成立,直接得到了体系的基态能量; 但往往更多的情况是,选择的试验与体的基态相比有一定差距,导致计算得到的E大于很多,这时就需要引入一组参数,通过不断调节来调节试验态,使其最终非常接近体系的基态。 通过对变分原理的介绍,可以发现:VQE算法在寻找体系基态能量时,实际上需要依次完成三步操作:


①制备试验态②测量试验态的平均能量③判断是否小于所设定的阈值,是,就返回作为基态能量;否,则用优化器优化生成一组新参数重新制备试验态。 这是一个循环迭代的过程。其中,步骤①和②是在量子处理器上完成的,步骤③是在经典处理器上完成的。在构造量子线路以制备试验态时, VQE算法利用了幺正耦合团簇理论(UCC 理论)和渐进近似定理;在试验态能量进行测量时,VQE 采用的是量子期望估计方法;在对参数进行优化时,VQE算法利用的是非线性的经典优化器,包括梯度无关和梯度相关两大类。 (8)QAOA(Quantum approximate optimization algorithm) QAOA 算法,又名量子近似优化算法,是由 Edward Farhi, Jeffrey Goldstone和Sam Gutmann开发的一个多项式时间算法,用于寻找“最优化问题的一种‘好’的解决方案” 。 对于给定的 NP-Hard 问题,近似算法是一种多项式时间算法,该算法以期望的一些质量保证来解决每个问题实例,其中品质因数是多项式时间解的质量与真实解的质量之间的比率。QAOA算法很有意思的一个地方是它具有展示量子霸权的潜力。 ·QAOA量子线路 以最大切割问题为例,QAOA线路是以为生成元的酉变换跟以为生成元的酉变 换乘积的累积。其中 m 表示演化步数,所以每一步对应的量子线路都是这两个酉变换之间的乘积,每一步都对应着两个参数β和γ;这里,以为生成元的酉变换等于。以为生成元的酉变换等于。这里的表示步数i对应的量子线路的参数。


那么,基态,经过一组以β和γ为参数的酉变换后,演化到了基态。其中步数m越大,量子线路得到的效果就越好。
1)QAOA的工作流程第 1 步:制备线路的初始状态;第 2 步:初始化待优化的参数β和γ,主要是用来确定RZ门和RX门的旋转角度(通常参数初始化为0);第 3 步:根据参数生成量子线路;第 4 步:测量量子状态计算每一个子项的期望;第 5 步:计算当前参数对应的总的期望值;第 6 步:将当前参数及其对应的期望值传入到经典优化器进行优化得到一组新的参数;第 7 步:重复执行 3-6 步,一直到满足预先设定好的结束条件。


量子处理器与经典处理器的工作流程图


2、量子编程语言


光子盒表:量子编程语言


3、量子计算开发工具


(1)国外量子计算开发工具 ①Forest 美国的量子计算公司Rigetti创建了 Forest,这是一个用于编写和运行量子程序的开发环境,可以实现量子线路的计算模拟、含噪声的量子逻辑门计算模拟,量子芯片的云端运行等功能。他们的量子设备使用名为 pyquil的python库进行编程,该库将根据量子门编写的程序转换为称为 quil的较低级语言。Pyquil 虽然功能相对较少,但上手比较简单。 ②Qiskit Qiskit 是IBM开发的一个开放源代码量子计算软件开发框架,利用当今的量子处理器开展研究,教育和商业等工作,它是可用于编写,模拟和运行量子程序的全栈库。该工具包包括了四个部分: (1)Terra,它允许在量子门和脉冲级别编程(量子门通过脉冲序列实现);(2)Aqua,运行量子化学、优化问题和人工智能中使用的算法的高级编程;(3)Ignis,检查错误并改进门的实现;(4)Aer,研究用经典设备模拟量子计算的局限性。 ③Quantum Development Kit(QDK) 微软提供了 Quantum Development Kit(量子程序开发套件,简称 QDK),以便进行量子编程。QDK 包括: Q#:微软推出的一种新的高级量子编程语言。Q#具有与 Visual Studio 和 Visual Studio Code 的丰富集成以及与 Python 编程语言的互操作性。企业级开发工具提供了在 Windows,macOS 或 Linux 上进行量子编程的最快途径。 应用程序:以 Python 或NET 语言编写,用于运行 Q#编写的量子运算程序。 用于促进开发的工具:用户可根据不同的开发环境,执行不同的安装,以进行量子程序开发。 ④Cirq Cirq 是Google专为NISQ 算法打造的框架,它由一个python库组成,允许开发者为特定的量子处理器编写量子算法,为用户提供了对量子电路(Quantum Circuits)的精确控制,为编写和编译量子电路,其数据结构经过专门优化,让开发者能更加充分地利用 NISQ 架构。Cirq 支持在模拟器上运行这些算法,旨在通过云轻松与未来的量子硬件或更大的模拟器集成。目前,一些公司和组织已使用它来运行Google量子设备。 ⑤TensorFlow Quantum(TFQ) 2020年3月,谷歌宣布推出量子机器学习库TensorFlow Quantum(TFQ)。该工具可以构建量子数据集、原型混合量子模型和经典机器学习模型,支持量子电路模拟器以及训练判别和生成量子模型。 ⑥Strawberry Fields Strawberry Fields是由量子初创公司Xanadu开发,这是一个专门针对连续变量量子计算的全栈库,该库基于光子的量子计算机。量子线路是使用 Blackbird量子编程语言编写的,该语言是其量子设备的汇编语言。 ⑦Intel Quantum Simulator(IQS,前身为qHiPSTER) IQS是英特尔已发布的开源软件,是基于C ++编程语言,并具有直观的Python界面。它是Schrödinger风格的全状态矢量模拟器,是量子电路的多线程分布式仿真器,除了状态准备和测量操作外,它还模拟任意单qubit门和2 qubit控制门。IQS已用于模拟40量子位以上的算法,面向希望在仿真中测试其软件的算法开发人员,以及针对设备表征和建模的硬件开发人员。 ⑧Qulacs Qulacs是京都大学开发的python / C ++库,由QunaSys维护,用于快速仿真大型带噪或参量的量子电路。他们在GitHub站点上提供了一个图表,显示由于C / C ++后端,Qulacs比Cirq,ProjectQ,pyQuil,Q#,Qiskit Terra和QuPy具有更好的性能(至少在2018年10月进行测试时是如此)。 ⑨Atos / SFTC Hartree中心-QLaaS Atos与英国科学技术设施委员会(SFTCHartree中心合作,提供对Atos量子学习机的云访问。这是一个高性能的基于经典的模拟器,可以模拟多达38个量子位,并且可以包括量子噪声模型,以了解程序如何在实际的量子机器上运行。他们的工具可通过python HL Atos量子汇编器(AQASM)和量子库(如Jupyter笔记本)提供简单的量子编程。 ⑩QUI 墨尔本大学开发了一种称为QUI的直观编程和模拟环境,旨在使用户可视化并了解量子计算机的内部工作原理。它具有易于使用的界面,允许用户拖放量子门以创建电路。该程序的主要功能之一是能够在程序的每个阶段显示量子计算机状态的可视化。该程序最多支持五个量子位,并允许用户使用Bloch球、表和概率图查看结果。QUI托管在大学的远程服务器群集上,任何注册成为用户的人都可以使用QUI。


(2)国内量子计算开发工具


①QPanda QPanda 是本源量子一个高效、便捷的量子计算开发工具库,可以用于构建、运行和优化量子算法,支持全振幅量子计算模拟、单振幅量子计算模拟和部分振幅量子计算模拟,也可用于模拟含噪声的量子逻辑门计算。同时,QPanda 通过量子逻辑门优化,量子程序适配量子芯片拓扑结构,量子程序编译等功能,实现了可把QPanda 编写的量子程序编译到不同量子计算平台。除此之外, QPanda 也集成了很多主流的量子算法,是量子计算学习及量子算法验证的有力工具。 ②HiQ 华为 HiQ 是用于量子计算的开源软件框架。它旨在提供使用经典硬件或实际量子设备来促进发明,实施,测试,调试和运行量子算法的工具。它提供经典量子混合编程的可视化方案和高性能的 C++并行和分布式模拟器后端,并集成高性能优化器和较为丰富的算法库。 ③isQ 这是由中国科学院软件研究所发布的自主研发的较为完整的量子程序设计平台。isQ平台包括了量子程序设计、编译、模拟、分析与验证等系列工具,已上线的功能主要包括编译器、模拟器、模型检测工具、定理证明器四部分。在量子程序设计方面,isQ平台包含的编译器能首先将高级语言编写的量子程序转化为指令集语言,然后交由后续工具进一步处理。 ④Paddle Quantum Paddle Quantum 是一个基于百度开源框架PaddlePaddle的机器学习库,支持量子神经网络的搭建与训练。该机器学习库提供了量子机器学习(Quantum machine learning,QML)开发者套件,对各种量子应用开发提供了应用工具包。


资料来源:CSDN技术社区


4、量子云平台


(1)国外量子云平台 ①IBM量子云平台 全球来看,IBM Q System量子云计算平台发展最早,生态也较为完善,目前已包括十数个量子芯片、量子模拟器、Qiskit框架、应用层等全栈量子云结构,并通过IBM Q Network与全球500余家公司、大学建立了合作关系。在硬件领域,IBM最初公布的5量子比特芯片依然具有较大的误差和干扰,而随着新版本的不断推进,最新的5量子比特芯片“Rome”单比特门最大误差已缩小到3.675e-4,CNOT门最大误差已缩小到1e-2的范围。IBM公司基于量子比特数目、连通性和误差等内容定义了与硬件无关的衡量量子计算机计算能力的参量——量子容量,并以每年量子容量翻倍的目标进行发展,2020年初IBM发布的最新一款28量子比特的后端机器Raleigh的量子容量达到32,这使得其量子容量在指数增长的发展路线上再添一个数据点。在软件方面,IBM开发的Qiskit框架包含了基础开发工具Terra、模拟器系统Aer、噪声研究系统Ignis,并且可以通过Qiskit Aqua进行多项应用研究,如材料搜索、量子化学、机器学习、优化算法等。 ② 亚马逊量子云平台 亚马逊相较其他巨头,在量子计算领域进入较晚,但在2019年12月,其正式发布了名为“Braket”的量子计算云服务平台,凭借着丰富的经典云计算技术占据了量子云平台的先机。与集中关注硬件开发的IBM不同,亚马逊更多倾向于自己不开发硬件,而是连接其他公司硬件资源的Q-PaaS模式。目前,Braket支持在本地对Rigetti基于门的超导计算机、D-Wave量子退火超导计算机以及IonQ离子阱计算机的跨平台兼容开发,而不需要使用者学习多个开发环境。Braket还支持通过模拟器进行量子线路的调试、诊断和优化,自动分配经典计算和量子计算所需资源,结合优化混合量子算法,并完全托管作业以提高效率和降低成本。 ③微软量子云平台 微软公司在软件开发上具有得天独厚的优势,最早推出了量子编程语言Q#,并在2017年12月提供了量子开发程序包QDK。尚未推出的微软Azure Quantum计划成为一个全堆栈、开发生态系统,与合作伙伴一起组建最多样化的量子解决方案、软件和硬件。作为中间层,Azure将通过Q#、QDK等工具生成预建的工业规模求解器和算法提供量子解决方案与上层应用进行联系,对相应的软件进行模拟和资源估算,并分配到具有不同量子比特体系结构的硬件系统。目前,微软已和IonQ、霍尼韦尔、QCI、1QBit等多家公司建立了良好的生态联系,并且在积极开发未来革命性的拓扑量子比特计算机。 ③Rigetti量子云平台 Rigetti于2018年推出其量子云服务平台,可由Forest环境进行访问。如今其支持多个量子处理器,包括最新的28量子比特量子芯片Aspen-7、19量子比特芯片Acorn等。此外,Rigetti还为多家云服务平台,如AWS Braket提供硬件接入服务,并与1QBit、QCWare等合作研发开发工具和量子应用。 ④D-Wave量子云平台 与其他公司不同,D-Wave更专注于量子退火算法,其开发的量子绝热退火计算机已多次被谷歌买入并用于解决实际问题。目前,D-Wave 2000Q拥有2000个量子位,且激发研究中的下一代 Advantage系统将拥有超过5000个量子比特、更好的拓扑结构和比特相干性。目前,D-Wave通过自主的Leap 2云平台向外提供量子计算服务,也直接向谷歌、波音和NASA等机构提供量子计算机。尽管业界对量子退火计算仍存在部分争议,但D-Wave已经成功地实现了其商业化运作。 ⑤QuTech 量子云平台 为推动欧洲量子技术的发展,量子计算高级研究中心QuTech开发了公共量子计算 平台Quantum Inspire。与IBM类似,Quantum Inspire同样为包含量子芯片、经典控制、量子编译器、软件层和用户界面的全堆栈系统。目前,Quantum Inspire包含3个计算引擎,分别为超导量子比特的Starmon-5New量子处理器、全球首个建立在硅半导体上的自旋量子比特Spin2New量子处理器和量子模拟器。其中,Spin-2New采用了与经典晶体管相同的技术制成,对未来的批量生产带来了有利信号。目前,该平台主要侧重于教育、培训以及应用程序的开发。 ⑥Xanadu光量子云平台 Xanadu于2020年9月正式发布世界首个公开可用的光量子云平台。开发人员可以基于云访问8-Qubit或12-Qubit的光量子计算机。与其它大多数技术栈相比(如超导需要在超低温下运行),该技术栈的优势是可在室温下运行,并且可以集成到现有的基于光纤的电信基础架构中。 光量子计算机的另一个优势是,该技术栈拥有很好的可扩展性,其他的技术栈如离子阱、超导、NV色心和核磁共振等技术,其扩展速度太慢甚至有的不能进行大规模扩展(如NV色心和核磁共振)。而这也是在金融、制药和化学等行业工作的人未来可能会选择光量子计算机的一个重大原因。 ⑦其他初创公司量子云平台 当前,除了尝试提供全栈云平台服务的多家巨头公司之外,基于Q-SaaS模式,着眼于利用量子云平台提供特定问题解决方案的初创公司也在不断增加。例如,日本的QunaSys专注于量子计算解决量子化学、量子机器学习和优化算法问题;2019年在德国成立的Avanetix提供利用量子计算和其他经典方法优化解决供应链问题的解决方案;法国的QuanFi则为金融服务产业提供相对应的量子算法。随着量子计算产业的进一步发展、量子云生态的逐步开放,未来将会有更多行业和公司尝试通过Q-SaaS模式对业务能力进行赋能。


(2)国内量子云平台


①阿里巴巴量子云平台 2015年,阿里巴巴与中国科学院联合成立“中国科学院-阿里巴巴量子计算实验室”,并先后迎入施尧耘、马里奥·塞格德等著名科学家。2017年10月,阿里云发布了量子计算云平台,并在2018年2月接入了11比特的超导量子计算服务,这是继IBM后全球第二家向公众提供10比特以上量子计算云服务的系统。依靠集团超强的计算资源,阿里巴巴还研制出了量子模拟器系统“太章”,成功模拟了81量子比特、40层的通用量子线路和144量子比特、27层的量子线路。未来,阿里巴巴将以硬件为核心推动全栈式研发。目前,阿里巴巴已经完成实验室搭建,进入原创性研究阶段,且已支持一个包含12量子比特的超导量子处理器。 ②华为量子云平台 华为于2018年10月推出了首款量子云平台HiQ,并于2019年发布了华为量子云服务解决方案HiQ2.0,目前HiQ云服务平台已经推出到3.0版本,新增两个核心模块:量子组合优化求解器HiQ Optimizer和张量网络计算加速器HiQ Tensor,同时升级HiQ Cirucit、HiQ Fermion、HiQ Pulse等多个模块,使得HiQ 系统功能更完善,性能更优越,可适配更多场景。目前,华为尚未推出量子硬件设备,而是利用昆仑量子计算模拟器作为计算引擎。华为在应用层的发展更为丰富,表现在首个一站式量子化学应用云服务和对应软件包HiQ Fermion,通过自研的算法优化、线路压缩等技术可将参数压缩80%,运行速度提高1600倍以上,提供最大规模的一站式变分量子本征解算器(Variational Quantum Eigensolver,VQE)量子化学模拟,在药物、能源、材料等应用场景有广泛用途。 ③本源量子云平台 于2017年9月11日成立的本源量子是我国第一家专业的量子计算初创公司,是我国产学研结合的优秀成功案例,其首席科学家为中国科学技术大学量子信息重点实验室的郭国平教授。除硬件外,本源量子还提供底层量子指令集OriginIR,支持多硬件、多语言的量子计算框架QPandas和量子语言QRunes,并提供专业的量子软件定制服务,提供从硬件层到应用层的全栈式服务。2020年9月12日,本院量子发布了国内首个搭载了真实超导量子芯片的超导量子计算云平台。 ④百度量子云平台 百度于2020年9月由百度量子计算研究所所长段润尧教授宣布发布国内首个云原生量子计算平台“量易伏”,实现了量子计算和云计算的深度融合。针对开发者,“量易伏”提供基于 Python 的开源开放工具包 QCompute;对于量子研究人员直接登陆浏览器而不需要任何人工配置即可使用在线编程工具 PyOnline;而对于量子计算爱好者来说,可以使用 QComposer 拖动式编程体验量子计算的乐趣。除此之外,“量易伏”还带有量子编程全生命周期的支持,根据需要可以调用本地或者云端的服务器完成计算,有10多个重要的算法案例满足不同的需求。所有的数据都会得到完整的管理服务。量子工具链则支持用 Python 和量子汇编语言进行混杂编程以及具有设备无关性。同时,“量易伏”也提供了功能强大的变分量子特征求解器VQE,可以准确高效的求解一个量子系统的基态以及相应的能量,因而可以用于量子系统的模拟。 ⑤量旋科技量子云平台 量旋科技发布了最新一代通用量子云平台“金牛座”,为用户使用量子计算硬件提供远程服务。“金牛座”是一款可链接多种量子计算物理体系的云服务平台。目前已同时接入1台2比特和1台4比特核磁共振量子计算机。目前开放的量子计算云平台PCloudQ,开发了地城控制层,即允许用户自己设计量子控制脉冲形状,使用户从更基本的层次理解实际量子体系的运行规则。目前,该平台致力于量子计算领域的教学科研与科普工作。 ⑥昆峰量子云平台 2019年9月30日,昆峰量子发布了“昆冈”量子计算(模拟)云平台1.0版本。昆峰量子以此为基础,和国内外多家科研机构与企业积极合作,探索量子计算在多个行业领域的实际应用。 2020年9月30日,昆峰量子宣布“昆冈”量子计算(模拟)云平台2.0版本正式对外提供服务。2.0版本新增对经典量子混合式编程的支持,包括远程调用接口API与基于网页的集成开发环境IDE;此外,在模拟性能、易用性、可靠性等多个方面均比之前的1.0版本有着显著提升。

六、量子计算应用领域及进展

 量子计算机体积比常规计算机大数倍,并且只能进行特定领域的计算,严苛的低温运行环境以及千万美元价格使普通个人用户无法使用量子计算机。即便是较为廉价的量子云服务,作为领先时代的技术,相比经典计算机并不能更好地满足日常生活环境的大规模应用,量子软件的学习成本也抬高了使用门槛。因此,个人用户尚不具备使用量子计算机的条件。 当前阶段,量子计算主要有两个类型的应用。第一类是量子模拟,即在药物研究、材料科学、量子化学等领域需通过计算机来模拟量子系统,若用经典计算机则需耗费巨量计算资源,而运用量子计算机做量子模拟则最接近自然的状态; 第二类是量子计算加速及优化,即我们日常所见技术公司的计算加速及优化,包括AI机器学习的加速,大数据处理及优化等,目前在金融领域、航空、交通领域探索较多。 根据波士顿咨询(BCG)发布的量子计算行业调研报告,参考目前的消费电子市场规模,保守估计(不考虑量子纠错算法的进展),量子计算应用市场规模2035年将达20亿美元,之后暴涨,2050年飙至2600多亿美元;乐观估计(考虑量子纠错算法的进展),2035年将达600亿美元,2050年飙至2950亿美元。       若干潜在的应用场景: 

1、人工智能

 图灵奖得主姚期智院士曾表示,“人工智能是人类想要了解自然界是怎样做出聪明的人,而如果我们能够把量子计算用到这里,我们可能比大自然更聪明。” 量子计算科学家研究了很多可以基于量子计算机的算法,往往可以把原本计算复杂度为NP或更高的问题转化为多项式复杂度,实现平方甚至指数级的加速,目前不少经典的机器学习问题,如主元素分析(PCA)、支持向量机(SVM),生成对抗网络(GAN)都有了量子算法的理论加速版本,并且有的还在专用或通用的量子计算机中进行了原理性实验演示。 案例: Google推出了TensorFlow Quantum,将公司的机器学习和量子计算计划结合在一起。该框架可以构建量子数据集,原型混合量子模型和经典机器学习模型,支持量子电路模拟器以及训练判别和生成量子模型。 Google与滑铁卢大学、X 和大众汽车合作,宣布发布 TensorFlow Quantum(TFQ),这是一个用于快速建立量子机器学习模型原型的开源库。TFQ 提供了必要的工具,可以将量子计算和机器学习研究界聚集在一起,以控制和建模自然或人工量子系统。例如有噪声的中规模量子(Noisy Intermediate Scale Quantum,NISQ)处理器,具有约 50-100 量子位。 小结:量子计算被主要应用于机器学习提速,基于量子硬件的机器学习算法,加速优化算法和提高优化效果。而量子计算与人工智能的结合将对工业、交通、金融等领域的技术变革提供强有力的支持。 2、生物医药(分子模拟) 费曼提出通过创造一个人工的符合量子规律的有效系统,且系统所满足的量子方程与所被模拟的对象完全一致,就能通过人工系统进行试验,得到无法通过计算得出的解,这一理论成为量子模拟的基础。由于量子模拟不仅能够实现对量子多体系统随时间所发生的变化的模拟,还能够实现强关联多体系统的模拟。 利用量子模拟技术对化学分子进行建模,能够极大地推动制药行业药品研发、药物审核。生物领域的应用小到模拟分子的生物结构,大到模拟神经网络,甚至在未来可能模拟人工生命。 根据波士顿咨询(BCG)发布的量子计算行业调研报告,部分制药行业的高管预估,量子模拟可将药物发现率提高5%到10%,并优化(节约)15%到20%的研发时间。与此同时,他们还认为更优的分子设计将推动药物审批效率。药研发中的复杂分子发现对应着150-300亿美元的量子计算市场机会。 案例: ①ProteinQure+阿斯利康:2020年7月9日宣布合作。利用量子算法+机器学习+化学分子模拟、组合优化的方法,研发基于蛋白质组合模型的多肽类药物并且构建应用于治疗的肽库。预计将克服传统计算难以覆盖多肽变异数量过多的难题,提炼和验证数百万种治疗候选药物,发挥多肽类药物对某些疾病靶标的独特效力。 ②埃森哲+1QBit+Biogen:2017年6月程序已落地并测试,但受限于量子计算机的性能,尚无法大规模计算分子匹配。通过采用混合量子计算方法并加权不同的分子变量进行比较,从而提高分子比较模型的保真度。由于量子计算方法能比任何现有方法更准确地比较分子结构并获得更多信息,Biogen便可以据此减少筛选适用于药物分子的成本。 3、化工工业 化工与医药有类似的地方,比如与居民生活息息相关、手握大量科研经费、也形成了某些环节外包合作的研发习惯和模式。但亦有不同,化工体系过于庞大,并且利润水平远远不如医药,所以对于化工行业来说,非常注重工业化的过程,规模小于5亿人民币的化工企业根本不存在科研部门,可能能够应用到量子计算的环节很少,由化工企业资助或扶植的科研机构对量子计算的需求可能更大,因此在化工企业内,工业设计和催化剂两个环节是量子计算最有应用前景的环节。 案例: ①华为:2019年9月发布量子化学应用云服务HiQ 2.0模拟器,作为国内首个一站式量子化学应用云服务,已成功模拟乙烯(C2H4)、氨气(NH3)、甲硅烷(SiH4)等分子基态能量。 ②奥地利Alpine Quantum Technologies(AQT)+德国HQS Quantum Simulations:2020年4月宣布战略合作。预计通过云端量子化学软件,可以在量子计算机和经典计算机上有效地模拟分子和材料的化学过程。 小结:传统新药/新材料的研发都需要大量的专业人员经过反复长时间的试验才能有所收获。在设计的过程中最先使用的方法是逆向合成法,这种方式是一种典型的经验驱动的开发方式,合成家在选定目标分子后,不断地探索各种逆向途径,整个过程短则几周,长则几年,既费时又不容易规模化。 近些年来,随着计算机科学在医药和材料领域应用加深,通过AI模型建立与训练,超级计算机可以列出众多逆向合成的潜在路径,但仍有大量潜在活性化合物未被发现,在面对大量分子的筛选和分子模拟水平等复杂问题时,超级计算机的算力就显得捉襟见肘了。 在芯片制作工艺越来越接近物理极限的情况下,经典算力的提升变得越来越困难,此时,量子计算成为大幅提升算力的突破口。 BCG预测2030年,在制药行业,量子计算市场规模将达200亿美元,化学、材料科学等科技密集型产业的规模将达70亿美元。 4、金融领域 金融业的客群庞大,储存着大量真实有效的数据,从而为智能金融的发展打下了可靠的基础。智能金融的广泛应用得益于人工智能技术的快速发展,目前,人工智能在金融领域比较典型的且相对较为成熟的应用主要包括量化交易、信用评级、智能投顾等方面。但人工智能的发展离不开算法、数据和硬件算力的支持。 所以在全球数据量飞速增长的情况下,依托经典计算方式实现如此庞大的数据处理,人工智能的训练学习将因数据量超出了内存和处理器的承载上限而变得十分漫长,甚至无法实现。因此,大数据的爆炸式增长,势必会给智能金融的升级带来巨大阻力。另一方面,摩尔定律趋于失效引发经典计算的能力达到瓶颈。 因此,近年来,量子计算成为炙手可热的技术热点。在金融工程领域,量子优化、机器学习、量子加速蒙特卡罗算法将成为三大量子金融计算应用方向。



①量子优化:优化问题是许多金融问题的核心。经典计算机很难有效地确定投资组合的最佳选择,在量子计算机上实现量子优化算法有许多不同的方法,其中最突出的是量子退火。量子退火为经典计算机难以解决的最优化问题提供更好的解决方案,可以为执行大额交易指令提供最佳交易路线,从而降低交易成本,为同一资产在不同市场不同价格中提供最佳套利机会,从而赚取差价。
案例:
2016年,在最佳交易路线的选择方面,加拿大量子软件公司1QBit利用D-Wave系统的量子退火算法,解决了一个离散多周期投资组合优化问题。这个问题分别在512和1152量子位的D-Wave芯片上得到了解决。而且对D-Wave机器进行适当的微调可以显著提高成功率。 ②机器学习:量子机器学习(QML)领域基本上分为两条主线:一是寻找量子版本的机器学习算法,二是应用机器学习来理解量子系统。在投资组合优化中,对利率路径有一个全球视野是至关重要的。实现这一点的标准工具是主成分分析(PCA)方法。目前,已经有了量子PCA算法,可以在量子处理器上以指数级的速度运行。具体地说,这种算法寻找相关矩阵主成分的近似值,计算成本O((logN)2)(计算复杂度和查询复杂度)比经典计算机上成倍的降低。这一发展应极大地拓宽了主成分分析的适用范围,使我们能够在使用经典方法不可行的情况下估计风险并使利润最大化。 而机器学习中最突出的可能是神经网络,包括浅层网络、深层网络、递归网络、卷积网络等。考虑到训练成本的问题而涉及全新的、完全的量子神经网络算法,能够学习比传统神经网络更复杂的数据模式。隐马尔可夫模型通常用于金融预测(股价预测),量子隐马尔可夫模型可以提供更好更快的预测 案例: IBM+西班牙CaixaBank:2019年完成量子算法测试,2020年6月CaixaBank与IBM签署合作协议。使用量子机器学习算法,基于实际数据评估了专为该项目创建的两个投资组合(抵押投资组合和国库券投资组合)的财务风险。预计将复杂的工作从几天减少到只有几分钟。 国民西敏寺银行与富士通、1QBit开展合作试验,利用量子计算帮助投资组合经理决定银行1,200亿英镑“高质量”流动资产(HQLA)投资组合的正确构成。 西班牙银行CaixaBank与IBM合作,西班牙第二大银行BBVA则与初创公司Zapata Computing和Multiverse、科技公司富士通(Fujitsu)和咨询公司埃森哲(Accenture)合作,研究量子计算金融用例。其中包括静态投资组合优化、信用评分流程优化等。 ③量子加速蒙特卡罗算法:金融衍生品的定价,经典方法是通过简化的场景,例如Black-Scholes-Merton模型和蒙特卡罗抽样。由于衍生品的数量越来越多,只有蒙特卡罗模拟是可行的,但计算成本高,执行时间长。量子蒙特卡罗算法可以解决这一问题,提供二次加速。 案例: Xanadu+加拿大BMO金融集团&丰业银行:2019年8月宣布已成功落地应用。利用量子蒙特卡罗算法,完成百倍级实时定价,提高衍生品定价的处理速度和准确性(经预测,运行完整的量子蒙特卡罗将提速达数百到数千倍) IBM+摩根大通&巴克莱:2017年以来,摩根大通、巴克莱一直在测试IBM的量子计算软件,希望通过蒙特卡罗模拟这样的优化来加速他们的投资组合。 最后,国内金融机构里,建设银行最先试水量子计算。2020年9月,建信金融科技有限责任公司与合肥本源量子签署战略合作协议。本源量子与建信金融科技将围绕金融领域应用场景,推动量子生态的构建及其与金融产业的协同发展。 5、航空航天、交通 (1)航空领域 量子计算有助于解决航空航天行业面临的一些最严峻的挑战,从基础材料科学研究、机器学习优化到复杂的系统优化。一些航空航天领域的世界知名企业也在涉足量子计算硬件和软件,旨在通过量子计算激发本行业的技术革命。 案例: 美国国家航空航天局(NASA)设立了量子人工智能实验室(QuAIL)来解决航空、地球和空间科学以及太空探索任务中出现的困难优化和机器学习优化的问题。QuAIL的合作伙伴包括D-Wave、谷歌公司、大学空间研究学会(USRA)等。 航空巨头洛克希德·马丁公司很早就开始关注量子计算领域,是D-Wave的早期投资者之一。20洛马公司认为,量子计算的潜在应用包括处理复杂系统和大量数据的任何领域,包括软件验证与确认(V&V)。超大型软件开发的成本中约有一半花费在V&V上。 另一家航空巨头空中客车集团也在量子计算领域投入较多,早于2015年底在威尔士纽波特建立了一个量子计算研发团队,同时还投资了量子计算初创公司QC Ware。 2019年1月,空客公司举办了全球量子计算挑战赛,通过采用量子计算这种新型计算能力,为飞机全生命周期的复杂优化和模型化提供解决方案。挑战问题包括: (1)飞机爬升优化。这个问题集中在爬升以及如何应用量子计算于达到低成本指数(时间和燃料的相对成本),这对于提高效率至关重要。 (2)计算流体力学。该设计使用计算流体力学(CFD)进行,可演示飞机周围的气流行为并揭示作用在其表面上的空气动力。 (3)用于求解偏微分方程的量子神经网络。在求解空气动力学问题时,求解偏微分方程(PDE)是一项主要的挑战。挑战拟通过量子计算来优化机器学习的方法来解决耦合的偏微分方程。 (4)翼盒设计优化。翼盒设计优化必须同时计算机身载荷、质量建模和结构分析等设计配置,存在较大计算需求。量子计算通过同时评估不同参数提供了探索更宽松设计空间的替代途径,从而在优化重量的同时保持结构完整性。


(5)飞机装载优化。它们的优化范围受到飞机操作包线的限制,该操作包线由每个任务的最大有效载重容许范围、飞机的重心和机身剪切限制决定。这一挑战的目标是在耦合的操作约束下计算最佳的飞机配置,从而演示量子计算可如何用于解决实际问题,以及如何将其扩展到更复杂的问题。 总体而言,航空航天领域量子计算应用研究主要集中于量子计算优化,包括利用量子计算优化航空航天工业设计及航线优化等。 (2)交通领域 交通领域的应用试验主要是通过量子计算优化交通路线。 案例: 2019年11月,大众集团在葡萄牙里斯本举行的网络峰会期间,成功演示了世界上第一个量子计算的实时应用,以帮助优化交通路线。 福特汽车与微软进行合作,也做过类似的测试,模拟多达5,000辆车在繁忙路段行驶的场景,当每个车辆可使用10种不同的路线选择时,所有车辆同时请求穿越大城市繁忙路段的最快路线推荐。在20秒内,统筹优化的路线建议被传递给每辆车,从而使整体拥堵减少73%。同时,平均通勤时间也减少了8%每年因拥堵而节省的时间减少了超过55,000小时。 量子计算在交通领域的运用与目前人工智能、大数据处理在交通领域的运用非常接近,主要是通过量子计算加速、优化,实现更高效的计算及解决方案。

七、产业链图谱及市场预测

 1、产业链图谱 量子计算行业目前处于早期探索阶段,核心参与者不多,产业链上下游较为清晰,目前以国外如IBM、Google、Intel、IonQ及霍尼韦尔、国内以本源量子、阿里巴巴、华为等量子巨头为核心,构建了较为完整的产业链。


光子盒图:量子计算产业链 2、市场规模预测 目前,量子计算的很多工作仍处于实验室阶段,商业化应用较少,2020年,全球量子计算产业规模约为3.25亿美元,预计未来3年将以年均35%的市场增速增长,到2023年,全球量子计算产业规模将达到7.99亿美元。


光子盒图:2020-2023年全球量子计算产业规模预测
 我们对量子计算产业按照产业链环节进行了拆分,主要包括量子计算的硬件部分、基础软件部分、应用软件部分和相关服务。其中,硬件部分是形成量子计算机的所有硬件,包括研发、制备和测试量子计算机的设备和量子计算机;基础软件包括操作系统、编译语言及各种中间件;应用软件是针对下游领域具体应用的软件;服务包含的范围较广,主要指量子计算机的云服务,也包括教育培训、媒体服务及研发服务等。 未来三年,用于本地或基于公共云的量子计算硬件交付的市场收入将占全球量子计算市场的50%,未来随着量子计算的产业生态逐步完善、商业应用场景逐渐扩大,量子计算服务产值比例将逐步扩大。 虽然整体产业仍处于早期研发阶段,技术路线尚无定论,但仍可以对未来保持乐观心态。 单位:亿美元光子盒表:2020-2023年全球量子计算产业各环节预测 在下游应用方面,化学/制药应用最有可能从早期实用量子计算机中获益,有几家公司涉及这一领域:PolarisQb、Netramark、Apex Qubit、GTN、 Quantum Biosystem等。尽管有许多参与工业领域的量子计算研究机构(如波音公司),但普遍认为工业应用的进程仍将较长。
-End-
1930年秋,第六届索尔维会议在布鲁塞尔召开。早有准备的爱因斯坦在会上向玻尔提出了他的著名的思想实验——“光子盒”,公众号名称正源于此。
: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存