查看原文
其他

首个用于表征大型量子计算机噪声的算法诞生

Judy Chen 量子客 2021-06-23


编辑:Sakura   审校:Viky



众所周知,噪声(Noise)是建造大规模量子计算机的障碍之一,如果能有效地解决噪声的影响,那么,实现规模可扩展的量子计算机就上了另一个台阶。
 
近日,悉尼大学的研究人员开发出首个可识别噪声的算法,并在IBM Q上通过测试,证明其在小型设备中可用。
 
 

研究人员做了什么?

 

很多人不理解为什么超导系的量子计算机,都是一个个大桶,并且要降温到几乎零度小小的芯片藏在桶底,层层包围,这里面就少不了要对付各式各样的噪声。悉尼大学研究人员通过噪声对量子的系统的影响出发,从干扰和不稳定性的角度,用”以其人之道,还自其人之身“的方式来驯服量子计算机中的噪声。

 

当前,该算法已经在IBM Q设备上进行了测试,证明其可用于小型设备,但是在大型量子设备中还有待进一步研究。

 

在相关研究论文中[1],研究人员详细描述了一种协议,该协议可以完全有效地表征量子噪声的错误率。研究人员进一步开发了一种方法,该方法可以相对精确地返回有效噪声的估计值,并检测所有相关的误差,从而能够在以前从未检测到的14量子比特器件中发现远距离的两个量子比特相关性。当器件尺寸接近10或有更多的量子比特时,当前表征噪声的方法却又不可行。 

       

图1 | 论文(来源:nature)


本研究作者在对外交流时提到,这是首个在当前量子设备上可运行且严格证明可扩展的诊断算法,对于下一代量子器件研发至关重要。

 

使量子计算机高效

 

在实现可扩展、通用量子计算机之前,有用的大规模量子计算机需要仔细的校准以减少误差,以及一些形式的纠错,这意味着识别错误的根源就相当重要了。

针对系统中特定噪声而优化的纠错例程可以大大优于一般的纠错例程,当然,识别这些误差取决于能否描述大尺寸量子系统中的噪声。
 
研究人员实现了一个协议,使他们能够了解大规模量子装置中有效量子比特错误率的完整描述。该方法不受由于状态准备测量误差(SPAM)造成的系统性偏差的影响,并且可以实现高精度和高准确率。
 
早期的工作依赖于过程层析(Process tomography)成像和门集层析成像,即使使用了复杂的技术,如压缩感知层析成像,处理几个物理量子比特都变得困难。诸如随机基准测试协议之类的其他方法原则上也可以扩展,但是它仅提供了对噪声的不完整描述。

为了应对这些挑战,研究人员开发的新协议可以进行循环基准测试 、角色基准测试和相关性基准测试,而不是在同一个时间节点里只估计单个平均保真度,厉害之处在于可同时一次性评估所有的保证度,且它允许对相关性进行识别和量化。 

 

这样的实验首次证明了量子计算里,某一种协议的实用性,该协议可以描述当今拥有大量物理量子比特的设备中错误率和相关错误。通过对该研究成果的感知,未来可以为新诊断工具带来新途径,同实也为应用开辟无数机会,最主要是对扩大量子计算机的规模有着关键性的作用。
 
因为大规模的量子计算机,才是量子计算机未来的星辰大海。

 


参考文献: 

[1]https://www.nature.com/articles/s41567-020-0992-8



声明:此文出于传递更多信息之目的。若有来源标注错误或侵权,请作者持权属证明与我们联系,我们将及时更正、删除





相 关 阅 读

01   无心插柳,IBM发现并证明了新的量子优势
02   量子计算机打破量子比特信息传输速度限制
03   可室温操作量子比特处理器原型诞生
04   科学家实现最高效量子线路


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存