查看原文
其他

刚刚!AI芯片巨头入局量子计算

光子盒研究院 光子盒 2021-12-15
光子盒研究院出品


继上个月谷歌将其人工智能专用芯片TPU(张量处理单元)用于量子计算模拟后,AI芯片巨头英伟达也推出了基于GPU的量子计算模拟软件开发工具包(SDK)。
 
众所周知,GPU是AI通用芯片,是人工智能的主要驱动力。英伟达是GPU的发明者,也是人工智能计算的引领者。今年以来,量子计算+人工智能的交叉研究越来越多,随着英伟达入局量子计算,二者融合将进一步加快。
 

对于那些希望开发量子程序的人来说,基于经典计算的模拟器是一个非常有用的工具,因为它可以演示量子计算机如何处理程序。尽管这种方法的缺点是仅限于经典计算机可以模拟的量子比特数,但它的优点是经典计算模拟可以在内部系统上执行,不需要向云中的某些量子计算机提交作业。
 
模拟也可以在一个无错误的环境中进行,这样程序就可以在最初开发时检查基本逻辑,无需程序员处理噪声量子比特,这些量子比特会在分析运行结果时导致不确定性。
 
虽然一台真正的完全纠错的量子计算机可以完成同样的任务,但这需要拥有数千个量子比特的机器,目前还无法达到。
 
为了提高模拟的性能,最近的趋势是利用GPU和其他特殊处理器比通用处理单元更有效地执行这些模拟。由于量子操作可以用矩阵数学和张量网络来描述,GPU架构可以更好地优化处理这些类型的操作。
 

为此,英伟达发布了一个名为cuQuantum的SDK,它可以在英伟达最新的GPU上提供模拟功能。该工具包提供了一些API接口,允许用户在Qiskit、Cirq、ProjectQ、Q#等常见框架中创建量子程序,然后在包含最新一代英伟达GPU的平台上进行模拟。
 
英伟达cuQuantum
 
SDK目前支持两种不同的模拟方法。状态向量模拟器提供高保真度结果,但需要一个随着量子比特数指数级增长的内存空间,限制了可以模拟的量子比特总数。张量网络方法用内存占用来换取内存,稍微降低保真度来模拟具有更多量子比特的程序。英伟达将继续开发这个SDK,并将在未来发布新增的模拟功能。
 
这种方法的性能可能相当好。例如,英伟达与加州理工学院合作,用一个深度为20的电路模拟了谷歌的53量子比特Sycamore处理器,类似于谷歌量子优势实验中使用的电路,能够在英伟达内部的Selene超级计算机上用9.3分钟完成模拟。
 
谷歌的实验在Sycamore上花了3分钟多一点,估计在橡树岭的Summit超级计算机上复制它需要1万分钟。然而,公平地说,完整的谷歌实验需要运行100万次,而英伟达/加州理工9.3分钟的运行只是一次这仍然是对Summit估计的实质性改进,而且在GPU模拟中得到一个有效的答案可能需要更少的运行次数,因为它没有噪声量子比特。
 
cuQuantum SDK目前正在进行最终测试,英伟达预计将在今年三季度开始提供早期访问。
 
参考链接
[1]https://blogs.nvidia.com/blog/2021/04/12/what-is-quantum-computing/
[2]https://quantumcomputingreport.com/nvidia-announces-sdk-for-quantum-simulation-on-gpus/
 
—End—

相关阅读:
打破谷歌量子霸权!经典计算机扳回一城
正面人工智能,反面量子计算
量子+人工智能来了,多国取得重要进展
2021人工智能最具影响力的100人
人工智能、物联网和量子计算:CES 2021技术趋势

#光子盒社群招募中#

进入光子盒社群,与我们近距离互动,了解量子领域更多产业、商业、科技动态,领取量子技术产业报告。
 
现添加社群助手微信Hordcore即可进群 ,与我们一起展望未来!

你可能会错过:
: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存