量子计算陷入难解困境,未来发展何去何从?
专家库 | 人才库 | 企业库 | 项目库 | 投资机构库 | 招商信息库
来源:科研圈
量子计算机在一些具体任务上的表现很快就能超越传统电子计算机,但是在量子计算真正实现其巨大潜力前,依然需要克服许多基础性的难题。
在量子计算的可行性被质疑长达几十年后,全世界范围内忽然掀起了对于量子计算的追逐狂潮。两年前,IBM 向公众开放了一台只有 5 个量子比特的迷你量子计算机,被人们(有些尴尬地)称为 IBM 的 Q 体验。对于研究者来说,那更像一台玩具而不是能够真正进行高强度数据运算的机器。不过,全世界依然有超过七万用户注册并体验了这一服务。截止目前,其量子比特数已经翻了两番。 IBM 和英特尔公司分别宣称他们建造了具有 50 和 49 量子比特位的量子计算机,谷歌也正伺机而动。“量子计算的科研圈子很有活力,并且最近也确实取得了巨大的进展,”来自柏林自由大学的物理学家延斯·埃斯特(Jens Eisert)说。
大家都在谈论着实现所谓的“量子霸权”,即量子计算机执行某个任务的能力将超越最好的超级电子计算机。乍一听到这个概念,再看看现有量子计算机中的 50 个量子比特和笔记本电脑里面上百亿的传统比特,这种悬殊的差异,不免让人觉得是天方夜谭。但是量子计算机的最大优势就是每一个量子比特的运算能力都远远高于传统比特。长久以来,大家都相信 50 个量子比特的量子计算机应该能够解决让传统计算机束手无策的某些问题。在 2017 年年中,谷歌的研究人员宣布他们希望能够在年末时证实量子霸权的存在。不过当被问及最新进展时,一位发言人说“尽管我们希望能够尽快的宣布结果,但我们也需要认真审查工作中的所有细节,确保结果的可信度”。
现在的研究进展也许会让人兴奋地觉得所有的基础和原则性问题都已得到解决,未来通往通用量子计算的道路上只剩下工程技术需要去实现。但遗憾的是,事实远非如此。量子计算的基础物理问题并没有得到完全解决,而这些问题与量子计算的技术实现紧密相关。
即便我们很快能够实现“量子霸权”这一里程碑,接下来的一两年也将是检验量子计算机能否革新传统计算领域的关键时刻。通往通用量子计算时代的道路仍然极为坎坷,需要多方的共同努力。
BM 的量子计算中心, Connie Zhou for IBM
量子计算的优势和所面临的挑战,都源于量子物理本身。很多人都尝试过解释量子计算的基本原理,但并不总能说明白它与经典计算之间的细微差别。经典计算机是通过一串二进制代码 0 和 1 来编码和操纵信息。量子比特所做的事情在本质上并没有区别,只是它们能够处在 0 和 1 的叠加态下。换而言之,当我们测量量子比特的状态时,会得到一个一定概率的 0 或 1 。
为了用许多这样的量子比特执行计算任务,它们必须持续地处在一种相互关联的叠加态下,即所谓的量子相干态。这些量子比特处于纠缠之中,一个比特的变化能够影响到剩下所有的量子比特。这就暗示了基于量子比特的运算能力将远远超过传统比特。传统电子计算机的运算能力随着比特位的增加呈线性增长,而每增加一个量子比特位,则有可能使量子计算机的运算能力加倍(呈指数增长)。这也就是为什么 5 量子比特位和 50 量子比特位的量子计算机有天壤之别。
值得注意的是,我从来没有声称——尽管很多人这么说过——相对于传统电子计算机,量子计算机的优势来源于叠加极大地增加了可以进行信息编码的态的数量。我也没有宣称量子比特的纠缠性质允许许多运算得以平行进行。尽管这些说法在某种意义下有正确的成分,但是都没有抓住量子计算的本质。
一个 50 量子比特位计算系统的中心结构 Connie Zhou for IBM
为什么量子计算机的计算能力如此强大?实际上,我们很难精确地给出一个定性的回答,因为科学家们难以精确解释量子力学的含义。量子理论的方程确实表明,至少在大多数因式分解和数据库搜索上,量子计算的运行速度相比传统计算机有了极大提高,但这到底是如何提升的却依然未知。
也许最保守的说法应该是,量子力学创造了一种传统计算机所没有的“计算资源”。正如来自于加拿大滑铁卢圆周理论物理研究所的量子物理学家丹尼尔·戈兹曼(Daniel Gottesman)所说,“计算中应用了足够多的量子力学,计算速度就会极大提高。没有用够,就没有提高。”
不过有些事情是清楚的,在进行量子计算的时候,你必须确保所有的量子比特处于相干态中。这是一个十分困难的要求,因为量子相干系统会与它们周围的环境相互影响,使得相干性迅速衰减,也就是“退相干”。研究者们所建造的量子计算机必须拥有能延缓“退相干”的能力,而目前相干性最多只能保持不到一秒。随着量子比特数量的增加,保持相干态将变得越来越难,因为越多的量子比特数意味着系统越容易和周围环境相互影响。这也在很大程度上解释了,为什么 1982 年费曼就提出了量子计算的概念,其基础理论也在 90 年代早期逐渐成熟,但是直到最近才出现能实际进行计算的设备。
实现量子计算还面临着一项基础性困难。和自然界的其它过程一样,噪声干扰无处不在。随机波动、来自量子比特的热能、甚至基本的量子物理过程都可能会改变量子比特所处的状态,进而干扰到量子计算。这同样也是影响传统电子计算机运算的一个问题,不过解决办法比较简单有效:只要给每个比特位备上多个副本,这样出现错误的那一个就会十分明显,立刻被发现。
量子计算的研究者们找到了一些解决噪声的办法。但是这些办法都需要消耗巨大的、甚至所有的计算能力,用于纠错而不是运行你所需要的算法。安德鲁·柴尔兹(Andrew Childs),马里兰大学量子信息和计算科学联合中心的主任之一评论道,“目前的编码错误率严重限制了量子计算的复杂程度。如果我们想用量子计算机做一些有意思的事情,那在这方面必须做到更好。”
安德鲁·柴尔兹(Andrew Childs),马里兰大学, by John T. Consoli
很多关于量子计算基础理论的研究都集中到了编码纠错上来。这个领域的部分困难来源于量子力学的另外一个基本特性:观测会破坏量子比特所处的叠加态,而使其坍塌到一个具体的值—— 0 或 1 上。那么问题来了:如果你不能测量一个量子比特所处的状态,你如何能够发现它出错了?
一个十分精妙的办法就是将量子比特和另一个“附属比特”联系起来,而附属比特并不直接参与计算过程。如此一来,就可以通过测量“附属比特”来得到主比特的信息,同时不会引起主比特的坍塌。但理论不等于实际。采用这种办法,即建造一个能够完成自我编码纠错的“逻辑量子比特”,意味着你会需要很多个实际的量子比特。
到底需要多少个?来自哈佛大学的量子物理学家阿兰·阿斯普鲁古兹克(Alán Aspuru-Guzik)预计在现在的技术水平下大约需要上万个实际量子比特才能建造一个“逻辑比特”。这是一个天方夜谭的数字。当然他也承认,随着技术进步,这一数字会大大减小,降低到只需要几千个甚至数百个。德国柏林自由大学的埃斯特则没有那么悲观,认为现在大约 800 个量子比特就能够构建一个逻辑量子比特。不过即便如此,他也同意“自检负担还是太重。” 当下,我们还是需求寻求新的办法去处理这些容易产生编码错误的量子比特。
一种替代的方式就是去避免量子比特产生错误,或者消除错误带来的影响。这种办法被称之为错误抑制算法(error mitigation)。比如来自于 IBM 的研究者们就在开发新的办法——从数学上计算出一次运算中究竟有多少编码错误会产生,从而推断出“零噪声”极限下的计算结果。
一些研究者认为量子编码纠错是一个非常棘手的问题,而且会阻碍量子计算各种伟大目标的实现。来自以色列耶路撒冷希伯来大学的数学家吉尔·卡莱(Gil Kalai)说,“创造出真正的量子编码纠错比展示量子霸权要困难得多。” 并且他认为“没有编码纠错能力的计算设备是非常原始的,而在这样的计算设备上展示量子霸权是根本不可能的。”简而言之,出错的量子计算机,永远比不过传统计算机。
而另外的一些研究者则相信量子编码纠错的难题最终会被攻破,根据一位来自 IBM 汤姆斯沃森研究中心的量子信息学家杰伊·加贝塔(Jay Gambetta)的说法,“我们最近在 IBM 所进行的实验展示了小型设备上的量子编码纠错的原型,也为在更大规模的设备上长时间稳定存储量子信息打下了坚实的基础。” 即使如此,他也承认“距离一个能够使用逻辑比特位,进行编码纠错的通用量子计算机仍然有很长的道路要走。”这些进展让柴尔兹保持一个谨慎的乐观态度:“我相信我们很快就能看到优化的量子编码纠错的实验展示,但距离真正的应用还有很远。”
目前为止,量子计算机都很容易产生编码错误。问题是我们如何能够和编码错误“和谐”相处。在 IBM,研究者们正在谈论近期内实现这一想法的一个可能方法——“近似量子计算”。也就是说去找到能够适应、容忍噪音的算法,能够在噪音的干扰下,仍然得到正确的答案。
这就像是在大选中,我们能够无视一些出错的的电子选票,仍然得到正确的选举结果。“一个拥有足够大的计算能力和足够高保真度的量子计算机,应当具备超越现有电子计算机的优势。尽管它不一定能完全不受噪音干扰。” 加贝塔说。
现阶段一个最有可能的容忍噪声的应用,就是在原子层面上进行物质模拟(事实上,这正是费曼提出量子计算的出发点)。对科学家们来说,这更有价值。
量子力学的方程给出了一种计算物质性质的途径,例如一个药物分子稳定性和化学反应性。但是如果不做出诸多简化,传统计算方法对此无能为力。
相比之下,柴尔兹说,电子和原子的量子行为,“与量子计算机的计算原理更加紧密相关。”所以我们能够构造一个具体分子的计算机模型。“包括我在内的这一领域的很多研究者都坚信量子化学和材料学将会成为这种计算设备最早的有应用价值的领域,” 阿斯普鲁古兹克说道。他一直在竭力推动量子计算向这一方向发展。
量子模拟目前正在一些比较小的量子计算机上证明着自身的价值。一队包括阿斯普鲁古兹克在内的研究者们正在开发一种被称之为可变量子本征求解(variational quantum eigensolver, VQE)的算法,能够在有外界噪声干扰的情况下找到一个特定分子的最低能量态。当然到目前为止,这种算法只能够处理只含有几个电子的小分子结构,在这个大小下即便是使用传统电子计算机也能够得到准确的计算结果。加贝塔和同事于去年 9 月份使用 IBM 的 6 个量子位的设备去计算了诸如氢化锂、氢化彼等小分子的电子结构。来自瑞士苏黎世皇家理工学院的物理化学家马科斯·雷勒(Markus Reiher)说“这是在量子领域具有跨越性的工作。” 加贝塔则表示:“使用 VQE 算法模拟小分子结构,展示了近期探索性算法的可能。”
但即便是这样的应用,阿斯普鲁古兹克承认,我们也需要能够进行编码纠错的逻辑量子比特位,才有可能真正的超越传统的电子计算机。“我非常期待,具备编码纠错能力的量子计算机成为现实的那一天。”
“如果我们拥有超过 200 个逻辑比特位,我们就能在量子化学上做到传统计算机无法做到的事情。” 雷勒补充道。“如果拥有 5000 个逻辑比特位,量子计算机将为这一领域带来颠覆性的改变。”
尽管有很多挑战,但是反过来讲,不过一年量子计算机就从 5 个比特位跨越到 50 个比特位的巨大进步,着实给我们带来了很多希望。但我们不能仅仅满足于这些数字,因为它们只告诉了我们事实的一部分。真正重要的不仅仅是有多少个量子比特位(这甚至不是主要因素),而是量子比特的性能好坏,以及算法是否高效。
所有的量子计算都必须在退相干效应发生并扰乱量子比特前完成。而在目前的条件下,一群预先组装好的量子比特位会在几个微秒内就发生退相干。在这么短的时间内所能完成的逻辑操作的次数,取决于量子逻辑门切换的速度。如果这个速度过慢的话,有再多量子比特位也没用。一次计算所需要的逻辑门操作的次数被称为深度,很显然低深度的量子算法比高深度的算法更容易实现和控制。但问题的关键是它们能不能承担有意义的计算任务。
更重要的是,并不是所有的量子比特所遭受的噪声都是一样的。理论上一些材料的拓扑电子态能够制造出低噪声的量子比特。这些电子态的“形态”使得利用它们来编码二进制信息的时候,有较强的抗随机噪声的能力。来自于微软的研究者们正在一些特别的量子材料中寻找这些拓扑电子态。但到目前为止还不能保证这些电子态被找到或者能够被控制。
来自于 IBM 的研究者们提出了一个“量子容量”( quantum volume)的概念,用于描述特定设备的量子计算能力。这个数字会综合考虑量子比特的数量和关联性、算法的深度、以及量子逻辑门的各项性能指标比如抗噪能力。加贝塔认为只有这样的“量子容量”概念才能对量子计算机的计算能力有一个很好的表征,并且他还认为当务之急就是发展能够提升量子容量的量子计算硬件。
这也就是为什么“量子霸权”这个概念比人们看起来更模棱两可。50 量子比特位的量子计算机就能够超越当今最先进的电子计算机,确实十分诱人,但同时也留下了很多值得深思的问题。量子计算机究竟在解决哪些问题上能够超越电子计算机?在不能用传统设备进行重复试验和检测的时候,如何知道量子计算机得到了正确的答案?你怎么确定在有更优算法的情况下传统电子计算机不能做得更好?
所以我们应该谨慎对待“量子霸权”这个概念。现在更多的研究者倾向于使用“量子优势”,用来指代量子计算设备所带来的速度提升,而不是断言哪种设备更优秀。此外,对于“量子霸权”这个概念的厌恶,还来源其隐含的种族和政治意味。
无论如何命名,展示量子计算机超越现有传统设备,对这个新兴领域具有重大的精神意义。埃斯特说:“确定清晰的量子优势将是一个重要的里程碑。“ 它将证明量子计算机确实可以大幅度扩展目前的科技边界。
确认“量子优势”更多的是具有象征性意义,而不是真正引发计算领域的变革。不过,这件事情仍然非常重要,因为如果量子计算想要取得成功,不能仅靠谷歌或者 IBM 忽然之间出售一些高端机器,而需要开发者和使用者之间紧密的相互合作。只有在相信所有的投入都是有意义的情况下,使用者的各种配套技能才会取得快速发展。
这正是 IBM 和谷歌热衷于向公众开放量子计算设备的原因。在 IBM 的 16 量子比特计算机向所有的在线注册用户开放后,一个 20 量子比特的设备也已经向包括摩根,戴姆勒,本田,三星,剑桥大学等企业用户开放。这不仅能帮助客户们探索量子计算的优势,也会建立起一个充满量子计算开发者们的社群。他们将团结起来创造新资源并解决问题,完成任何一家公司都无法单独做到的事情。
“为了让量子计算真正发力和蓬勃发展,我们必须让全世界都能去使用和学习它,”加贝塔说。“现在正是科研界和工业界努力为量子计算的时代到来做准备的时候。”
一网打尽系列文章,请回复以下关键词查看: |
创新发展:习近平 | 创新中国 | 创新创业 | 科技体制改革 | 科技创新政策 | 协同创新 | 成果转化 | 新科技革命 | 基础研究 | 产学研 | 供给侧 |
热点专题:军民融合 | 民参军 | 工业4.0 | 商业航天 | 智库 | 国家重点研发计划 | 基金 | 装备采办 | 博士 | 摩尔定律 | 诺贝尔奖 | 国家实验室 | 国防工业 | 十三五 | 创新教育 | 军工百强 | 试验鉴定 | 影响因子 | 双一流 | 净评估 |
预见未来:预见2016 | 预见2020 | 预见2025 | 预见2030 | 预见2035 | 预见2045 | 预见2050 | |
前沿科技:颠覆性技术 | 生物 | 仿生 | 脑科学 | 精准医学 | 基因 | 基因编辑 | 虚拟现实 | 增强现实 | 纳米 | 人工智能 | 机器人 | 3D打印 | 4D打印 | 太赫兹 | 云计算 | 物联网 | 互联网+ | 大数据 | 石墨烯 | 能源 | 电池 | 量子 | 超材料 | 超级计算机 | 卫星 | 北斗 | 智能制造 | 不依赖GPS导航 | 通信 | MIT技术评论 | 航空发动机 | 可穿戴 | 氮化镓 | 隐身 | 半导体 | 脑机接口 |
先进武器:中国武器 | 无人机 | 轰炸机 | 预警机 | 运输机 | 战斗机 | 六代机 | 网络武器 | 激光武器 | 电磁炮 | 高超声速武器 | 反无人机 | 防空反导 | 潜航器 | |
未来战争:未来战争 | 抵消战略 | 水下战 | 网络空间战 | 分布式杀伤 | 无人机蜂群 | 太空站 |反卫星 |
领先国家:俄罗斯 | 英国 | 日本 | 以色列 | 印度 |
前沿机构:战略能力办公室 | DARPA | Gartner | 硅谷 | 谷歌 | 华为 | 俄先期研究基金会 | 军工百强 |
前沿人物:钱学森 | 马斯克 | 凯文凯利 | 任正非 | 马云 | 奥巴马 | 特朗普 |
专家专栏:黄志澄 | 许得君 | 施一公 | 王喜文 | 贺飞 | 李萍 | 刘锋 | 王煜全 | 易本胜 | 李德毅 | 游光荣 | 刘亚威 | 赵文银 | 廖孟豪 | 谭铁牛 | 于川信 | 邬贺铨 | |
全文收录:2016文章全收录 | 2015文章全收录 | 2014文章全收录 |
其他主题系列陆续整理中,敬请期待…… |