查看原文
其他

量子计算如何助力人工智能?

光子盒研究院 光子盒 2023-03-04
光子盒研究院出品


人工智能(AI)在经历了几十年只是研究人员的梦想之后,正在成为关键的行业趋势之一。从与Alexa和Siri的对话到Waymo(谷歌)和特斯拉的车辆自动驾驶,OpenAI的GPT-3像人类一样写散文,以及DeepMind(谷歌)的AlphaZero击败人类国际象棋大师,人们越来越清楚,人工智能现在已经成熟到可以解决现实生活中的问题,而且往往比人类更快、更好。

在科技行业的其他地方,一些有远见的人正在努力开发量子计算机,试图利用量子物理学的特性来进行计算,其速度远远超过今天的计算机。

那么,量子计算与人工智能到底有什么关系?

01
算法复杂性是隐藏的敌人

算法复杂性是一个有些晦涩的数学概念,它连接着人工智能研究者和量子计算先驱者正在进行的工作。

计算复杂性理论横跨数学和计算机科学的领域,它专注于根据资源使用情况对计算问题进行分类,如空间(内存)和时间。从本质上讲,计算问题是一项可以由计算机机械地按照算法中定义的数学步骤来解决的任务。

例如,考虑对一个列表中的数字进行排序。一种可能的算法,称为“选择排序”,包括从列表的未排序部分(最初是全部)中反复寻找最小的元素(按升序排列),并将其放在开头。这种算法在其工作过程中有效地维护了原始列表中的两个子列表:已经排序的部分和剩余的未排序部分。经过几次这样的过程,结果是一个从小到大的排序列表。就时间复杂度而言,这可以用N2的复杂度来表示,其中N表示列表中元素的大小或数量。数学家们已经想出了更有效的、尽管更复杂的排序算法,如排序演算法Cube Sort或Tim Sort,它们的复杂度都是N x log(N)。对今天的计算机来说,对100个元素的列表进行排序是一项简单的任务,但对10亿条记录的列表进行排序可能就不那么简单了。因此,时间复杂度(或算法中与输入问题的大小有关的步骤数)非常重要。


为了更快地解决一个问题,人们可以使用更快的计算机,或者找到一个更有效的算法,需要更少的操作,这就是较低的时间复杂性的含义。然而,很明显,在指数级复杂度的问题(例如,N22N)中,对于这种更大的问题规模,仅仅使用更快的计算机是不现实的:这正是人工智能领域中的情况。

02
人工智能需要解决高度复杂的问题

首先,我们将看看今天的人工智能(AI)系统所使用的人工神经网络的计算复杂性。这些数学模型受到构成动物大脑的生物神经网络的启发。它们通过看到许多例子,“学习”识别或归类输入数据。它们是相互连接的节点或神经元的集合,与激活函数相结合,根据“输入层”中呈现的数据和相互连接的权重来决定输出。


为了调整互连中的权重,使“输出”有用或正确,可以通过接触许多数据实例和“反向传播”输出损失来“训练”该网络。

对于一个有N个输入、M个隐藏层的神经网络,其中第i个隐藏层包含mi个隐藏神经元和k个输出神经元,调整所有神经元权重的算法(称为反向传播算法)的时间复杂性为:


02
量子计算能有效解决这些问题?

量子计算机是利用量子物理学的特性,特别是叠加和纠缠,来存储数据和执行计算的机器。人们期望它们能够同时执行数十亿次操作,因此为高度复杂的问题,包括人工智能,提供了一个非常实质性的速度提升。

经典计算机以比特(“二进制数字”的简称)传输信息,而量子计算机使用量子比特(“量子比特”的简称)。与经典比特一样,量子比特最终必须以1或0的形式传输信息,但其特殊之处在于,它们可以同时代表1和0。一个量子比特被认为有一个概率分布,例如,它70%可能是1,30%可能是0。这就是量子计算机的特殊之处。

量子力学中有两个基本属性,量子计算机利用了它们:叠加和纠缠。

量子计算和经典计算处理信息的本质不同。

当一个量子比特同时为1和0时,它被称为处于叠加状态。叠加是当一个系统同时处于多种状态,并且在被测量时只呈现一种状态的情况的总称。如果我们假装一枚硬币是一个量子物体,那么当硬币被抛出时,可以强加一个叠加状态:硬币只有一个概率是正面或背面。一旦硬币落地,我们就进行了一次测量,我们就知道硬币是头还是尾。同样,只有当我们测量一个电子的自旋时(类似于硬币落地),我们才知道电子处于什么状态,是1还是0。

处于叠加状态的量子粒子只有在我们拥有不止一个的情况下才有用。这就把我们带到了量子力学的第二个基本原则:纠缠。两个(或多个)纠缠在一起的粒子不能被单独描述,它们的属性完全取决于彼此。所以,纠缠的量子比特可以相互影响;一个量子比特的概率分布(是1还是0)取决于系统中所有其他量子比特的概率分布。

正因为如此,在一个系统中增加每一个新的量子比特,都会使计算机能够分析的状态数量增加一倍。这种计算机能力的指数式增长与经典计算形成了鲜明对比,后者只与每个新的比特呈线性扩展。

理论上,纠缠的量子比特可以同时执行数十亿次的操作。很明显,这种能力将为任何复杂程度在N2、2N或NN范围内的算法提供一个巨大的速度。

03
为量子驱动的人工智能做准备

由于量子计算令人印象深刻的潜力,在硬件团队继续努力使这些系统成为现实(迄今为止最大的是IBM的127比特Eagle系统)的同时,软件研究人员已经在研究可以利用这种“同步计算”能力的新算法,在密码学、化学、材料科学、系统优化和机器学习/AI等领域。据认为,shor的因式分解量子算法将提供比经典计算机更高的指数级速度,这对目前的加密算法构成了风险。

最有趣的是,人们相信量子线性代数将提供一个多项式的速度,这将极大地提高我们人工神经网络的性能。谷歌已经推出了TensorFlow Quantum,这是一个用于量子机器学习的软件框架,它可以快速建立混合量子-经典ML模型的原型。IBM也是量子计算的领导者,最近宣布它已经发现了量子机器学习的量子优势的“数学证明”。然而,虽然像IBM和谷歌这样的公司是垂直整合的(因此同时开发硬件系统和软件算法),但也有一群非常有趣的量子软件初创公司,包括Zapata、Riverlane、1Qbit,以及在某种程度上的Quantinuum(自从剑桥量子计算公司与霍尼韦尔合并、改名后,它不再是一家纯软件公司),仅举几例。

随着量子硬件变得更加强大,以及量子机器学习算法的完善,量子计算很可能在人工智能芯片市场上占据越来越重要的份额。

参考链接:
https://www.verdict.co.uk/what-has-quantum-computing-got-to-do-with-ai/


相关阅读:
量子计算+人工智能,如何改变制药业?
美国政府机构:人工智能、量子信息科技是中美竞争的核心
工信部新闻发布会:加快布局人工智能、量子通信等前沿领域
中科大杜江峰团队联合Lloyd在量子人工智能领域取得进展
正面人工智能,反面量子计算

#光子盒视频号开通啦!你要的,这里全都有#

每周一到周五,我们都将与光子盒的新老朋友相聚在微信视频号,不见不散!

你可能会错过:

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存