经过几十年的钻研,人工智能 (AI) 正在成为关键的行业趋向之一。从与 Alexa 和 Siri 的对话,到 Waymo(谷歌)和特斯拉的智能驾驶汽车,OpenAI 的 GPT-3 像人类一样写作散文,以及 DeepMind(谷歌)的 AlphaZero 击败人类国内围棋巨匠,人工智能如今曾经足够成熟了。处置事实生存中的疑问,而且通常比人类更快更好。
在科技行业的其余中央,一些有远见的人正在努力开发量子计算机,这些计算机试图应用量子物理学的个性来比当今的计算机更快地执行计算。
在这一点上,很多人或许想知道:量子计算与人工智能究竟有什么相关?
算法复杂性是暗藏的死敌
算法复杂性是一个有点艰涩的数学概念,它将 AI 钻研人员和量子计算先驱所做的上班咨询在一同。
例如,思考对列表中的数字启动排序的疑问。一种或许的算法,称为“选用排序”,包括从列表的未排序局部(最后是所有)重复找到最小元素(按升序)并将其放在扫尾。该算法有效地保养原始列表中的两个子列表,由于它正在运转:曾经排序的局部和残余的未排序局部。在这个环节经过几次之后,结果是一个从小到大的排序列表。就期间复杂度而言,这用 N 2的复杂度来示意,其中 N 示意列表中元素的大小或数量。数学家提出了更高效但更复杂的排序算法,例如“Cube Sort”或“Tim Sort”,这两种算法的复杂度都是 N x log(N)。关于当天的计算机来说,对蕴含 100 个元素的列表启动排序是一项便捷的义务,但对蕴含十亿条记载的列表启动排序或许就不那么便捷了。因此,期间复杂度(或算法中与输入疑问大小相关的步骤数)十分关键。
为了更快地处置疑问,可以经常使用更快的计算机,或许找到须要更少操作的更有效算法,这就是较低期间复杂度的含意。但是,很显著,关于指数复杂度的疑问(例如 N 2或 2 N),数学对您不利,并且关于较大的疑问规模,仅经常使用更快的计算机是不事实的。而这恰好是人工智能畛域的状况。
人工智能是一个须要处置的高度复杂的疑问
首先,咱们将了解当今人工智能 (AI) 系统经常使用的人工神经网络的计算复杂性。这些数学模型的灵感来自构成生物大脑的生物神经网络。他们经过检查许多示例“学习”识别或分类输入数据。它们是互连节点或神经元的汇合,联合激活函数,该函数依据“输入层”中出现的数据和互连中的权重确定输入。
为了调整互连中的权重以使“输入”有用或正确,可以经过泄露于许少数据示例和“反向流传”输入损失来“训练”网络。
关于具备N个输入、M个暗藏层的神经网络,其中第i 个暗藏层蕴含m i个暗藏神经元和k个输入神经元,调整一切神经元权重的算法(称为反向流传算法)将具备期间复杂度的:
综上所述,盛行的 OpenAI 的 GPT-3 模型曾经能够以与人类相当的流利度编写原始散文,具备 1750 亿个参数(或神经元)。这团体工智能模型领有数十亿的M,目前须要几个月的期间来训练,即使在大型云数据核心经常使用弱小的主机计算机也是如此。此外,人工智能模型的规模将继续增长,因此随着期间的推移状况会变得更糟。
量子计算来挽救?
量子计算机是经常使用量子物理个性(特意是叠加和纠缠)来存储数据和执行计算的机器。希冀它们可以同时执行数十亿个操作,从而为高度复杂的疑问(包括人工智能)提供十分实质性的减速。
经典计算机以比特(“二进制数字”的缩写)传输消息,而量子计算机经常使用量子比特(“量子比特”的缩写)。与经典比特一样,量子比特最终必定以 1 或 0 的方式传输消息,但其不凡之处在于它们可以同时示意 1 和 0。一个量子比特被以为具备概率散布,例如,它有 70% 的或许性是 1,而 30% 的或许性是 0。这就是量子计算机的特意之处。
量子计算机应用了量子力学中的两个基本属性:叠加和纠缠。
当一个量子比特同时为 1 和 0 时,称它处于叠加态。叠加是系统同时处于多个形态并且在测量时仅假定单个形态时的条件的总称。假设咱们假定一枚硬币是一个量子物体,那么当硬币被翻转时,就会发生叠加:硬币只要侧面或反面的概率。一旦硬币落地,咱们就启动了测量,咱们知道硬币是侧面还是反面。雷同,只要当咱们测量电子的自旋(相似于硬币落地)时,咱们才干知道电子处于什么形态以及它是 1 还是 0。
叠加态的量子粒子只要在咱们领有多个粒子时才有用。这将咱们带到了量子力学的第二个基本原理:纠缠。两个(或多个)纠缠在一同的粒子无法独自形容,它们的性质齐全依赖于彼此。因此,纠缠的量子比特可以相互影响。一个量子比特的概率散布(一个或零)取决于系统中一切其余量子比特的概率散布。
正由于如此,向系统中参与每个新的量子位都会使计算机可以剖析的形态数量参与一倍。计算机才干的这种指数级增长与经典计算构成显明对比,经典计算仅随每个新位线性裁减。
通常上,纠缠的量子比特可以同时执行数十亿次操作。很显著,这种才干将为任何复杂度在 N 2、2 N或 N N范围内的算法提供显着的减速。
为量子驱动的人工智能做好预备
由于量子计算的渺小后劲,虽然配件团队继续努力于使这些系统成为事实(迄今为止最大的是IBM 的 127-Qubit Eagle 系统),但软件钻研人员曾经在钻研可以应用这种“同时计算”的新算法' 才干,在明码学、化学、资料迷信、系统提升和机器学习/人工智能等畛域。置信 Shor 的因式合成量子算法将提供比经典计算机更高的指数减速,这对的明码算法构成风险。
最幽默的是,人们置信量子线性代数将提供多项式减速,这将极大地提高咱们人工神经网络的性能。谷歌推出了TensorFlow Quantum,这是一个用于量子机器学习的软件框架,它准许对混合量子经典机器学习模型启动极速原型设计。雷同是量子计算的指导者,IBM 最近发表,它发现了量子机器学习的量子长处的“数学证实”. 但是,虽然 IBM 和 Google 等公司是垂直整合的(因此同时开发了配件系统和软件算法),但也有一群十分幽默的量子软件初创公司,包括 Zapata、Riverlane、1Qbit,以及在必定水平上, Quantinuum(自从 Cambridge Quantum Computing 与 Honeywell 兼并并更名后,它不再是一家纯正的软件公司),仅举几例。
随着量子配件变得愈增弱小和量子机器学习算法的完善,量子计算很或许会在人工智能芯片市场上占据关键份额。