尽管量子神经网络(QNN)最近在解决简单的机器学习任务方面显示出令人鼓舞的结果,但二进制模式分类中QNN的行为仍未得到充实。在这项工作中,我们发现QNN在二元模式分类中具有致命的脚跟。为了说明这一点,我们通过介绍和分析嵌入具有完全纠缠的QNN家族的新形式的对称性形式,从而对QNN的性质提供了理论上的见解,我们将其称为否定性。由于否定对称性,QNN无法区分量子二进制信号及其负面信号。我们使用Google的量子计算框架在二进制模式策略任务中经验评估QNN的负对称性。理论和实验结果都表明,否定对称性是QNN的基本特性,经典模型并非共享。我们的发现还暗示否定对称性是实用量子应用中的双刃剑。
尽管量子神经网络 (QNN) 近期在解决简单的机器学习任务方面表现出良好的效果,但 QNN 在二元模式分类中的行为仍未得到充分探索。在这项工作中,我们发现 QNN 在二元模式分类中有一个致命弱点。为了说明这一点,我们通过展示和分析嵌入在具有完全纠缠的 QNN 系列中的一种新对称形式(我们称之为负对称),从理论上洞察了 QNN 的属性。由于负对称性,QNN 无法区分量子二进制信号及其负对应信号。我们使用 Google 的量子计算框架,通过实证评估了 QNN 在二元模式分类任务中的负对称性。理论和实验结果均表明,负对称性是 QNN 的基本属性,而经典模型并不具备这种属性。我们的研究结果还表明,负对称性在实际量子应用中是一把双刃剑。
近年来,人们对量子神经网络 (QNN) 及其在不同领域的应用产生了浓厚的兴趣。当前的 QNN 解决方案在其可扩展性方面提出了重大挑战,确保满足量子力学的假设并且网络在物理上可实现。QNN 的指数状态空间对训练程序的可扩展性提出了挑战。不可克隆原则禁止制作训练样本的多个副本,而测量假设会导致非确定性损失函数。因此,依赖于对每个样本的多个副本进行重复测量来训练 QNN 的现有方法的物理可实现性和效率尚不清楚。本文提出了一种新的 QNN 模型,该模型依赖于量子感知器 (QP) 传递函数的带限傅里叶展开来设计可扩展的训练程序。该训练程序通过随机量子随机梯度下降技术得到增强,从而无需复制样本。我们表明,即使存在由于量子测量而产生的不确定性,该训练程序也会收敛到期望的真实最小值。我们的解决方案有许多重要的好处:(i)使用具有集中傅里叶功率谱的 QP,我们表明 QNN 的训练程序可以可扩展;(ii)它消除了重新采样的需要,从而与无克隆规则保持一致;(iii)由于每个数据样本每个时期处理一次,因此提高了整个训练过程的数据效率。我们为我们的模型和方法的可扩展性、准确性和数据效率提供了详细的理论基础。我们还通过一系列数值实验验证了我们方法的实用性。
量子机学习的最新理论结果表明,量子神经网络(QNN)的表达能力与其训练性之间的一般权衡。作为这些结果的基础,人们认为对经典机器学习模型的表达能力的实用指数分离是不可行的,因为这样的QNN需要一些时间来训练模型大小的指数。我们在这里通过构建有效训练的QNN的层次结构来巩固这些负面的结果,这些QNN在经典神经网络上表现出无条件可证明的,多项式记忆的分离,包括经典神经网络(包括最先进的模型)(例如变形金刚),例如执行经典序列模型模型。这种结构也是计算上有效的,因为引入类别QNN类的每个单元仅具有恒定的栅极复杂性。我们表明,上下文 - 在形象上,语义歧义的定量概念是表达性分离的来源,这表明使用此属性的其他学习任务可能是使用量子学习算法的自然设置。
最近对量子网络(QNN)以及它们在不同领域的应用都有很大的兴趣。QNNS的当前解决方案对它们的可伸缩性提出了显着的挑剔,从而确保了量子力学的后期满足,并且可以在物理上实现净作品。QNNS的指数状态空间对训练过程的可扩展性构成了挑战。禁止原理禁止制作多个训练样本的副本,并且测量值假设导致了非确定性损失函数。因此,尚不清楚依赖于每个样本的几个副本进行训练QNN的几个副本的现有方法的物理可靠性和效率尚不清楚。本文提出了一个QNN的新模型,依赖于量子量度感知器(QPS)传递功能的带限制的傅立叶范围来设计可扩展的训练程序。通过随机量子随机差下降技术增强了这种训练过程,从而消除了对样品复制的需求。我们表明,即使在由于量子测量引起的非确定性的情况下,这种训练过程即使在存在非确定性的情况下也会收敛到真正的最小值。我们的解决方案具有许多重要的好处:(i)使用具有集中傅立叶功率谱的QPS,我们表明可以使QNN的训练程序可扩展; (ii)它消除了重新采样的需求,从而与无禁止的规则保持一致; (iii)增强了整体培训过程的数据效率,因为每个数据样本都是每个时期的一次。我们为我们的模型和方法的可伸缩性,准确性和数据效率提供了详细的理论基础。我们还通过一系列数值实验来验证方法的实用性。
量子神经网络 (QNN) 源于在经典神经网络 (NN) 的并行处理特性中添加了关联、纠缠和叠加等量子特性,这种方法有望提高神经网络的性能 [1-3]。尝试用量子计算机实现神经计算(深度学习)通常会导致不兼容,因为前者的动态是非线性和耗散的,而后者的动态是线性和幺正的(耗散只能通过测量引入)。尽管如此,最近还是提出了一组显示联想记忆的 QNN 的理想特性 [4]:i)QNN 应产生在某些距离测量方面最接近输入状态的输出状态;ii)QNN 应包含神经计算机制,如训练规则或吸引子动态;iii)QNN 的演化应基于量子效应。吸引子神经网络 (aNN) 是一类特殊的 NN。它们由 n 个相互作用的节点(人工神经元)集合实现,这些节点动态地向系统能量最小的状态之一演化 [5]。这种亚稳态被称为吸引子或模式。吸引子神经网络用于模拟联想记忆,即从一组存储的模式中检索出根据汉明距离最接近噪声输入的状态的能力。显然,吸引子的数量越多,联想记忆就越大,即 aNN 的存储容量就越大。aNN 的一个典型例子是 Hopfield 模型 [6],它由一层 n 个人工神经元组成,用一组二进制变量 {xi}ni=1,xi∈{±1} 表示,它们根据自旋玻璃哈密顿量成对相互作用。理想情况下,aNN 的量子类似物(我们将其称为 aQNN)应该满足上述要求。因此,经典比特在这里被在完全正向和迹保持 (CPTP) 映射作用下演化的量子比特所取代。aQNN 的存储容量对应于
在我们这个不断发展的世界里,海量的数据无时无刻不在涌入——无论是每天、每小时,甚至是每分每秒。我们交流、分享链接、图像和观点,留下一串串的痕迹,不仅代表着我们广阔的自然环境,也反映了我们的想法、喜好和情绪。认识到这些数据的重要性,数据科学领域应运而生,致力于揭示其中隐藏的洞见。机器学习 (ML) 已成为一个令人着迷的研究领域[8],因其从大量数据集中提取知识的能力而备受瞩目[20]。机器学习在弥合我们对自然的理解与其复杂性之间的差距方面发挥了关键作用。深度学习 (DL),尤其是神经网络 (NN),彻底改变了经典的机器学习,成为建模统计数据的非线性结构[23]。 NN,尤其是卷积神经网络 (CNN),可以模拟输入和输出之间的复杂关系[8],在图像模式识别等任务上表现出色,而这些任务的灵感来自视觉皮层的结构。虽然 NN,尤其是多层 NN,已经展现出非凡的能力,但它们的可训练性却带来了挑战。反向传播的出现缓解了这个问题,但训练困难仍然存在,需要整流神经元激活函数和分层训练等解决方案。量子机器学习 (QML) 开辟了新途径,利用嘈杂的中型量子计算机来解决涉及量子数据的计算问题。变分量子算法 (VQA) 和量子神经网络 (QNN) 提供了有前景的应用,利用经典优化器来训练量子电路中的参数。QNN 通过分析具有多项式复杂度的系统[2][6](在经典机器学习中,该系统的复杂度将呈指数级增长),与经典模型相比具有独特的优势,从而提供了计算优势。值得注意的是,与传统神经网络相比,QNN 表现出更快的学习能力,这归因于第 1 章和 A 章中讨论的纠缠。先前的研究强调了 QNN 在从有限数据中学习方面的有效性,从而减少了训练过程中的时间和精力。这篇硕士论文深入研究了使用用最少图像训练的各种量子模型进行有效图像分类的可能性,最后直接与经典 CNN 性能进行了比较。使用两个不同的数据集进行训练,随后缩小规模以探索 QNN 模型比 CNN 预测更多图像的潜力。
量子神经网络 (QNN) 已成为在各个领域追求近期量子优势的有前途的框架,其中许多应用可以看作是学习编码有用数据的量子态。作为概率分布学习的量子模拟,量子态学习在量子机器学习中在理论和实践上都是必不可少的。在本文中,我们开发了一个使用 QNN 学习未知量子态的禁忌定理,即使从高保真初始状态开始也是如此。我们证明,当损失值低于临界阈值时,避免局部最小值的概率会随着量子比特数的增加而呈指数级消失,而只会随着电路深度的增加而呈多项式增长。局部最小值的曲率集中于量子 Fisher 信息乘以与损失相关的常数,这表征了输出状态对 QNN 中参数的敏感性。这些结果适用于任何电路结构、初始化策略,并且适用于固定假设和自适应方法。进行了广泛的数值模拟以验证我们的理论结果。我们的研究结果对提高 QNN 的可学习性和可扩展性的良好初始猜测和自适应方法设定了一般限制,并加深了对先验信息在 QNN 中的作用的理解。
量子计算机能否用于实现比传统方法更好的机器学习模型?这些方法是否适合当今嘈杂的量子硬件?在本文中,我们制作了一个 Python 框架,用于实现基于在量子硬件上评估的参数化量子电路的机器学习模型。该框架能够实现量子神经网络 (QNN) 和量子电路网络 (QCN),并使用基于梯度的方法对其进行训练。为了计算量子电路网络的梯度,我们开发了一种基于参数移位规则的反向传播算法,该算法同时利用了经典硬件和量子硬件。我们进行了一项数值研究,试图描述密集神经网络 (DNN)、QNN 和 QCN 如何作为模型架构的函数运行。我们专注于研究消失梯度现象,并分别使用经验费舍尔信息矩阵 (EFIM) 和轨迹长度量化模型的可训练性和表达性。我们还通过在人工数据以及真实世界数据集上训练模型来测试模型的性能。
摘要 — 机器学习可以推动技术进步,造福不同的应用领域。此外,随着量子计算的兴起,机器学习算法已开始在量子环境中实现;现在称为量子机器学习。有几种尝试在量子计算机中实现深度学习。然而,它们并没有完全成功。然后,发现了一种结合了附加量子卷积层的卷积神经网络 (CNN),称为量子卷积神经网络 (QNN)。QNN 的性能优于经典 CNN。因此,QNN 可以实现比经典神经网络更好的准确度和损失值,并显示出它们对从其经典版本生成的对抗性示例的鲁棒性。这项工作旨在评估 QNN 与 CNN 相比的准确度、损失值和对抗鲁棒性。索引术语 — 量子卷积神经网络、量子神经网络、卷积神经网络