量子神经网络 (QNN) 使用具有数据相关输入的参数化量子电路,并通过评估期望值来生成输出。计算这些期望值需要重复进行电路评估,因此即使在无误差的量子计算机上也会引入基本的有限采样噪声。我们通过引入方差正则化来减少这种噪声,这是一种在量子模型训练期间减少期望值方差的技术。如果 QNN 构建正确,则此技术不需要额外的电路评估。我们的实证结果表明,方差的降低加快了训练速度,降低了输出噪声,并减少了梯度电路的必要评估次数。该正则化方法以多个函数的回归和水的势能表面为基准。我们表明,在我们的示例中,它平均将方差降低了一个数量级,并导致 QNN 的噪声水平显着降低。我们最后在真实的量子设备上演示了 QNN 训练,并评估了错误缓解的影响。这里,优化是可行的,仅仅是由于方差的减少导致梯度评估中所需的拍摄次数减少。
众所周知(参见 [1]),由经典感知器组成的神经网络可以表示任何函数。因此,希望量子神经网络也具有相同的特性。为了证明普适性,我们构建了一个能够进行通用量子计算的特定网络。即使每个神经元只对应一个量子比特,QNN 也是通用的。但是,如果每个神经元有更多量子比特,则构造会简化,并且我们针对单轨和双轨量子比特神经元以及最一般的神经元分别提供了证明。对于感知器节点为单个量子比特的情况,我们表明由 4 个神经元(两个输入和两个输出)组成的全连接网络可以学习任何两量子比特幺正 V 。一种可能的解决方案是:对应于第一个输出神经元的单元是输入量子位的希尔伯特空间上的 V,然后是第一个输入和输出量子位的希尔伯特空间上的 SWAP,对应于第二个输出神经元的单元是第二个输入和输出量子位的希尔伯特空间上的 SWAP(参见补充图 1)。
尽管具有量子霸权的潜力,但最先进的量子神经网络 (QNN) 仍然受到推理精度低的困扰。首先,当前的噪声中型量子 (NISQ) 设备的错误率高达 10 −3 到 10 −2,大大降低了 QNN 的精度。其次,虽然最近提出的重新上传单元 (RUU) 在 QNN 电路中引入了一些非线性,但其背后的理论尚不完全清楚。此外,以前反复上传原始数据的 RUU 只能提供边际精度改进。第三,当前的 QNN 电路假设使用固定的两量子比特门来强制实现最大纠缠能力,使得无法针对特定任务进行纠缠调整,导致整体性能不佳。在本文中,我们提出了一种量子多层感知器 (QMLP) 架构,该架构具有容错输入嵌入、丰富的非线性和增强的变分电路设计,具有参数化的两量子比特纠缠门。与现有技术相比,QMLP 在 10 类 MNIST 数据集上的推理准确率提高了 10%,量子门数量减少了 2 倍,参数减少了 3 倍。我们的源代码可用,可在 https://github.com/chuchengc/QMLP/ 中找到。
摘要:尽管经典机器学习取得了不可否认的成功,但它仍然是一个资源密集型的过程。现在,训练最先进模型的实际计算工作只能由高速计算机硬件来处理。由于这种趋势预计将持续下去,越来越多的机器学习研究人员正在研究量子计算的潜在优势也就不足为奇了。现在关于量子机器学习的科学文献非常多,有必要对其现状进行回顾,使其无需物理学背景即可理解。本研究的目的是从传统技术的角度对量子机器学习进行回顾。从计算机科学家的角度出发,我们通过量子机器学习算法给出从基础量子理论到量子机器学习算法的研究路径,讨论了一组量子机器学习的基本算法,这些算法是量子机器学习算法的基本组成部分。我们在量子计算机上实现了量子卷积神经网络 (QNN) 来识别手写数字,并将其性能与经典的卷积神经网络 (CNN) 进行比较。此外,我们在乳腺癌数据集上实现了 QSVM,并将其与经典 SVM 进行了比较。最后,我们在 Iris 数据集上实现了变分量子分类器 (VQC) 和许多经典分类器,以比较它们的准确性。
摘要:尽管经典机器学习取得了不可否认的成功,但它仍然是一个资源密集型的过程。现在,训练最先进模型的实际计算工作只能由高速计算机硬件来处理。由于这种趋势预计将持续下去,越来越多的机器学习研究人员正在研究量子计算的潜在优势也就不足为奇了。现在关于量子机器学习的科学文献非常多,有必要对其现状进行回顾,使其无需物理学背景即可理解。本研究的目的是从传统技术的角度对量子机器学习进行回顾。从计算机科学家的角度出发,我们通过量子机器学习算法给出从基础量子理论到量子机器学习算法的研究路径,讨论了一组量子机器学习的基本算法,这些算法是量子机器学习算法的基本组成部分。我们在量子计算机上实现了量子卷积神经网络 (QNN) 来识别手写数字,并将其性能与经典的卷积神经网络 (CNN) 进行比较。此外,我们在乳腺癌数据集上实现了 QSVM,并将其与经典 SVM 进行了比较。最后,我们在 Iris 数据集上实现了变分量子分类器 (VQC) 和许多经典分类器,以比较它们的准确性。
基于卫星的地球观察结果具有广泛的应用,例如自然灾害警告,全球温度影响分析,天气条件分析和土地利用分类。但是,目前用于土地利用分类的机器学习技术在时间和精力方面是昂贵的。有两种可能解决此问题的方法。第一个是变性量子算法。它们是一类量子算法,针对近乎中等规模的量子计算时代的应用。这些算法采用共同参数化的量子电路和经典优化技术来查找从给定应用点起具有理想特性的量子电路或状态。vqas通常在寻找量子哈密顿量的低能状态时发现应用程序,解决了大约二次无约束的二进制优化问题和训练量子神经网络。在地球观测区域中,最有希望的应用领域在于QNN,因为应用VQAS允许创建采用量子信息处理工具的新分类方法。第二种方法是使用量子计算机用于使用自动编码器降低维度的混合机学习方法,以及量子算法的量子算法,量子算法供电量子算法来降低培训成本。使用常规深度学习技术的自动编码器在GPU上执行,而深度信念网络则在D-Wave量子退火器上运行。这种混合方法允许对两个模块进行独立训练,部分减少了重新训练模型所需的时间和能量(请参见图I)。
量子卷积神经网络(QCNN)代表量子机学习中的一种有希望的方法,为量子和经典数据分析铺平了新方向。由于缺乏贫瘠的高原问题,训练量子神经网络(QNN)及其可行性,这种方法特别有吸引力。但是,将QCNN应用于经典数据时会产生一个限制。当输入量子数的数量为两个功率时,网络体系结构是最自然的,因为每个池层中的数量减少了两个倍。输入量子位的数量确定可以处理的输入数据的尺寸(即功能数量),从而限制了QCNN算法对现实世界数据的适用性。为了解决此问题,我们提出了一个QCNN体系结构,能够处理任意输入数据尺寸,同时优化量子资源(例如辅助量子器和量子门)的分配。这种优化不仅对于最大程度地减少计算资源很重要,而且在嘈杂的中间量子量子(NISQ)计算中至关重要,因为可以可靠地执行的量子电路的大小是有限的。通过数值模拟,我们基准了具有任意输入数据维度的多个数据集的各种QCNN体系结构的分类性能,包括MNIST,Landsat卫星,时尚 - 纳斯特和电离层。结果验证了提出的QCNN体系结构在利用最小资源开销的同时实现了出色的分类性能,当可靠的量子计算受噪声和缺陷限制时,提供了最佳解决方案。
量子机学习,专注于量子神经网络(QNN),仍然是一个非常未知的研究领域。当前的QNN模型主要在ANSATZ或量子特征图上采用各种电路,通常需要多个纠缠层。这种方法不仅将电路的计算成本提高到了近期量子设备上的实用性,而且鉴于它们与典型的进发神经网络(FFNN)的结构的差异,还将这些模型标记为神经网络。此外,这些模型的电路深度和量子需求随数据功能的数量而缩小较大,从而导致对现实世界机器学习任务的效率挑战。我们引入了一个真正的QNN模型,该模型与传统FFNN的多功能性无缝地与其适应性的中间层和节点的多功能性保持一致,而中间测量不存在,因此我们的整个模型都是相干的。该模型以其减少的电路深度和所需的C-Not门的数量而脱颖而出,以超过盛行的QNN模型。此外,我们的模型中的Qubit计数仍然不受数据特征数量的影响。我们在各种基准测试数据集(例如诊断乳腺癌(威斯康星州)和信用卡欺诈检测数据集)上测试了我们提出的模型。我们将模型的结果与现有的QNN方法进行比较,以展示我们方法的有利功效,即使对量子资源的要求减少了。我们的模型为将量子神经网络应用于真正相关的机器学习问题铺平了道路。
生成模型一直是机器学习研究中特别受关注的一个领域,成功的模型架构极大地改进了生成模型,包括变分自编码器 (VAE)、生成对抗网络 (GAN) 和可逆神经网络 (INN) [1-3]。除其他应用外,生成模型在事件生成中的应用也得到了广泛研究 [4-6]。与马尔可夫链蒙特卡洛 (MCMC) 技术 [7-11] 相比,生成模型的优势不仅限于提高推理速度,而后者迄今为止已成为领先的 LHC 模拟和解释方法。此外,生成模型可以进行端到端训练,从而实现更全面的应用,如展开 [12-14]、异常检测 [15-19] 等等 [20]。然而,这些神经网络 (NN) 的参数空间巨大,使其能够模拟复杂的交互,但这也导致对计算资源的需求巨大。流行的 NN 架构的规模早已达到计算可行性的边界。量子机器学习 (QML) 将量子计算的强大功能引入现有的机器学习基础,以建立并利用量子优势,从而实现量子算法独有的性能提升。虽然基于门的量子计算与经典计算有很大不同,但已经构建了许多与上述经典生成网络等效的模型,包括量子自动编码器 [ 21 ] 和量子 GAN [ 22 – 27 ]。值得注意的例外是 INN [ 28 , 29 ],它们尚未转移到 QML 领域。此类网络将成为量子神经网络 (QNN) 阵列的理想补充。虽然经典 INN 中雅可比行列式的可处理性使它们能够执行密度估计,这从本质上防止了模式崩溃,但通常无法有效地计算完整的雅可比矩阵 [ 30 ]。 INN 中完全可处理的雅可比矩阵(QNN 可用)将允许高效学习主要数据流形 [31-34],为可解释的表示学习和对底层过程的新洞察开辟机会。基于耦合的 INN 架构已通过经验证明对消失梯度问题更具弹性 [28],这使它们可以直接受益于具有许多参数的深度架构。然而,到目前为止列出的许多 INN 应用已经需要大量的训练资源。目前的研究表明,量子模型可以避免这种对巨大参数空间的需求。它们在表达力方面胜过常规 NN,能够用少得多的参数表示相同的变换 [35-39]。这一理论基础得到了几个专门构建的 QML 电路实例的支持,这些电路为专门设计的问题提供了比经典解决方案更有效的解决方案 [ 40 – 43 ]。QNN 已经成功应用于相对有限的高能物理问题 [ 21 , 25 , 44 – 46 , 46 – 51 ] 以及非 QML 方法 [ 52 – 56 ]。然而,据我们所知,尚未尝试构建可逆 QNN,该 QNN 可通过其可逆性用作生成任务的密度估计器。通过这项工作,我们旨在填补与经典 INN 量子等价的剩余空白,开发量子可逆神经网络 (QINN)。我们展示了如何将 QNN 流程中的每个步骤设计为可逆的,并展示了模拟网络估计分布密度的能力。作为原理证明,我们将我们的模型应用于最重要、研究最多的高能物理过程之一的复杂模拟 LHC 数据,pp → Z j → ℓ + ℓ − j,
机器学习 (ML),尤其是通过反向传播算法应用于深度神经网络,带来了巨大的技术和社会变革 [1–4]。如今,它已广泛应用于各个领域,从图像分析和自动驾驶汽车,到定制广告的投放和删除 [5– 9]。纯粹的传统 ML 继续快速发展,然而,量子计算的出现有望带来大量强大的新工具和概括。我们现在正在见证大规模量子信息处理器的实验性到来 [10]。这种嘈杂的中型量子器件 (NISQ) [11] 开创了量子信息时代,为理论物理学带来了关键的新挑战和机遇。当量子器件开始常规生产涉及 50 个或更多量子比特的复杂纠缠态时,最紧迫的挑战是如何应对量子数据即将无处不在的情况。对这种状态的表征远远超出了实用的断层扫描范围;相反,通过量子机器学习 (QML),量子设备本身将成为处理即将到来的量子数据激增的自然工具。QML [12–14] 这一新兴领域通过利用人工神经网络 (ANN) 架构 [1, 2, 4] 的量子类似物来进行量子数据学习,为发现量子学习算法带来了巨大希望。从经典角度来看,ANN 通过对训练数据进行监督和无监督学习,非常适合解决分类问题,人们乐观地认为量子类似物也将取得类似的成功。到目前为止,已经考虑了几种量子架构,包括变分量子电路 [15] 和各种类似神经网络的架构 [16–18]。最近,一种有前途的候选人工量子神经网络架构 (QNN) 被引入 [19]。初步研究表明,这些 QNN 非常适合监督学习 [19] 和无监督学习任务 [20]。了解量子学习设备和方法的最终极限是重中之重,也是量子学习理论 (QLT) [21–26] 的核心目标。过去几年,QLT 领域取得了稳步进展,积累了各种关键成果,特别是表征了量子设备学习以特殊量子态编码的经典数据的极限,以及经典设备学习量子态的极限。