量子神经网络 (QNN) 已成为在各个领域追求近期量子优势的有前途的框架,其中许多应用可以看作是学习编码有用数据的量子态。作为概率分布学习的量子模拟,量子态学习在量子机器学习中在理论和实践上都是必不可少的。在本文中,我们开发了一个使用 QNN 学习未知量子态的禁忌定理,即使从高保真初始状态开始也是如此。我们证明,当损失值低于临界阈值时,避免局部最小值的概率会随着量子比特数的增加而呈指数级消失,而只会随着电路深度的增加而呈多项式增长。局部最小值的曲率集中于量子 Fisher 信息乘以与损失相关的常数,这表征了输出状态对 QNN 中参数的敏感性。这些结果适用于任何电路结构、初始化策略,并且适用于固定假设和自适应方法。进行了广泛的数值模拟以验证我们的理论结果。我们的研究结果对提高 QNN 的可学习性和可扩展性的良好初始猜测和自适应方法设定了一般限制,并加深了对先验信息在 QNN 中的作用的理解。
噪声中型量子器件使得量子神经网络 (QNN) 的变分量子电路 (VQC) 得以实现。尽管基于 VQC 的 QNN 已在许多机器学习任务中取得成功,但 VQC 的表示和泛化能力仍需要进一步研究,尤其是在考虑经典输入的维数时。在这项工作中,我们首先提出了一种端到端 QNN,TTN-VQC,它由基于张量训练网络 (TTN) 的量子张量网络(用于降维)和用于函数回归的 VQC 组成。然后,我们针对 TTN-VQC 的表示和泛化能力进行误差性能分析。我们还利用 Polyak-Lojasiewicz 条件来表征 TTN-VQC 的优化属性。此外,我们对手写数字分类数据集进行了函数回归实验,以证明我们的理论分析是正确的。
摘要:量子计算有望在未来从根本上改变计算机系统。最近,量子计算的一个新研究课题是机器学习的混合量子-经典方法,其中参数化的量子电路(也称为量子神经网络 (QNN))由经典计算机优化。这种混合方法可以兼具量子计算和经典机器学习方法的优点。在这个早期阶段,了解量子神经网络对不同机器学习任务的新特性至关重要。在本文中,我们将研究用于对图像进行分类的量子神经网络,这些图像是高维空间数据。与以前对低维或标量数据的评估相比,我们将研究实际编码类型、电路深度、偏置项和读出对流行 MNIST 图像数据集的分类性能的影响。通过实验结果获得了关于不同 QNN 学习行为的各种有趣发现。据我们所知,这是第一项考虑图像数据的各种 QNN 方面的工作。
摘要 - 机器学习的新兴领域(ML)和量子机器学习(QML)在解决各个领域的复杂问题方面具有巨大的潜力。但是,在将这些系统部署在安全敏感的应用中时,它们对对抗性攻击的敏感性会引起人们的关注。在这项研究中,我们对ML和QML模型的脆弱性,特别是常规神经网络(NN)和量子神经网络(QNN)进行了比较分析,以使用恶意软件数据集进行对抗攻击。我们利用一个称为夹具的软件供应链攻击数据集,并为QNN和NN开发了两个不同的模型,并采用Pennylane实现了Quantylane,而Tensorflow和Keras进行了传统实现。我们的方法涉及通过将随机噪声引入数据集的一小部分来制作对抗样本,并使用准确性,精度,召回和F1得分指标评估模型性能的影响。根据我们的观察结果,ML和QML模型均表现出对对抗攻击的脆弱性。与攻击后的NN相比,QNN的准确性降低了,但在精确和召回方面表现出更好的性能,表明在对抗条件下检测真正的阳性时的弹性更高。我们还发现,为一种模型类型制定的对抗样品会损害另一种模型的性能,从而强调了对强大的防御机制的需求。我们的研究是未来研究的基础,着重于增强ML和QML模型(尤其是QNN)的安全性和弹性,鉴于其最近的进步。面对对抗性攻击,将进行更广泛的实验,以更好地了解这两种模型的性能和鲁棒性。
摘要 - 随着量子机器学习的快速发展,量子神经网络(QNN)在过去几年中经历了很大的进步,利用了量子计算的优势,可以显着加快经典的机器学习任务。尽管量子神经网络越来越受欢迎,但由于它们在其架构中的独特量子特异性层(例如,数据编码和测量),量子神经网络非常违反直觉且难以理解。它可以防止QNN用户和研究人员有效地了解其内部工作和探索模型培训状态。为了填补研究空白,我们提出了紫罗兰色,这是一种新型的视觉分析方法,以提高量子神经网络的解释性。在从与域专家的访谈和文献调查中提取的设计要求的指导下,我们开发了三种可视化视图:编码器视图揭示了将经典输入数据转换为量子状态的过程,ANSATZ视图揭示了训练过程中量子状态的时间演变,并且该功能视图显示了QNN的培训过程。提出了两种新型的视觉设计,即卫星图和增强热图,分别在视觉上解释了变化参数和量子电路测量值。我们通过两项案例研究和对12个领域专家的深入访谈评估紫罗兰色。结果证明了紫罗兰在帮助QNN用户和开发人员直观地理解和探索量子神经网络方面的有效性和可用性。
量子机学习,专注于量子神经网络(QNN),仍然是一个非常未知的研究领域。当前的QNN模型主要在ANSATZ或量子特征图上采用各种电路,通常需要多个纠缠层。这种方法不仅将电路的计算成本提高到了近期量子设备上的实用性,而且鉴于它们与典型的进发神经网络(FFNN)的结构的差异,还将这些模型标记为神经网络。此外,这些模型的电路深度和量子需求随数据功能的数量而缩小较大,从而导致对现实世界机器学习任务的效率挑战。我们引入了一个真正的QNN模型,该模型与传统FFNN的多功能性无缝地与其适应性的中间层和节点的多功能性保持一致,而中间测量不存在,因此我们的整个模型都是相干的。该模型以其减少的电路深度和所需的C-Not门的数量而脱颖而出,以超过盛行的QNN模型。此外,我们的模型中的Qubit计数仍然不受数据特征数量的影响。我们在各种基准测试数据集(例如诊断乳腺癌(威斯康星州)和信用卡欺诈检测数据集)上测试了我们提出的模型。我们将模型的结果与现有的QNN方法进行比较,以展示我们方法的有利功效,即使对量子资源的要求减少了。我们的模型为将量子神经网络应用于真正相关的机器学习问题铺平了道路。
量子计算因其具有彻底改变计算能力的潜力而备受关注,随着它的出现,各种子领域的众多应用也应运而生。其中一个特别的子领域是量子神经网络 (QNN),它建立在流行且成功的经典对应物之上。QNN 通过利用量子信息中的量子力学原理和概念提供了一种替代方法。本论文项目研究变分量子算法作为量子神经网络的可训练性。具体而言,研究了用于天线倾斜优化用例的量子神经网络假设。QNN 架构在强化学习数据集上进行了测试,当仅实施单层时,其预测误差较低。此外,通过参数初始化技术检查了荒芜高原 (BP) 现象,该技术并没有改善模型的性能,因为添加了 QNN 的多层。最后,研究了训练数据集的结构,其中考虑了初始纠缠、线性独立性和正交性。研究发现,可控的纠缠量是有利的,没有纠缠或过多的纠缠会对模型的性能产生不利影响,而线性独立性和正交性的重要性高度依赖于数据集,线性独立性显示出进一步减少所需训练数据集大小的潜力。
在我们这个不断发展的世界里,海量的数据无时无刻不在涌入——无论是每天、每小时,甚至是每分每秒。我们交流、分享链接、图像和观点,留下一串串的痕迹,不仅代表着我们广阔的自然环境,也反映了我们的想法、喜好和情绪。认识到这些数据的重要性,数据科学领域应运而生,致力于揭示其中隐藏的洞见。机器学习 (ML) 已成为一个令人着迷的研究领域[8],因其从大量数据集中提取知识的能力而备受瞩目[20]。机器学习在弥合我们对自然的理解与其复杂性之间的差距方面发挥了关键作用。深度学习 (DL),尤其是神经网络 (NN),彻底改变了经典的机器学习,成为建模统计数据的非线性结构[23]。 NN,尤其是卷积神经网络 (CNN),可以模拟输入和输出之间的复杂关系[8],在图像模式识别等任务上表现出色,而这些任务的灵感来自视觉皮层的结构。虽然 NN,尤其是多层 NN,已经展现出非凡的能力,但它们的可训练性却带来了挑战。反向传播的出现缓解了这个问题,但训练困难仍然存在,需要整流神经元激活函数和分层训练等解决方案。量子机器学习 (QML) 开辟了新途径,利用嘈杂的中型量子计算机来解决涉及量子数据的计算问题。变分量子算法 (VQA) 和量子神经网络 (QNN) 提供了有前景的应用,利用经典优化器来训练量子电路中的参数。QNN 通过分析具有多项式复杂度的系统[2][6](在经典机器学习中,该系统的复杂度将呈指数级增长),与经典模型相比具有独特的优势,从而提供了计算优势。值得注意的是,与传统神经网络相比,QNN 表现出更快的学习能力,这归因于第 1 章和 A 章中讨论的纠缠。先前的研究强调了 QNN 在从有限数据中学习方面的有效性,从而减少了训练过程中的时间和精力。这篇硕士论文深入研究了使用用最少图像训练的各种量子模型进行有效图像分类的可能性,最后直接与经典 CNN 性能进行了比较。使用两个不同的数据集进行训练,随后缩小规模以探索 QNN 模型比 CNN 预测更多图像的潜力。
尽管具有量子霸权的潜力,但最先进的量子神经网络 (QNN) 仍然受到推理精度低的困扰。首先,当前的噪声中型量子 (NISQ) 设备的错误率高达 10 −3 到 10 −2,大大降低了 QNN 的精度。其次,虽然最近提出的重新上传单元 (RUU) 在 QNN 电路中引入了一些非线性,但其背后的理论尚不完全清楚。此外,以前反复上传原始数据的 RUU 只能提供边际精度改进。第三,当前的 QNN 电路假设使用固定的两量子比特门来强制实现最大纠缠能力,使得无法针对特定任务进行纠缠调整,导致整体性能不佳。在本文中,我们提出了一种量子多层感知器 (QMLP) 架构,该架构具有容错输入嵌入、丰富的非线性和增强的变分电路设计,具有参数化的两量子比特纠缠门。与现有技术相比,QMLP 在 10 类 MNIST 数据集上的推理准确率提高了 10%,量子门数量减少了 2 倍,参数减少了 3 倍。我们的源代码可用,可在 https://github.com/chuchengc/QMLP/ 中找到。
量子神经网络 (QNN) 源于在经典神经网络 (NN) 的并行处理特性中添加了关联、纠缠和叠加等量子特性,这种方法有望提高神经网络的性能 [1-3]。尝试用量子计算机实现神经计算(深度学习)通常会导致不兼容,因为前者的动态是非线性和耗散的,而后者的动态是线性和幺正的(耗散只能通过测量引入)。尽管如此,最近还是提出了一组显示联想记忆的 QNN 的理想特性 [4]:i)QNN 应产生在某些距离测量方面最接近输入状态的输出状态;ii)QNN 应包含神经计算机制,如训练规则或吸引子动态;iii)QNN 的演化应基于量子效应。吸引子神经网络 (aNN) 是一类特殊的 NN。它们由 n 个相互作用的节点(人工神经元)集合实现,这些节点动态地向系统能量最小的状态之一演化 [5]。这种亚稳态被称为吸引子或模式。吸引子神经网络用于模拟联想记忆,即从一组存储的模式中检索出根据汉明距离最接近噪声输入的状态的能力。显然,吸引子的数量越多,联想记忆就越大,即 aNN 的存储容量就越大。aNN 的一个典型例子是 Hopfield 模型 [6],它由一层 n 个人工神经元组成,用一组二进制变量 {xi}ni=1,xi∈{±1} 表示,它们根据自旋玻璃哈密顿量成对相互作用。理想情况下,aNN 的量子类似物(我们将其称为 aQNN)应该满足上述要求。因此,经典比特在这里被在完全正向和迹保持 (CPTP) 映射作用下演化的量子比特所取代。aQNN 的存储容量对应于