量子计算,即操纵量子物理系统进行数值计算,有望显著加快许多科学问题(包括经济学问题)的解决速度。然而,实现量子加速不仅仅是将经典算法转化为量子等效算法。1 一般来说,这是不可能的。即使可能,也不会带来计算收益。相反,实现量子加速需要构建完全不同的算法,利用叠加、纠缠、干涉和隧穿等量子现象。为了应对这一挑战,我们提出了一组新颖的算法,用于在量子退火器 (QA) 上解决动态规划问题(例如经济学中出现的问题)。这种专门的量子装置使用物理过程执行组合优化。QA 将问题的参数嵌入量子系统中,该系统会演化以找到其最低能量配置。这相当于确定全局最小化损失函数的状态变量值(Farhi 等人,2000 年)。QA 试图解决传统计算机无法解决的 NP 问题,从所有状态的线性组合(量子叠加)开始,并在几毫秒内返回候选解决方案,而不管问题大小(Venegas-Andraca 等人,2018 年)。更具体地说,我们的论文做出了三个关键贡献:
摘要:在过去几年中,我们每天处理的图像的大小和数量以及我们每天处理的数据量迅速增长。量子计算机承诺将更有效地处理该数据,因为经典图像可以存储在Quantum状态中。量子计算机模拟器上的实验证明了这种诺言是正确的。当前,在真实量子计算机上运行相同的算法通常太容易出错,无法使用任何实际用途。我们探讨了实际量子计算机上图像处理的当前可能性。我们重新设计了一种常用的量子图像编码技术,以降低其对错误的敏感性。我们通过实验表明,要在量子计算机上编码的图像的当前尺寸限制,随后以5%的误差为2×2像素。避免这种限制的一种方法是将经典过滤的想法与仅在本地运行的量子算法相结合。我们使用边缘检测的应用示例来显示此策略的实用性。我们的混合过滤方案的量子部分是人工神经元,在实际量子计算机上也很好地工作。
摘要:近几年来,我们每天处理的图像的大小和数量以及数据量都在迅速增长。量子计算机有望更有效地处理这些数据,因为经典图像可以存储在量子态中。量子计算机模拟器上的实验证明了这一承诺所基于的范式是正确的。然而,目前,在真正的量子计算机上运行完全相同的算法往往容易出错,无法有任何实际用途。我们探索了在真正的量子计算机上进行图像处理的当前可能性。我们重新设计了一种常用的量子图像编码技术,以降低其对错误的敏感性。我们通过实验表明,目前在量子计算机上编码并随后以最多 5% 的误差检索的图像的大小限制为 2×2 像素。一种绕过这一限制的方法是将经典过滤的思想与仅在本地运行的量子算法相结合。我们使用边缘检测的应用示例展示了这种策略的实用性。我们的混合过滤方案的量子部分是一个人工神经元,在真实的量子计算机上也能很好地运行。
微扰理论广泛应用于各个领域,是一种从相关简单问题的精确解开始,获得复杂问题近似解的强大工具。量子计算的进步,尤其是过去几年的进步,为传统方法的替代提供了机会。在这里,我们提出了一个通用量子电路,用于估计能量和本征态校正,在估计二阶能量校正时,它远远优于经典版本。我们展示了我们的方法应用于双站点扩展 Hubbard 模型。除了基于 qiskit 的数值模拟之外,还介绍了 IBM 量子硬件上的结果。我们的工作提供了一种使用量子设备研究复杂系统的通用方法,无需训练或优化过程即可获得微扰项,可以推广到化学和物理学中的其他汉密尔顿系统。
摘要。量子计算为模拟多体核系统开辟了新的可能性。随着多体系统中粒子数量的增加,相关汉密尔顿量的空间大小呈指数增长。在使用传统计算方法对大型系统进行计算时,这带来了挑战。通过使用量子计算机,人们可能能够克服这一困难,这要归功于量子计算机的希尔伯特空间随着量子比特数的增加而呈指数增长。我们的目标是开发能够重现和预测核结构(如能级方案和能级密度)的量子计算算法。作为汉密尔顿量的示例,我们使用 Lipkin-Meshkov-Glick 模型。我们对汉密尔顿量进行了有效的编码,并将其应用到多量子比特系统上,并开发了一种算法,允许使用变分算法确定原子核的全激发光谱,该算法能够在当今量子比特数有限的量子计算机上实现。我们的算法使用哈密顿量的方差 DH 2 E −⟨ H ⟩ 2 作为广泛使用的变分量子特征值求解器 (VQE) 的成本函数。在这项工作中,我们提出了一种基于方差的方法,使用量子计算机和简化量子比特编码方法查找小核系统的激发态光谱。
摘要 我们在此讨论在量子计算机上处理量子多体问题时与其对称性相关的一些方面。回顾了与对称性守恒、对称性破缺和可能的对称性恢复有关的几个特点。在简要讨论了一些与多粒子系统相关的标准对称性之后,我们讨论了在量子分析中直接编码某些对称性的优势,特别是为了减少量子寄存器大小。然而众所周知,当自发对称性破缺发生时,使用对称性破缺状态也可以成为一种独特的方式来纳入特定的内部相关性。这些方面是在量子计算的背景下讨论的。然而,只有当最初破缺的对称性得到适当恢复时,才能精确描述量子系统。介绍了几种在量子计算机上执行对称性恢复的方法,例如,通过 Grover 算法净化状态、结合使用 Hadamard 测试和 oracle 概念、通过量子相位估计和一组迭代独立的 Hadamard 测试进行对称性过滤。
摘要 在机器学习中,较少的特征会降低模型的复杂性。因此,仔细评估每个输入特征对模型质量的影响是至关重要的预处理步骤。我们提出了一种基于二次无约束二进制优化 (QUBO) 问题的新型特征选择算法,该算法允许根据特征的重要性和冗余度选择指定数量的特征。与迭代或贪婪方法相比,我们的直接方法可以产生更高质量的解决方案。QUBO 问题特别有趣,因为它们可以在量子硬件上解决。为了评估我们提出的算法,我们使用经典计算机、量子门计算机和量子退火器进行了一系列数值实验。我们的评估将我们的方法与各种基准数据集上的一系列标准方法进行了比较。我们观察到了具有竞争力的表现。
摘要:大型强关联系统的量子化学计算通常受到计算成本的限制,而计算成本会随系统规模呈指数级增长。专为量子计算机设计的量子算法可以缓解这一问题,但所需的资源对于当今的量子设备来说仍然太大。在这里,我们提出了一种量子算法,该算法将化学系统的多参考波函数的局部化与量子相位估计 (QPE) 和变分酉耦合簇单重和双重 (UCCSD) 相结合,以计算其基态能量。我们的算法称为“局部活性空间酉耦合簇”(LAS-UCC),对于某些几何形状,该算法与系统规模呈线性关系,与 QPE 相比,总门数减少了多项式,同时提供的精度高于使用 UCCSD 假设的变分量子特征求解器,也高于经典的局部活性空间自洽场。 LAS-UCC 的准确性通过将 (H 2 ) 2 分解为两个 H 2 分子以及通过破坏反式丁二烯中的两个双键来证明,并且提供了最多 20 个 H 2 分子的线性链的资源量估计。■ 简介
传统上,光子设备的建模涉及求解光 - 膜相互作用和光传播的方程。在这里,我们通过使用量子计算机重现光学设备功能来演示另一种建模方法。作为例证,我们模拟了薄膜上的光的量子干扰。这种干扰可以导致通过薄膜的完美吸收或总传输光,这种现象吸引了对经典和量子信息网络中数据处理应用的关注。,我们将光子在干扰实验中的行为映射到Transmon的量子状态的演变,Transmon是IBM量子计算机的超导电荷矩形。实际光学实验的细节在量子计算机上无效地复制。我们认为,这种方法的优势在建模复杂的多光子光学效果和设备方面应该显而易见。
摘要 — 由于量子电路上的旋转分量,一些基于变分电路的量子神经网络可以被认为等同于经典的傅里叶网络。此外,它们还可用于预测连续函数的傅里叶系数。时间序列数据表示变量随时间的状态。由于一些时间序列数据也可以被视为连续函数,我们可以预期量子机器学习模型能够成功地对时间序列数据执行许多数据分析任务。因此,研究用于时间数据处理的新量子逻辑并分析量子计算机上数据的内在关系非常重要。在本文中,我们使用需要少量量子门的简单量子算子,通过 ARIMA 模型对经典数据预处理和预测进行量子模拟。然后,我们讨论了未来的方向以及可用于量子计算机上时间数据分析的一些工具/算法。