生成模型一直是机器学习研究中特别受关注的一个领域,成功的模型架构极大地改进了生成模型,包括变分自编码器 (VAE)、生成对抗网络 (GAN) 和可逆神经网络 (INN) [1-3]。除其他应用外,生成模型在事件生成中的应用也得到了广泛研究 [4-6]。与马尔可夫链蒙特卡洛 (MCMC) 技术 [7-11] 相比,生成模型的优势不仅限于提高推理速度,而后者迄今为止已成为领先的 LHC 模拟和解释方法。此外,生成模型可以进行端到端训练,从而实现更全面的应用,如展开 [12-14]、异常检测 [15-19] 等等 [20]。然而,这些神经网络 (NN) 的参数空间巨大,使其能够模拟复杂的交互,但这也导致对计算资源的需求巨大。流行的 NN 架构的规模早已达到计算可行性的边界。量子机器学习 (QML) 将量子计算的强大功能引入现有的机器学习基础,以建立并利用量子优势,从而实现量子算法独有的性能提升。虽然基于门的量子计算与经典计算有很大不同,但已经构建了许多与上述经典生成网络等效的模型,包括量子自动编码器 [ 21 ] 和量子 GAN [ 22 – 27 ]。值得注意的例外是 INN [ 28 , 29 ],它们尚未转移到 QML 领域。此类网络将成为量子神经网络 (QNN) 阵列的理想补充。虽然经典 INN 中雅可比行列式的可处理性使它们能够执行密度估计,这从本质上防止了模式崩溃,但通常无法有效地计算完整的雅可比矩阵 [ 30 ]。 INN 中完全可处理的雅可比矩阵(QNN 可用)将允许高效学习主要数据流形 [31-34],为可解释的表示学习和对底层过程的新洞察开辟机会。基于耦合的 INN 架构已通过经验证明对消失梯度问题更具弹性 [28],这使它们可以直接受益于具有许多参数的深度架构。然而,到目前为止列出的许多 INN 应用已经需要大量的训练资源。目前的研究表明,量子模型可以避免这种对巨大参数空间的需求。它们在表达力方面胜过常规 NN,能够用少得多的参数表示相同的变换 [35-39]。这一理论基础得到了几个专门构建的 QML 电路实例的支持,这些电路为专门设计的问题提供了比经典解决方案更有效的解决方案 [ 40 – 43 ]。QNN 已经成功应用于相对有限的高能物理问题 [ 21 , 25 , 44 – 46 , 46 – 51 ] 以及非 QML 方法 [ 52 – 56 ]。然而,据我们所知,尚未尝试构建可逆 QNN,该 QNN 可通过其可逆性用作生成任务的密度估计器。通过这项工作,我们旨在填补与经典 INN 量子等价的剩余空白,开发量子可逆神经网络 (QINN)。我们展示了如何将 QNN 流程中的每个步骤设计为可逆的,并展示了模拟网络估计分布密度的能力。作为原理证明,我们将我们的模型应用于最重要、研究最多的高能物理过程之一的复杂模拟 LHC 数据,pp → Z j → ℓ + ℓ − j,
主要关键词