统计学中一个非常重要的问题是两个随机变量之间的依赖程度,或者一个随机变量包含的关于另一个随机变量的信息量。互信息给出了这个问题的答案,但它肯定可以得到改进。互信息总是非负的,但它没有统一的上限。这使得仅基于互信息来解释两个随机变量的关联强度变得困难。这引出了一个问题:互信息必须有多大,才能认为两个随机变量相互依赖,甚至完全依赖?在本文中,我们将通过定义一个标准化的互信息 κ 来考虑这个问题的一个可能的解决方案,该 κ 具有严格介于零和一之间的优点。当且仅当两个随机变量独立时,这个 κ 才具有等于零的理想特性,当且仅当两个随机变量具有一一对应关系时,它才等于一。我们还将考虑 κ 的估计以及我们开发的估计量的渐近性质。
量子态断层扫描(从 𝑛 个副本中学习 𝑑 维量子态)是量子信息科学中一项普遍存在的任务。它是从 𝑛 个样本中学习 𝑑 结果概率分布的经典任务的量子类似物。更详细地说,目标是设计一种算法,给定某个(通常是混合的)量子态 𝜌 ∈ C 𝑑 × 𝑑 的 𝜌 ⊗ 𝑛,输出一个估计值 2 ̂︀ 𝜌(的经典描述),该估计值以高概率“𝜖 接近”𝜌。主要挑战是将样本(副本)复杂度 𝑛 最小化为 𝑑 和 𝜖(有时还有其他参数,例如 𝑟 = 秩 𝜌 )的函数。我们还将关注设计仅进行单次(而不是集体)测量的算法的实际问题。指定量子断层扫描任务的一个重要方面是“𝜖-close”的含义;即,判断算法估计的损失函数是什么。有很多自然的方法可以测量两个量子态的发散度——甚至比两个经典概率分布的发散度还要多——并且所选择的精确测量方法会对必要的样本复杂度以及最终估计对未来应用的效用产生很大的影响。本文的主要目标是展示一种新的断层扫描算法,该算法实现最严格的准确度概念(Bures)𝜒 2 -发散度,同时具有与以前使用不忠诚度作为损失函数的算法基本相同的样本复杂度。然后,我们给出了一个应用,即量子互信息测试问题,这关键依赖于我们实现关于𝜒 2 -发散度的有效状态断层扫描的能力。
摘要:Belavkin – Staszewski相对熵自然可以表征量子状态可能的非交通性的影响。在本文中,通过用Belavkin – Staszewski相对熵替换量子相对熵来定义两个新的条件熵项和四个新的相互信息项。接下来,研究了它们的基本属性,尤其是在经典量子设置中。特别是我们显示了Belavkin -Staszewski条件熵的弱凹性,并获得了Belavkin -Staszewski共同信息的链条规则。最后,建立了Belavkin – Staszewski相对熵的子效率,即,关节系统的Belavkin -Staszewski相对熵小于其相应子系统的总和,借助某些乘法和附加因子的帮助。同时,我们还提供了几何rényi相对熵的一定亚辅助性。
量子态层析成像——从 𝑛 副本中学习 𝑑 维量子态——是量子信息科学中一项普遍存在的任务。它是从 𝑛 样本中学习 𝑑 结果概率分布的经典任务的量子类似物。更详细地说,目标是设计一种算法,给定某个(通常是混合的)量子态 𝜌 ∈ C 𝑑 × 𝑑 的 𝜌 ⊗ 𝑛 ,输出(经典描述)估计值 2 ̂︀ 𝜌,该估计值以高概率“𝜖 接近”𝜌。主要挑战是最小化样本(复制)复杂度 𝑛 作为 𝑑 和 𝜖(有时还有其他参数,例如 𝑟 = rank 𝜌 )的函数。我们还将关注设计仅进行单次复制(而不是集体)测量的算法的实际问题。指定量子断层扫描任务的一个重要方面是“ 𝜖 -close”的含义;即,判断算法估计的损失函数是什么。有很多自然的方法可以测量两个量子态的发散度——甚至比两个经典概率分布的发散度还要多——并且所选择的精确测量方法会对必要的样本复杂度以及最终估计对未来应用的效用产生很大的影响。本文的主要目标是展示一种新的断层扫描算法,该算法实现了最严格的准确度概念(Bures)𝜒 2 -发散度,同时具有与使用不忠诚度作为损失函数的先前已知算法基本相同的样本复杂度。然后,我们给出了一个应用,即量子互信息测试问题,这关键依赖于我们实现关于𝜒 2 -发散度的有效状态断层扫描的能力。
以各种形式伪装的相关性是经典和量子系统中一系列重要现象的基础,例如信息和能量交换。量子互信息和相关矩阵的范数都被视为总相关性的适当度量。我们证明,当应用于同一系统时,这两个度量实际上可以表现出明显不同的行为,至少在两种极端情况下除外:当没有相关性时和当存在最大量子纠缠时。我们通过提供相互作用的二分系统度量的时间导数的解析公式来进一步量化差异。我们认为,要正确解释相关性,应该考虑相关矩阵(以及子系统的简化状态)提供的全部信息。标量(例如相关矩阵的范数或量子互信息)只能捕捉相关性复杂特征的一部分。作为一个具体的例子,我们表明在描述与相关性相关的热交换时,这两个量都不能完全捕捉潜在的物理特性。作为副产品,我们还证明了具有局部和短程相互作用的系统中量子互信息的面积定律,而无需假设马尔可夫性或最终热平衡。
针对入侵检测系统(IDS)检测速度慢、自适应性差、检测准确率不高等问题,提出一种基于自适应并行量子遗传算法的正则化互信息特征选择与多算子协同进化的检测算法(NMIFS MOP-AQGA)。为了对高维特征数据进行有效约简,采用NMIFS方法选择最佳特征组合,将最佳特征送入MOP-AQGA分类器进行学习训练,得到入侵检测器,将数据输入检测算法,最终产生准确的检测结果。在真实异常数据上的实验结果表明,NMIFS MOP-AQGA方法比现有检测方法具有更高的检测准确率、更低的误报率和更强的自适应性能,尤其对于小样本集更为有效。
在信息论框架内,两个随机变量之间存在相关性意味着我们可以通过测量或观察另一个随机变量来获得有关其中一个变量的信息。在某些情况下,这种关系允许获取有关一个变量的信息,即使另一个变量相隔很远,也就是说,获取信息的过程是非局部的,一个例子(如果不是唯一的例子)就是量子纠缠。相关性的这些特征使得研究、分类和量化它们变得有趣和重要。相关性分为经典相关性和量子相关性,此外,它们通过互信息进行量化。在这里,我们将提出一种定义经典互信息的自然方法,然后将其推广到量子情况。此外,互信息定义中的每个术语都将使用经典和量子熵的概念进行解释。关键词:信息熵、相关性、互信息。
摘要。在本文中,我们讨论了如何在量子系统中表示经典数据分布的问题。所提出的方法是学习量子汉密尔顿量,使其基态近似于给定的经典分布。我们回顾了关于量子玻尔兹曼机 (QBM) [1, 2] 的先前工作,以及如何使用它从量子统计数据中推断量子汉密尔顿量。然后,我们展示了所提出的量子学习形式如何应用于纯经典数据分析。将数据表示为秩一密度矩阵除了经典统计数据外,还引入了经典数据的量子统计数据。我们表明,量子学习产生的结果比经典最大似然方法准确得多,无论是对于无监督学习还是分类。数据密度矩阵和 QBM 解显示纠缠,由量子互信息 I 量化。数据中的经典互信息 I c ≤ I/ 2 = C ,通过选择合适的正交测量基获得 C 最大经典相关性。我们认为剩余的互信息 Q = I/ 2 是通过非正交测量获得的,这可能违反贝尔不等式。过剩的互信息 I − I c 可能用于提高机器学习或其他统计方法的量子实现的性能。
从量子信息理论的角度来看,量子信息扰乱 (QIS) 通常被理解为通过某些动态过程演化而产生的局部不可检索信息,并且通常通过熵量(例如三部分信息)进行量化。我们认为这种方法存在许多问题,很大程度上是由于它依赖于量子互信息,而量子互信息不能忠实地量化可通过测量直接检索的相关性,部分是由于用于计算所研究动态的三部分信息的特定方法。我们表明,这些问题可以通过使用可访问的互信息来克服,定义相应的“可访问的三部分信息”,并提供其扰乱属性无法通过标准三部分信息正确量化的动态的明确示例。我们的研究结果为更深入地理解 QIS 所代表的内容奠定了基础,并揭示了许多有希望的、尚未探索的进一步研究领域。
我们提出了一种称为量子互信息神经估计 (QMINE) 的量子机器学习方法,用于估计冯·诺依曼熵和量子互信息,这是量子信息理论的基本属性。这里提出的 QMINE 基本上利用了量子神经网络 (QNN) 技术,以最小化确定冯·诺依曼熵的损失函数,从而确定量子互信息,由于量子叠加和纠缠,人们认为它比传统神经网络更能处理量子数据集。为了创建精确的损失函数,我们提出了一种量子 Donsker-Varadhan 表示 (QDVR),它是经典 Donsker-Varadhan 表示的量子类似物。通过利用参数化量子电路上的参数移位规则,我们可以有效地实现和优化 QNN,并使用 QMINE 技术估计量子熵。此外,数值观测支持我们对 QDVR 的预测,并证明了 QMINE 的良好性能。