简介 — 近年来,对称性的概念在量子场论和凝聚态系统的理论研究的各个方面都得到了推广。其中一种推广就是允许所涉及的对称操作具有某些不可逆性,由此产生的结构现在被称为不可逆对称性,是一个活跃的研究领域。然而,在创造这个时髦的名字之前,这种操作的重要例子已经为人所知数十年,最典型的是伊辛模型的 Kramers-Wannier 对偶变换 D。这种变换在临界状态下与哈密顿量可交换,因此起着与普通对称操作类似的作用。尽管如此,它并不完全等于 1,而是满足
摘要:量子力学引入的量子信息相当于经典信息的某种推广:从有限到无限的序列或集合。信息量是以基本选择为单位测量的选择量。“量子比特”可以解释为“比特”的推广,即在一系列备选方案中进行选择。选择公理对于量子信息是必要的。相干态在测量后随时间转变为有序的结果序列。量子信息量是与所讨论的无穷序列相对应的超限序数。超限序数可以定义为模糊对应的“超限自然数”,将皮亚诺算术的自然数推广到“希尔伯特算术”,从而实现了数学和量子力学基础的统一。
摘要。量子力学引入的量子信息等同于经典信息的一定概括:从有限到无限序列或集合。信息的数量是在基本选择单位中测量的选择数量。“ Qubit”可以解释为“位”的概括,这是连续替代方案的选择。选择的公理对于量子信息是必需的。测量后的时间,连贯状态被转化为有序的一系列结果。量子信息的数量是与所讨论的无限序列相对应的载量序数。可以将the柱数字定义为模棱两可的“跨足数自然数”,将peano算术的自然数推广到“希尔伯特算术”,从而允许统一数学和量子力学的基础。
噪声中型量子器件使得量子神经网络 (QNN) 的变分量子电路 (VQC) 得以实现。尽管基于 VQC 的 QNN 已在许多机器学习任务中取得成功,但 VQC 的表示和泛化能力仍需要进一步研究,尤其是在考虑经典输入的维数时。在这项工作中,我们首先提出了一种端到端 QNN,TTN-VQC,它由基于张量训练网络 (TTN) 的量子张量网络(用于降维)和用于函数回归的 VQC 组成。然后,我们针对 TTN-VQC 的表示和泛化能力进行误差性能分析。我们还利用 Polyak-Lojasiewicz 条件来表征 TTN-VQC 的优化属性。此外,我们对手写数字分类数据集进行了函数回归实验,以证明我们的理论分析是正确的。
8 这甚至是大数据的主要特征之一,也是神经网络等技术特别闪耀的地方。一般来说,分类模型的预测能力会随着变量数量的增加而增加,直到一定点之后,预测能力就会下降——这种现象称为休斯峰(Koutroumbas,2008),与“维数灾难”有关。降维实际上是机器学习中一个非常常见的问题(Shaw,2009)。9 泛化能力和预测偏差是设计和调整预测模型时需要平衡的两个关键标准。泛化与模型的方差成反比,因此这种套利被称为偏差-方差权衡:低偏差通常与训练和测试数据的高性能相关,而低方差意味着模型可以很好地泛化到新数据。
在本文中,我们为在有依赖数据的存在下提供了过度参数深的非参数回归的统计保证。通过分解误差,我们建立了非渐近误差界限以进行深度估计,这是通过有效平衡近似和概括误差来实现的。我们得出了具有约束权重的H型函数的近似结果。此外,概括误差受重量标准的界定,允许神经网络参数编号大得多。此外,我们通过假设样品起源于具有较低内在维度的分布来解决维度诅咒的问题。在这个假设下,我们能够克服高维空间所带来的挑战。通过结合额外的错误传播机制,我们为过度参数深拟合的Q-材料提供了Oracle不等式。
摘要:至关重要的是要问,代理如何仅使用通过习惯性感觉运动经验获得的部分世界模型来生成行动计划,从而实现目标。尽管许多现有的机器人研究都使用了前向模型框架,但存在高自由度的泛化问题。当前的研究表明,采用生成模型的预测编码 (PC) 和主动推理 (AIF) 框架可以通过学习低维潜在状态空间中的先验分布来开发更好的泛化,该先验分布表示从习惯性感觉运动轨迹中提取的概率结构。在我们提出的模型中,学习是通过推断最佳潜在变量以及突触权重来最大化证据下限来进行的,而目标导向规划是通过推断潜在变量来最大化估计下限来完成的。我们提出的模型在模拟中使用简单和复杂的机器人任务进行了评估,通过为正则化系数设置中间值,证明了在有限的训练数据下学习中具有足够的泛化能力。此外,比较模拟结果表明,由于先验学习将运动计划的搜索限制在习惯轨迹范围内,因此所提出的模型在目标导向规划中优于传统的前向模型。
本文研究了最小描述长度(MDL)与神经网络中Grokking现象之间的关系,提供了有关突然泛化的信息理论观点。Grokking,在扩展培训后突然概括了模型,它挑战了神经网络学习动态的常规理解。我们假设由MDL量化的内部表示形式的组合是此过程的关键因素。为了测试这一点,我们引入了一种基于权重修剪的新型MDL估计技术,并将其应用于不同的数据集,包括模块化算术和置换任务。由于神经网络的复杂,高维质以及缺乏量化内部代表性的明确指标,这种方法是具有挑战性的。我们的实验揭示了MDL还原与改善的概括之间存在很强的相关性,而MDL过渡点通常在或与Grokking事件相吻合。我们观察到Grokking与非怪异场景中不同的MDL演化模式,其特征是快速减少MDL,然后在前者中持续概括。这些发现提供了有关Grokking信息理论基础的见解,并建议在训练过程中进行MDL监测可以预测即将泛化。我们的工作有助于更深入地了解神经网络中的学习动态,并为预测机器学习模型中的概括提供了新的工具。