随机性的功能理论是在Vovk [2020]中以非算力的随机性理论的名义提出的。Ran-Domness的算法理论是由Kolmogorov于1960年代启动的[Kolmogorov,1968年],并已在许多论文和书籍中开发(例如,参见Shen等人。2017)。它一直是直觉的强大来源,但其弱点是对特定通用部分可计算函数的选择的依赖性,这导致其数学结果中存在未指定的加性(有时是乘法)常数。Kolmogorov [1965,Sect。 3] speculated that for natural universal partial computable functions the additive constants will be in hun- dreds rather than in tens of thousands of bits, but this accuracy is very far from being sufficient in machine-learning and statistical applications (an addi- tive constant of 100 in the definition of Kolmogorov complexity leads to the astronomical multiplicative constant of 2 100 in the corresponding p-value). 与VOVK [2020]中提出的未指定常数打交道的方式是表达有关随机性算法作为各种函数类之间关系的算法。 它将在教派中引入。 2。 在本文中,我们将这种方法称为随机性的功能理论。 虽然它在直观的简单性方面失去了一定的损失,但它越来越接近实用的机器学习和统计数据。 读者将不会假设对随机性算法理论的形式知识。 在本文中,我们有兴趣将随机性的功能理论应用于预测。 3。Kolmogorov [1965,Sect。3] speculated that for natural universal partial computable functions the additive constants will be in hun- dreds rather than in tens of thousands of bits, but this accuracy is very far from being sufficient in machine-learning and statistical applications (an addi- tive constant of 100 in the definition of Kolmogorov complexity leads to the astronomical multiplicative constant of 2 100 in the corresponding p-value).与VOVK [2020]中提出的未指定常数打交道的方式是表达有关随机性算法作为各种函数类之间关系的算法。它将在教派中引入。2。在本文中,我们将这种方法称为随机性的功能理论。虽然它在直观的简单性方面失去了一定的损失,但它越来越接近实用的机器学习和统计数据。读者将不会假设对随机性算法理论的形式知识。在本文中,我们有兴趣将随机性的功能理论应用于预测。3。机器学习中最标准的假设是随机性:我们假设观察值是以IID方式生成的(独立且分布相同)。先验弱的假设是交换性的假设,尽管对于无限的数据序列而言,随机性和交换性证明与著名的de Finetti代表定理本质上是等效的。对于有限序列,差异是重要的,这将是我们教派的主题。我们开始讨论在教派中预测的随机性功能理论的应用。2。在其中介绍了置信度预言的概念(稍微修改和推广Vovk等人的术语。2022,Sect。2.1.6)。然后,我们根据三个二分法确定八种置信预测因素:
我将讨论冯诺依曼代数上映射的绝对膨胀概念,主要关注具有附加模块性条件的 B(H) 上的映射。这一概念最近由 C. Duquet 和 C. Le Merdy 定义和研究。他们描述了可膨胀 Schur 乘数的特征。我们通过将 Schur 乘数要求替换为任意冯诺依曼代数上的模数(而不是最大阿贝尔自伴代数)来扩展结果。此类映射的特征是存在一个称为辅助算子的迹冯诺依曼代数 ( N , τ ) 和某个幺正算子。不同类型的辅助算子(阿贝尔、有限维等)导致了局部、量子、近似量子和量子交换可膨胀映射的定义,我将讨论这些类型之间的关系。研究不同类型膨胀的动机来自量子信息论。我将解释 QIT 和可膨胀映射之间的相互关系。