随机性的功能理论是在Vovk [2020]中以非算力的随机性理论的名义提出的。Ran-Domness的算法理论是由Kolmogorov于1960年代启动的[Kolmogorov,1968年],并已在许多论文和书籍中开发(例如,参见Shen等人。2017)。它一直是直觉的强大来源,但其弱点是对特定通用部分可计算函数的选择的依赖性,这导致其数学结果中存在未指定的加性(有时是乘法)常数。Kolmogorov [1965,Sect。 3] speculated that for natural universal partial computable functions the additive constants will be in hun- dreds rather than in tens of thousands of bits, but this accuracy is very far from being sufficient in machine-learning and statistical applications (an addi- tive constant of 100 in the definition of Kolmogorov complexity leads to the astronomical multiplicative constant of 2 100 in the corresponding p-value). 与VOVK [2020]中提出的未指定常数打交道的方式是表达有关随机性算法作为各种函数类之间关系的算法。 它将在教派中引入。 2。 在本文中,我们将这种方法称为随机性的功能理论。 虽然它在直观的简单性方面失去了一定的损失,但它越来越接近实用的机器学习和统计数据。 读者将不会假设对随机性算法理论的形式知识。 在本文中,我们有兴趣将随机性的功能理论应用于预测。 3。Kolmogorov [1965,Sect。3] speculated that for natural universal partial computable functions the additive constants will be in hun- dreds rather than in tens of thousands of bits, but this accuracy is very far from being sufficient in machine-learning and statistical applications (an addi- tive constant of 100 in the definition of Kolmogorov complexity leads to the astronomical multiplicative constant of 2 100 in the corresponding p-value).与VOVK [2020]中提出的未指定常数打交道的方式是表达有关随机性算法作为各种函数类之间关系的算法。它将在教派中引入。2。在本文中,我们将这种方法称为随机性的功能理论。虽然它在直观的简单性方面失去了一定的损失,但它越来越接近实用的机器学习和统计数据。读者将不会假设对随机性算法理论的形式知识。在本文中,我们有兴趣将随机性的功能理论应用于预测。3。机器学习中最标准的假设是随机性:我们假设观察值是以IID方式生成的(独立且分布相同)。先验弱的假设是交换性的假设,尽管对于无限的数据序列而言,随机性和交换性证明与著名的de Finetti代表定理本质上是等效的。对于有限序列,差异是重要的,这将是我们教派的主题。我们开始讨论在教派中预测的随机性功能理论的应用。2。在其中介绍了置信度预言的概念(稍微修改和推广Vovk等人的术语。2022,Sect。2.1.6)。然后,我们根据三个二分法确定八种置信预测因素:
主要关键词