变换不变学习和 OOD 泛化的理论保证

在实践和理论上,对具有相同训练和测试分布的学习进行了广泛的研究。然而,在分布偏移下的统计学习中,仍有许多需要理解的地方。本文重点关注分布偏移设置,其中训练和测试分布可以通过(数据)转换图的类别相关联。我们为该框架启动了一项理论研究,研究了目标转换类别已知或未知的学习场景。我们建立了学习规则和算法简化以最小化经验风险……

来源:Apple机器学习研究

在实践和理论上,对具有相同训练和测试分布的学习进行了广泛的研究。然而,在分布偏移下的统计学习中,仍有许多问题有待理解。本文重点介绍分布偏移设置,其中训练和测试分布可以通过(数据)转换图的类别相关联。我们对该框架进行了理论研究,研究了目标转换类别已知或未知的学习场景。我们建立了学习规则和算法简化以达到经验风险最小化 (ERM),并附带学习保证。我们根据具有转换的类组成预测因子的 VC 维度获得了样本复杂度的上限,我们表明在许多情况下,该上限并不比预测因子类的 VC 维度大得多。我们强调,我们得出的学习规则提供了关于分布偏移的博弈论观点:学习者搜索预测因子,对手搜索转换图以分别最小化和最大化最坏情况损失。