算法稳定性 - 也就是说,训练数据如何影响学习模型,这是现代数据分析的基础。在学习理论中,某些形式的稳定性是必要的,足以泛化(Bousquet和Elisseeff,2002; Poggio等人。,2004年; Shalev-Shwartz等。,2010年)。在模型选择中,稳定性措施可以可靠地识别重要特征(Meinshausen和B.Uhlmann,2010年; Shah和Samworth,2013年; Ren等人。,2023)。在科学应用中,稳定的方法促进了可重复性,这是有意义的推论的先决条件(Yu,2013)。在无分配预测中,稳定性是折刀有效性的关键假设(也就是说,一对跨验证)的预测间隔(Barber等人,2021; Steinberger和Leeb,2023年)。预见稳定性的各种好处,Breiman(1996a,b)提议将行李作为合奏元算法,以稳定任何基础学习算法。袋装,缩写为bootstrap aggation,将基本算法转化为训练数据的许多扰动,并平均得出的预测。Breiman将行李作为现成的稳定器的愿景激发了我们的主要问题:在任意基础算法上行李如何稳定,对数据产生分布没有任何假设?在本文中,我们首先要为具有有限输出的基础算法的情况回答这个问题,然后向无限情况显示扩展。
主要关键词