Loading...
机构名称:
¥ 3.0

算法稳定性 - 也就是说,训练数据如何影响学习模型,这是现代数据分析的基础。在学习理论中,某些形式的稳定性是必要的,足以泛化(Bousquet和Elisseeff,2002; Poggio等人。,2004年; Shalev-Shwartz等。,2010年)。在模型选择中,稳定性措施可以可靠地识别重要特征(Meinshausen和B.Uhlmann,2010年; Shah和Samworth,2013年; Ren等人。,2023)。在科学应用中,稳定的方法促进了可重复性,这是有意义的推论的先决条件(Yu,2013)。在无分配预测中,稳定性是折刀有效性的关键假设(也就是说,一对跨验证)的预测间隔(Barber等人,2021; Steinberger和Leeb,2023年)。预见稳定性的各种好处,Breiman(1996a,b)提议将行李作为合奏元算法,以稳定任何基础学习算法。袋装,缩写为bootstrap aggation,将基本算法转化为训练数据的许多扰动,并平均得出的预测。Breiman将行李作为现成的稳定器的愿景激发了我们的主要问题:在任意基础算法上行李如何稳定,对数据产生分布没有任何假设?在本文中,我们首先要为具有有限输出的基础算法的情况回答这个问题,然后向无限情况显示扩展。

包装提供无假设的稳定性

包装提供无假设的稳定性PDF文件第1页

包装提供无假设的稳定性PDF文件第2页

包装提供无假设的稳定性PDF文件第3页

包装提供无假设的稳定性PDF文件第4页

包装提供无假设的稳定性PDF文件第5页

相关文件推荐

2024 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0
2010 年
¥3.0
2024 年
¥3.0
2025 年
¥21.0
2024 年
¥9.0
2016 年
¥1.0
2023 年
¥2.0
2024 年
¥18.0
2025 年
¥1.0
2020 年
¥1.0
2022 年
¥1.0
2025 年
¥2.0
2022 年
¥1.0
2023 年
¥1.0
2024 年
¥12.0
2023 年
¥57.0
2024 年
¥26.0
2022 年
¥1.0
2022 年
¥2.0
2024 年
¥26.0