Loading...
机构名称:
¥ 1.0

联邦学习(FL)已成为一种既定技术,旨在促进众多客户的隐私协作培训。,FL的新方法经常讨论他们的贡献,涉及小型深度学习模型,并专注于培训对客户的完整模型。在基础模型(FM)之后,对于许多深度学习应用而言,现实是不同的。典型地,FMS已经在各种任务中进行了预先训练,并且可以对数据集的明显小于全面模型培训所需的明显小的数据集进行微调。但是,访问此类数据集通常是具有挑战性的。根据其设计,FL可以帮助打开数据孤岛。在这项调查中,我们引入了一种关于计算和通信效率的新型分类法,这是在FL系统中使用FMS的重要要素。我们讨论了针对FL应用程序的参数有效微调(PEFT)的好处和背部,并详细介绍了FL框架与FMS合作的准备,并为如何评估FL以及隐私和PEFT的相互作用提供了有关如何评估属性模型的未来研究机会。

对基础模型培训有效的联邦学习方法的调查

对基础模型培训有效的联邦学习方法的调查PDF文件第1页

对基础模型培训有效的联邦学习方法的调查PDF文件第2页

对基础模型培训有效的联邦学习方法的调查PDF文件第3页

对基础模型培训有效的联邦学习方法的调查PDF文件第4页

对基础模型培训有效的联邦学习方法的调查PDF文件第5页

相关文件推荐

2024 年
¥13.0
2023 年
¥5.0