异步私有联邦学习中的动量近似

这篇论文被接受在与 NeurIPS 2024 联合举办的联邦基础模型国际研讨会 (FL@FM-NeurIPS'24) 上发表。异步协议已被证明可以提高具有大量客户端的联邦学习 (FL) 的可扩展性。同时,基于动量的方法可以在同步 FL 中实现最佳模型质量。然而,在异步 FL 算法中天真地应用动量会导致收敛速度变慢和模型性能下降。目前还不清楚如何有效地将这两种技术结合在一起以实现双赢……

来源:Apple机器学习研究

本论文被接受在与 NeurIPS 2024 联合举办的联邦基础模型国际研讨会 (FL@FM-NeurIPS'24) 上发表。

异步协议已被证明可以提高具有大量客户端的联邦学习 (FL) 的可扩展性。同时,基于动量的方法可以在同步 FL 中实现最佳模型质量。然而,在异步 FL 算法中天真地应用动量会导致收敛速度变慢和模型性能下降。目前还不清楚如何有效地将这两种技术结合起来实现双赢。在本文中,我们发现异步会给动量更新引入隐性偏差。为了解决这个问题,我们提出了动量近似,通过找到所有历史模型更新的最佳加权平均值来最小化偏差。动量近似与安全聚合以及差分隐私兼容,并且可以轻松集成到生产 FL 系统中,并且通信和存储成本较低。我们通过实验证明,在基准 FL 数据集上,与现有的具有动量的异步 FL 优化器相比,动量近似可以实现 1.15--4 倍的收敛速度提高。