联合学习(FL)包括用于机器学习的分散培训算法的家族[1] - [3],使内部分裂能够在不集中培训数据的情况下协作训练模型。这种方法通过将培训计算分配到边缘来减轻数据中心的计算负担。但是,至关重要的是要注意,尽管联邦学习提供了一个分散的框架,但它可能无法继承客户的隐私。中央服务器收到的更新有可能无意间揭示有关客户培训数据的信息[4],[5]。保护客户对联合学习的隐私的流行策略包括基于差异的隐私(DP)和基于同型加密(HE)方法。DP的想法是在梯度上添加噪音,以保护梯度的保密性[6]。基于DP的学习算法的现有作品包括本地DP(LDP)[7],具有选择性参数更新[8],基于晶格[9]等的DP等。尽管可以直接采用DP,但它具有较弱的隐私保证和潜在准确性损失的缺点。他是一种加密技术,可以在加密数据上执行计算,而无需首先解密。在联邦学习的背景下,同构加密在确保个别参与者数据的隐私方面起着至关重要的作用。由于FL中的梯度的聚集仅涉及添加,因此许多最近的作品[10],[11]提议采用基于Paillier [12]的加性同构加密。某些基于晶格的问题,例如但是,一旦可以使用Shor的量子算法有效地将大整数构成大型整数[13],Paillier的安全性就会损坏。基于晶格的密码学被认为是抗量子的[14] - [16]。
主要关键词