联邦学习(FL)完成了协作模型培训,而无需共享本地培训数据。但是,现有的FL聚合方法遭受了效率低下,隐私脆弱性和对中毒攻击的忽视,从而严重影响了模型培训的整体性能和可靠性。为了应对这些挑战,我们提出了Superfl,这是一种有效的两服务汇总计划,既可以保存又可以保护中毒攻击。两个半honest服务器S 0和S 1相互协作,带有Shuffle Server S 0负责隐私聚类,而分析服务器S 1负责稳健性检测,识别和过滤恶意模型更新。我们的计划采用了同质加密和代理重新加密的新型组合,以实现安全的服务器与服务器协作。我们还利用一种新型的稀疏矩阵投影压缩技术来提高通信效率并显着降低开销。为了抵制中毒攻击,我们基于可信赖的根,将降低维度降低和规范计算引入双过滤算法,以识别恶意模型更新。广泛的实验验证了我们方案的效率和鲁棒性。SuperFL达到了令人印象深刻的压缩比,范围从5-40 x,在不同的模型下,同时以基线为基准的可比较模型精度。值得注意的是,我们的解决方案在MNIST和CIFAR-10数据集中分别显示出最大模型的准确性不超过2%和6%,在特定的压缩比和恶意客户的存在下。
主要关键词