分散的学习(DL)启用与服务器的协作学习,而无需培训数据,可以使用户的设备留下。但是,DL中共享的模型仍然可用于推断培训数据。传统的防御措施,例如差异隐私和安全汇总在有效地保护DL中的用户隐私方面缺乏牺牲模型效用或效率。我们介绍了Shatter,这是一种新颖的DL方法,其中节点可以创建虚拟节点(VN S)代表他们传播其完整模型的块。这通过(i)防止攻击者从其他节点收集完整模型,以及(ii)隐藏产生给定模型块的原始节点的身份。从理论上讲,我们证明了破碎的收敛性,并提供了正式的分析,揭示了与在节点之间交换完整模型相比,Shatter如何降低攻击的效力。我们评估了与现有DL算法,异质数据集的融合和攻击弹性,并与三个Standard隐私攻击进行评估。我们的评估表明,破碎不仅使这些隐私攻击在每个节点运行16个VN时不可行,而且与标准DL相比,对模型实用程序产生了积极影响。总而言之,Shatter在保持模型的效用和效率的同时,增强了DL的隐私。
主要关键词