分散的学习(DL)启用与服务器的协作学习,而无需培训数据,可以使用户的设备留下。但是,DL中共享的模型仍然可用于推断培训数据。传统的防御措施,例如差异隐私和安全汇总在有效地保护DL中的用户隐私方面缺乏牺牲模型效用或效率。我们介绍了Shatter,这是一种新颖的DL方法,其中节点可以创建虚拟节点(VN S)代表他们传播其完整模型的块。这通过(i)防止攻击者从其他节点收集完整模型,以及(ii)隐藏产生给定模型块的原始节点的身份。从理论上讲,我们证明了破碎的收敛性,并提供了正式的分析,揭示了与在节点之间交换完整模型相比,Shatter如何降低攻击的效力。我们评估了与现有DL算法,异质数据集的融合和攻击弹性,并与三个Standard隐私攻击进行评估。我们的评估表明,破碎不仅使这些隐私攻击在每个节点运行16个VN时不可行,而且与标准DL相比,对模型实用程序产生了积极影响。总而言之,Shatter在保持模型的效用和效率的同时,增强了DL的隐私。
算法1独立和分散学习动力学初始化:n 0(s)= 0,∀s∈S; 〜n 0 i(s,a i)= 0,〜q 0 i(s,a i)= 0,π0i(s,a i)= 1 / | A I | ,∀(i,a i,s)和θi∈(0,1)。在迭代0中,每个玩家都会观察S0∈S,选择其动作A 0 I〜π0 I(S 0),然后观察R 0 I = U I(S 0,A 0)。在每个迭代中t = 1,2,...,每个玩家都会观察到S t,并且独立更新{n t,〜n t i,〜q t i,πt i}。更新n t,〜n t i: