Loading...
机构名称:
¥ 2.0

分散的学习(DL)启用与服务器的协作学习,而无需培训数据,可以使用户的设备留下。但是,DL中共享的模型仍然可用于推断培训数据。传统的防御措施,例如差异隐私和安全汇总在有效地保护DL中的用户隐私方面缺乏牺牲模型效用或效率。我们介绍了Shatter,这是一种新颖的DL方法,其中节点可以创建虚拟节点(VN S)代表他们传播其完整模型的块。这通过(i)防止攻击者从其他节点收集完整模型,以及(ii)隐藏产生给定模型块的原始节点的身份。从理论上讲,我们证明了破碎的收敛性,并提供了正式的分析,揭示了与在节点之间交换完整模型相比,Shatter如何降低攻击的效力。我们评估了与现有DL算法,异质数据集的融合和攻击弹性,并与三个Standard隐私攻击进行评估。我们的评估表明,破碎不仅使这些隐私攻击在每个节点运行16个VN时不可行,而且与标准DL相比,对模型实用程序产生了积极影响。总而言之,Shatter在保持模型的效用和效率的同时,增强了DL的隐私。

无噪用的隐私权分散学习

无噪用的隐私权分散学习PDF文件第1页

无噪用的隐私权分散学习PDF文件第2页

无噪用的隐私权分散学习PDF文件第3页

无噪用的隐私权分散学习PDF文件第4页

无噪用的隐私权分散学习PDF文件第5页

相关文件推荐

2017 年
¥5.0
2024 年
¥2.0
1900 年
¥6.0
2025 年
¥1.0
2023 年
¥1.0
2025 年
¥1.0
2024 年
¥1.0
2022 年
¥4.0
2024 年
¥4.0
2023 年
¥4.0
2024 年
¥1.0
2024 年
¥9.0
2023 年
¥3.0
2024 年
¥3.0
2021 年
¥3.0
2020 年
¥1.0
2025 年
¥1.0
2023 年
¥1.0
2025 年
¥1.0
2024 年
¥2.0
2025 年
¥1.0
2024 年
¥5.0