Loading...
机构名称:
¥ 1.0

差异隐私(DP)是一个自2006年以来一直详细阐述的框架,因此可以生产一组可以应用于现代数据处理管道的结果和方法,例如机器学习中使用的框架,以保护个人或更普遍地,或更普遍地,私人或敏感的数据免受不受欢迎的披露。尽管有许多重要的作品和某些各方采用DP,但如今,大多数机器学习模型仍在使用大量未知(如果有的话)进行数据隐私保护措施进行培训。除其他问题外,这引发了审核的问题 - 从经验上的意义上进行了验证和量化隐私性,可以从现有的机器学习管道中保证。互动的作品线基于DP中使用的概念与成员推理攻击成功概率(MIA)[1,2,3]之间的牢固联系。在此观点中,执行MIA的目的是在DP定义的隐私泄漏上获得数值下限。然而,这个想法面临着各种困难,其中一些与大规模机器学习应用中该方法的可行性有关[4]的实际可行性[4],而其他方法则适用于该方法适用于(具有挑战性但更现实的)设置,在这些设置中,该设置不是一个选项(有时称为Hoc tost hoces tost hoc tost hoc)[5,6] [5,6]。实习的目的是熟悉这些作品,包括理论和实际观点的观点(尤其是在[5]中暴露的思想),并调查相关研究方向。

机器学习的隐私审核

机器学习的隐私审核PDF文件第1页

相关文件推荐

2024 年
¥2.0
2024 年
¥1.0
2025 年
¥1.0
2012 年
¥41.0
2025 年
¥1.0
2024 年
¥1.0
2025 年
¥5.0
2024 年
¥13.0
2024 年
¥1.0
1900 年
¥10.0
1900 年
¥3.0
2015 年
¥2.0
2025 年
¥1.0
2025 年
¥27.0
2019 年
¥1.0
2023 年
¥18.0
1900 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0
2024 年
¥33.0