获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
摘要 - 富含广泛和流动的培训数据,生成模型在多个领域表现出了非凡的创造力。尽管如此,如何避免滥用对隐私敏感和版权的数据仍然是一个开放的问题。会员推理攻击(MIAS)通过推断可疑数据记录是机器学习模型的培训数据的一部分,从而提供了潜在的补救措施。尽管针对常规分类模型的MIA已引起了很大的关注,但最近的研究已开始研究MIA在生成模型中的应用。我们的研究表明,针对生成模型量身定制的当前MIA严重依赖于目标模型中存在的过度拟合。但是,可以通过应用各种正则化技术来缓解过度拟合,从而导致现有MIA在实际情况下的表现不佳。与过度拟合相比,记忆在使深度学习模型实现最佳性能中起着至关重要的作用,从而使其变得更加普遍。在生成模型中,记忆表现为围绕成员记录的记录的概率分布的上升趋势。因此,我们提出了一种评估成员推理攻击(PFAMI)的概率波动,这是一种新型的MIA框架,旨在通过分析围绕特定记录的概率波动来识别记忆模式来推断成员资格。我们的代码和数据集可在以下链接1中找到。我们对各种生成模型和多个数据集进行了广泛的实验,这表明PFAMI与表现最好的基线相比,PFAMI将攻击成功率(ASR)提高了约27.9%。