大规模的预训练模型越来越多地通过称为及时学习的新范式来适应下游任务。与微调相比,及时学习不会更新预训练的模型的参数。相反,它仅学习输入扰动,即提示,以添加到下游任务数据中以进行预测。鉴于迅速学习的快速发展,由于使用了巨大的努力和专有数据来创建它,因此不可避免地将良好的及时化成为有价值的资产。这自然提出了一个问题,即提示是否会泄露其培训数据的专有信息。在本文中,我们对通过财产推理和成员推理攻击的视觉提示学习的提示进行了首次全面的隐私评估。我们的经验评估表明,提示很容易受到两种攻击的影响。我们还证明,对手可以以有限的成本进行成功的推理攻击。此外,我们表明,通过放松的对抗性假设,针对提示的会员推理攻击可以成功。我们进一步对防御措施进行了一些初步调查,并观察到我们的方法可以减轻成员的推论,并以体面的公用事业防御权衡取舍,但未能防御财产推理攻击。我们希望我们的结果能够阐明流行的及时学习范式的隐私风险。为了促进这一方向的研究,我们将与社区分享我们的代码和模型。1
主要关键词