Loading...
机构名称:
¥ 1.0

对手可以提示该模型提取出来的姓名,电子邮件地址,电话号码或其他敏感信息,以实现恶意目的,如图1所示。一般数据保护法规(欧洲议会和欧盟理事会,2016年)赋予个人被遗忘的权利(RTBF),这可能会限制其个人信息的不同和间接商业使用。这种情况导致我们提出问题:我们如何使LLMS能够保护特定个人的私人数据以减轻隐私风险?在LLM的昂贵培训过程中,将所有私人信息从培训数据中移动并从头开始重新训练它不是一个实用的解决方案(Lison等人。,2021; Kandpal等。,2022;刘等。,2024a)。因此,研究人员旨在采用机器学习(MU)作为替代方案,旨在消除不受欢迎的数据和相关模型的影响而无需重新培训的影响(Cao和Yang,2015; Bourtoule et e;,2021; Jang等。,2022; Si等。,2023;张等。,2023a; Maini等。,2024;刘等。,2024a)。为了评估MU甲基的性能,一些研究已经尝试了问题 -

降低LLMS中的隐私风险

降低LLMS中的隐私风险PDF文件第1页

降低LLMS中的隐私风险PDF文件第2页

降低LLMS中的隐私风险PDF文件第3页

降低LLMS中的隐私风险PDF文件第4页

降低LLMS中的隐私风险PDF文件第5页

相关文件推荐