考虑使用大规模公共预训练进行差异化隐私学习——采访 Gautam Kamath

Florian Tramer、Gautam Kamath 和 Nicholas Carlini 凭借其作品《立场:具有大规模公共预训练的差异化隐私学习考量》获得了国际机器学习会议 (ICML2024) 最佳论文奖。在这次采访中,Gautam 总结了这篇论文的一些主要成就。首先,什么是差异隐私,研究人员如何以及为什么 […]

来源:ΑΙhub

Florian Tramer,Gautam Kamath和Nicholas Carlini因其工作地位而获得了国际机器学习会议(ICML2024)最佳纸张奖:对大规模公开审计的差异化私人学习考虑。在这次采访中,高塔姆总结了本文的一些关键成就。

机器学习国际会议(ICML2024) 最佳纸张奖 职位:大规模公共预处理的不同私人学习考虑

首先,什么是差异隐私,以及为什么研究人员在培训阶段使用私人机器学习模型的培训阶段使用公共数据?

差异隐私是数据隐私的严格且可证明的概念。除其他事项外,培训具有差异隐私的机器学习模型可以防止其吐出其培训数据。问题在于,培训具有差异隐私的模型通常对模型的实用程序产生了重大打击。通过将“公共数据”(即不受隐私限制的数据)纳入培训程序,它可以帮助减轻这种关注并增加所得模型的效用。

您的工作挑战是什么?

我们通过公共数据挑战了预训练模型的范式,然后使用敏感数据私下微调权重。我们质疑是否应该将这种模型视为保护隐私,并进一步推测这种模型是否对下游隐私敏感的任务有用。

您能否谈谈与使用大型公共数据集进行培训私人模型有关的三个关键问题?

我们提出的三个点如下:

  • c)要充分利用公开预培训,传统上需要非常大的型号,这太大了,无法适合单个设备。这需要将用户的数据外包到云中,从而从另一种意义上丢失数据隐私。
  • 关于Gautam

    标签:

    icml

    ICML2024