详细内容或原文请订阅后点击阅览
新方法有效保护敏感的AI训练数据
该方法保持AI模型的准确性,同时确保攻击者无法提取秘密信息。
来源:MIT新闻 - 人工智能数据隐私带有成本。有一些安全技术可以保护敏感用户数据(例如客户地址)免受可能试图从AI模型中提取它们的攻击者,但它们通常会使这些模型不太准确。
MIT研究人员最近根据一个名为PAC隐私的新隐私指标开发了一个框架,该框架可以保持AI模型的性能,同时确保敏感数据(例如医疗图像或财务记录)仍然可以免受攻击者的侵害。现在,他们通过使他们的技术更加高效地使这项工作更进一步,改善了准确性和隐私之间的权衡,并创建了一个正式的模板,该模板几乎可以用来将任何算法私有化,而无需访问该算法的内部工作。
新隐私指标团队利用其新版本的PAC隐私将数据分析和机器学习任务的几种经典算法私有化。
他们还证明了更多的“稳定”算法更容易使用其方法私有化。即使训练数据稍微修改,稳定算法的预测仍然保持一致。更大的稳定性有助于算法对先前看不见的数据做出更准确的预测。
研究人员说,新的PAC隐私框架的效率提高,并且可以遵循的四步模板可以实施它,这将使该技术更容易在现实世界中部署。
“我们倾向于将鲁棒性和隐私视为与构建高性能算法无关的,甚至与甚至与之冲突的不相关,首先,我们制作了一种工作算法,然后我们使其变得牢固,然后使其私密。我们表明的并不总是正确的框架。如果您使您的算法变得更好。麻省理工学院的研究生和有关本隐私框架论文的首席作者。
本隐私框架上的论文估计噪声
隐私和稳定性