Apple 隐私保护机器学习研讨会 2024

在 Apple,我们认为隐私是一项基本人权。这也是我们的核心价值观之一,影响着我们的研究以及 Apple 产品和服务的设计。了解人们如何使用他们的设备通常有助于改善用户体验。但是,访问提供此类见解的数据(例如,用户在键盘上输入的内容以及他们访问的网站)可能会损害用户隐私。我们开发了系统架构,通过利用机器学习 (ML) 的进步(例如私有联邦学习 (PFL))结合……来实现大规模学习。

来源:Apple机器学习研究

在苹果公司,我们认为隐私是人类的基本权利。这也是我们的核心价值之一,既影响了我们的研究和苹果产品和服务的设计。

了解人们如何使用其设备通常有助于改善用户体验。但是,访问提供此类见解的数据 - 例如,用户在其键盘上输入的内容以及他们访问的网站可以损害用户隐私。我们开发系统体系结构,通过利用机器学习的进步(ML)(例如私人联盟学习(PFL))结合现有的隐私最佳实践,从而使学习能够大规模学习。我们设计有效且可扩展的差异性私有算法,并提供严格的分析,以证明实用程序,隐私,服务器计算和设备带宽之间的权衡。

今年早些时候,苹果主持了有关隐私机器学习(PPML)的研讨会。这项为期两天的混合活动将苹果和更广泛的研究社区的成员汇集在一起​​,讨论了隐私保护机器学习的最新技术。

在这篇文章中,我们分享了讲习班讨论和精选演讲的录音中的亮点。

苹果保护机器学习视频的Apple研讨会

联合学习和统计

研讨会主持人探索了联合学习的进步(FL),相关的私人私有算法用于ML优化,并且通过实用部署而广泛影响其广泛影响。PFL现在是培训ML模型的流行技术,其中:

    培训数据在用户设备上仍然是私人的,通常称为边缘设备。聚集的梯度使数据科学家能够从人群中学习。DifferentialPrivacy(DP)保证该模型可以保护边缘设备上数据的隐私。
  • 培训数据在用户设备上仍然是私有的,通常称为边缘设备。
  • 汇总梯度使数据科学家能够向人群学习。
  • PFL仿真框架 令牌 PFL研究Python框架 <8.0 < 1