差异隐私 (DP) [1,2] 是一个严格的数学框架,用于在分析和处理数据集的同时保留每个个体的信息。直观地说,差异隐私算法可以学习由 n 个用户组成的数据集的统计属性,但几乎不会泄露每个用户的任何信息。在处理医院数据、银行、社交媒体等敏感数据时,此类机制具有重要意义。除了隐私保护数据分析外,差异隐私还在计算机科学的其他领域找到了多种应用,如机器学习 [3、4、5、6]、统计学习理论 [7、8、9、10]、机制设计 [11]。自其推出以来,已开发出多种用于隐私数据分析设计的分析工具 [12、13、14、15]。最常见的是,这些机制利用诸如在最终输出中添加噪声或将输入随机化之类的技术。可以使用简单的工具(例如基本组合规则和后处理的鲁棒性)对由这些块构建的复杂机制进行松散的分析。然而,实际应用中隐私和实用性之间的固有权衡引发了更细化规则的发展,从而带来了更严格的隐私界限。这个方向的趋势是表明多种随机性来源放大了标准 DP 机制的保证。特别是,已经证明了子采样、迭代、混合和改组等 DP 放大结果 [16,17,18,19]。鉴于过去几十年量子计算和量子信息对计算机科学不同领域产生了重大影响,一个有趣的问题是量子和量子启发算法是否可以增强差异隐私。随着如今噪声中型量子设备 (NISQ) 的出现,这个问题变得更加重要 [20]。一方面,这些设备的噪声特性(之前也被 [21] 所利用),另一方面,量子算法的潜在能力,使得这种量子或混合量子经典机制成为差异隐私角度的一个有趣研究课题。此外,机器学习和差异隐私之间的联系表明,回答这个问题可以带来对量子机器学习能力的有趣见解。
主要关键词