通过惰性算法进行私有在线学习
我们研究隐私在线学习问题,具体来说,就是专家在线预测 (OPE) 和在线凸优化 (OCO)。我们提出了一种新的转换方法,将惰性在线学习算法转换为隐私算法。我们利用现有的惰性算法将我们的转换应用于差异隐私 OPE 和 OCO,以解决这些问题。我们的最终算法获得了遗憾,这显著改善了高隐私制度 ε≪1\varepsilon \ll 1ε≪1 中的遗憾,获得 Tlogd+T1/3log(d)/ε2/3\sqrt{T \log d} + T^{1/3} \log(d)/\varepsilon^{2/3}Tlogd+T1/3log(d)/ε2/3 for…
来源:Apple机器学习研究我们研究隐私在线学习问题,具体来说,就是专家在线预测 (OPE) 和在线凸优化 (OCO)。我们提出了一种新的转换方法,将惰性在线学习算法转换为隐私算法。我们利用现有的惰性算法将我们的转换应用于差异隐私 OPE 和 OCO,以解决这些问题。我们的最终算法获得了遗憾值,这显著改善了高隐私制度 ε≪1\varepsilon \ll 1ε≪1 中的遗憾值,对于 DP-OPE 获得 Tlogd+T1/3log(d)/ε2/3\sqrt{T \log d} + T^{1/3} \log(d)/\varepsilon^{2/3}Tlogd+T1/3log(d)/ε2/3,对于 DP-OCO 获得 T+T1/3d/ε2/3\sqrt{T} + T^{1/3} \sqrt{d}/\varepsilon^{2/3}T+T1/3d/ε2/3。我们还用 DP-OPE 的下限补充了我们的结果,表明这些速率对于低切换隐私算法的自然系列是最佳的。
ε≪1\varepsilon \ll 1ε≪1 ε≪1\varepsilon \ll 1