详细内容或原文请订阅后点击阅览
具有重尾的私有随机凸优化:通过简单归约实现近似最优性
我们研究了具有重尾梯度的差分隐私随机凸优化 (DP-SCO) 问题,其中我们假设样本函数的 Lipschitz 常数上有 kthk^{\text{th}}kth 矩界限,而不是统一界限。我们提出了一种新的基于约简的方法,使我们能够在重尾设置中获得第一个最优利率(最多对数因子),在 (ε,δ)(\varepsilon, \delta)(ε,δ)-近似下实现误差 G2⋅1n+Gk⋅(dnε)1−1kG_2 \cdot \frac 1 {\sqrt n} + G_k \cdot (\frac{\sqrt d}{n\varepsilon})^{1 - \frac 1 k}G2⋅n1+Gk⋅(nεd)1−k1…
来源:Apple机器学习研究我们研究具有重尾梯度的差分隐私随机凸优化(DP-SCO)问题,其中我们假设样本函数的 Lipschitz 常数上有 kthk^{\text{th}}kth 矩界限,而不是统一界限。我们提出了一种新的基于约简的方法,使我们能够在重尾设置中获得第一个最优速率(最多对数因子),在 (ε,δ)(\varepsilon, \delta)(ε,δ) 近似差分隐私下实现误差 G2⋅1n+Gk⋅(dnε)1−1kG_2 \cdot \frac 1 {\sqrt n} + G_k \cdot (\frac{\sqrt d}{n\varepsilon})^{1 - \frac 1 k}G2⋅n1+Gk⋅(nεd)1−k1,最多可达温和的 polylog(lognδ)\textup{polylog}(\frac{\log n}{\delta})polylog(δlogn) 因子,其中 G22G_2^2G22 和 GkkG_k^kGkk 是样本 Lipschitz 常数的 2nd2^{\text{nd}}2nd 和 kthk^{\text{th}}kth 矩界限几乎匹配 (Lowy 等人,2023) 的下限。
kthk^{\text{th}}kth kthk^{\text{th}}