跟踪最好的专家私人

我们在动态遗憾的情况下以专家建议为预测的问题设计了不同的私人算法,也被称为跟踪最佳专家。我们的工作介绍了三种自然类型的对手,这些对手,随机分布,遗忘和适应性的变化,以及在所有三个情况下都以次线性后悔的设计算法。特别是,在变化的随机对手下,分布可能会改变SSS时间,我们提供了ε\varepsilonε-划分的私人算法,其预期的动态遗憾最多是O(stlog⁡(nt) +slog⁡(nt) +slog⁡(nt)ε\ weft(\ sqrt(\ sqrt)

来源:Apple机器学习研究

我们针对动态后悔下的专家建议预测问题设计了差分隐私算法,也称为跟踪最佳专家。我们的工作解决了三种自然类型的对手,即具有变化分布的随机对手、遗忘对手和自适应对手,并针对所有三种情况设计了具有亚线性遗憾的算法。特别是,在分布可能会改变 SSS 倍的随机对手下,我们提供了一种 ε\varepsilonε 差分隐私算法,其预期动态遗憾最多为 O(STlog⁡(NT)+Slog⁡(NT)ε)O\left( \sqrt{S T \log (NT)} + \frac{S \log (NT)}{\varepsilon}\right)O(STlog(NT)​+εSlog(NT)​),其中 TTT 和 NNN 分别是时间范围和专家数量。对于不经意的对手,我们将动态后悔最小化减少到静态后悔最小化,从而得到 O(STlog⁡(NT)+ST1/3log⁡(T/δ)log⁡(NT)ε2/3)O\left(\sqrt{S T \log(NT)} + \frac{S T^{1/3}\log(T/\delta) 的上限\log(NT)}{\varepsilon^{2/3}}\right)O(STlog(NT)​+ε2/3ST1/3log(T/δ)log(NT)​) 在预期的动态遗憾上,其中 SSS 现在表示最佳专家允许的切换次数。最后,与静态遗憾类似,我们在动态设置中在不经意的对手和自适应的对手之间建立了根本的分离:虽然我们的算法表明,在高隐私制度 ε≤S/T\varepsilon \le \sqrt{S/T}ε≤S/T​ 下,对于不经意的对手来说,亚线性遗憾是可以实现的,但我们表明,任何 (ε,δ)(\varepsilon, \delta)(ε,δ) 差分隐私算法都必须在以下情况下遭受线性动态遗憾: ε≤S/T\varepsilon \le \sqrt{S/T}ε≤S/T​的自适应对手。最后,为了补充这个下界,我们给出了一个 ε\varepsilonε 差分隐私算法,每当 ε≫S/T\varepsilon \gg \sqrt{S/T}ε≫S/T​时,该算法在自适应对手下获得亚线性动态遗憾。

SSS SS 小号 ε\varepsilonε ε\varepsilon ε \varepsilon O(STlog⁡(NT)+Slog⁡(NT)ε)O\left( \sqrt{S T \log (NT)} + \frac{S \log (NT)}{\varepsilon}\right) O ( T 日志 N