提高了私人非齿非convex优化的样本复杂性
我们研究了既不光滑也不平稳的随机目标和经验目标的差异私有(DP)优化算法,并提出了返回戈德斯坦 - 安置点具有样本复杂性界限的方法,这些方法是改善现有工作的样本复杂性。 (α,β)(\ alpha,\ beta)(α,β) - 只要数据集大小…
来源:Apple机器学习研究详细内容或原文请订阅后点击阅览
我们研究了既不光滑也不平稳的随机目标和经验目标的差异私有(DP)优化算法,并提出了返回戈德斯坦 - 安置点具有样本复杂性界限的方法,这些方法是改善现有工作的样本复杂性。 (α,β)(\ alpha,\ beta)(α,β) - 只要数据集大小…
来源:Apple机器学习研究