用于凸优化的自适应近端梯度法 NeurIPS ,2024 16. K. Mishchenko、A. Defazio Prodigy:一种快速自适应的无参数学习器 ICML ,2024 15. A. Khaled、K. Mishchenko、C. Jin DoWG Unleashed:一种有效的通用无参数梯度下降法 NeurIPS ,2023 14. A. Defazio、K. Mishchenko 通过 D 自适应实现无学习率学习 ICML ,2023 杰出论文奖 13. B. Woodoworth、K. Mishchenko、F. Bach 两个损失胜过一个:使用更便宜的代理进行更快的优化 ICML ,2023 12. K. Mishchenko、F. Bach、M. Even、B. Woodworth 异步 SGD 在任意延迟 NeurIPS,2022 11. K. Mishchenko、G. Malinovsky、S. Stich、P. Richtárik ProxSkip:是的!局部梯度步骤可证明可加速通信!终于! ICML ,2022 10. K. Mishchenko、A. Khaled、P. Richtárik 近端和联合随机重新调整 ICML ,2022 9. K. Mishchenko、B. Wang、D. Kovalev、P. Richtárik IntSGD:随机梯度的自适应无浮点压缩 ICLR ,Spotlight,2022 8. K. Mishchenko、A. Khaled、P. Richtárik 随机重新调整:简单分析但带来巨大改进 NeurIPS ,2020 7. Y. Malitsky、K. Mishchenko 无下降的自适应梯度下降 ICML ,2020 6. K. Mishchenko、F. Hanzely、P. Richtárik 分布式优化中 99% 的 Worker-Master 通信是不需要的 UAI ,2020 5. K. Mishchenko, D. Kovalev, E. Shulgin, Y. Malitsky, P. Richtárik 重温随机超梯度 AISTATS,2020 4. A. Khaled, K. Mishchenko, P. Richtárik 相同和异构数据 AISTATS 上局部 SGD 的更严格理论,2020 3. S. Soori, K. Mishchenko, A. Mokhtari, M. Dehnavi, M. Gürbüzbalaban DAve-QN:具有局部超线性收敛率的分布式平均拟牛顿法 AISTATS,2020 2. F. Hanzely,K. Mishchenko,P. Richtárik SEGA:通过梯度草图 NeurIPS 减少方差,2018 1. K. Mishchenko,F. Iutzeler,J. Malick,M.-R。 Amini 一种用于分布式学习的延迟容忍近端梯度算法 ICML,2018
主要关键词