[1]。Zhongzhan Huang,Pan Zhou,Shuicheng Yan,Liang Lin。 通过缩放网络长跳连接进行扩散模型的更稳定训练。 神经信息处理系统(神经),2023 [2]。 上海Gao,Pan Zhou,Ming -Ming Cheng,Shuicheng Yan。 掩盖扩散变压器是强大的图像合成器。 国际计算机视觉会议(ICCV),2023 [3]。 li,Xiangyu Xu,Hehe Fan,Pan Zhou,Jun Liu,Jia -Wei Liu,Jiahe Li,Jussi Keppo,Mike Zheng Shoun,Shuichen Yan。 史密图:时空临时隐私的行动识别。 国际计算机视觉会议(ICCV),2023 [4]。 Alex Jinpeng Wang,Pan Zhou,Mike Zheng Shou,Shuicheng Yan。 位置引导的文本提示,以进行视力 - 语言预训练。 IEEE计算机视觉和模式识别会议(CVPR),2023 [5]。 pan Zhou,Xingyu Xie,Shuicheng Yan。 胜利:自适应梯度算法的重量 - 纳斯特诺夫加速度。 国际学习表征会议(ICLR),2023年(口头)[6]。 Jiachun Pan*,Pan Zhou*,Shuicheng Yan。 了解为什么掩盖重建预处理有助于下游任务。 国际学习表征会议(ICLR),2023年(*同等贡献)[7]。 Bowen Dong,Pan Zhou,Shuicheng Yan,Wangmeng Zuo。 lpt:长时间的提示调整以进行图像分类。 国际学习表现会议(ICLR),2023 [8]。 chenyang si*,weihao yu*,pan Zhou,Yichen Zhou,Xinchao Wang,Shuichen Yan。Zhongzhan Huang,Pan Zhou,Shuicheng Yan,Liang Lin。通过缩放网络长跳连接进行扩散模型的更稳定训练。神经信息处理系统(神经),2023 [2]。上海Gao,Pan Zhou,Ming -Ming Cheng,Shuicheng Yan。掩盖扩散变压器是强大的图像合成器。国际计算机视觉会议(ICCV),2023 [3]。li,Xiangyu Xu,Hehe Fan,Pan Zhou,Jun Liu,Jia -Wei Liu,Jiahe Li,Jussi Keppo,Mike Zheng Shoun,Shuichen Yan。史密图:时空临时隐私的行动识别。国际计算机视觉会议(ICCV),2023 [4]。Alex Jinpeng Wang,Pan Zhou,Mike Zheng Shou,Shuicheng Yan。 位置引导的文本提示,以进行视力 - 语言预训练。 IEEE计算机视觉和模式识别会议(CVPR),2023 [5]。 pan Zhou,Xingyu Xie,Shuicheng Yan。 胜利:自适应梯度算法的重量 - 纳斯特诺夫加速度。 国际学习表征会议(ICLR),2023年(口头)[6]。 Jiachun Pan*,Pan Zhou*,Shuicheng Yan。 了解为什么掩盖重建预处理有助于下游任务。 国际学习表征会议(ICLR),2023年(*同等贡献)[7]。 Bowen Dong,Pan Zhou,Shuicheng Yan,Wangmeng Zuo。 lpt:长时间的提示调整以进行图像分类。 国际学习表现会议(ICLR),2023 [8]。 chenyang si*,weihao yu*,pan Zhou,Yichen Zhou,Xinchao Wang,Shuichen Yan。Alex Jinpeng Wang,Pan Zhou,Mike Zheng Shou,Shuicheng Yan。位置引导的文本提示,以进行视力 - 语言预训练。IEEE计算机视觉和模式识别会议(CVPR),2023 [5]。pan Zhou,Xingyu Xie,Shuicheng Yan。胜利:自适应梯度算法的重量 - 纳斯特诺夫加速度。国际学习表征会议(ICLR),2023年(口头)[6]。Jiachun Pan*,Pan Zhou*,Shuicheng Yan。 了解为什么掩盖重建预处理有助于下游任务。 国际学习表征会议(ICLR),2023年(*同等贡献)[7]。 Bowen Dong,Pan Zhou,Shuicheng Yan,Wangmeng Zuo。 lpt:长时间的提示调整以进行图像分类。 国际学习表现会议(ICLR),2023 [8]。 chenyang si*,weihao yu*,pan Zhou,Yichen Zhou,Xinchao Wang,Shuichen Yan。Jiachun Pan*,Pan Zhou*,Shuicheng Yan。了解为什么掩盖重建预处理有助于下游任务。国际学习表征会议(ICLR),2023年(*同等贡献)[7]。Bowen Dong,Pan Zhou,Shuicheng Yan,Wangmeng Zuo。lpt:长时间的提示调整以进行图像分类。国际学习表现会议(ICLR),2023 [8]。chenyang si*,weihao yu*,pan Zhou,Yichen Zhou,Xinchao Wang,Shuichen Yan。启动变压器。神经信息处理系统(Neurips),2022(口服)(*均等贡献)[9]。Yuxuan Liang,Pan Zhou,Roger Zimmermann,Shuicheng Yan。双形式:局部全球分层变压器,以进行有效的视频识别。欧洲计算机视觉会议(ECCV),2022 [10]。Junbin Xiao,Pan Zhou,Tat -Seng Chua,Shuicheng Yan。 视频问题的视频图形变压器Junbin Xiao,Pan Zhou,Tat -Seng Chua,Shuicheng Yan。视频问题的视频图形变压器
摘要。月球着陆器问题在强化学习领域提出了巨大的挑战,因此需要创建能够在月球表面安全着陆的自主航天器。在这项研究中,研究并检查了三种突出的增强学习算法,即深Q-Network(DQN),Double Deep Q-Network(DDQN)和策略梯度,并进行了检查并检查以解决此问题。最初,将神经网络和Q学习的DQN算法利用以学习最佳着陆政策。通过通过神经网络培训近似Q值,该航天器学会了做出明智的决定,从而成功着陆。随后,使用减轻高估偏差的DDQN算法。利用两个神经网络(一个用于行动选择,另一个用于评估),DDQN可提高稳定性和收敛性,从而产生精致的着陆策略。此外,这项工作探讨了策略梯度方法在此问题中的应用。通过使用梯度上升直接优化策略,该航天器可以最大化累积奖励,从而实现有效而准确的降落。通过广泛的模拟来评估该算法的性能,该模拟涵盖了不同的月球表面条件。结果证明了这些方法的有效性,展示了它们促进成功和燃油效率的航天器登陆的能力。总而言之,这项研究有助于了解Lunar Lander问题的DQN,DDQN和政策梯度算法。这些发现突出了每种算法的独特优势及其在自主航天器上的潜力。这项研究所获得的见解对未来的月球任务中智能着陆系统的发展具有影响,从而推进了航空航天应用中强化学习领域。
为了考虑 3d 电子的强相关性并避免局部密度近似中预测的 d 态过度离域,对 Mn 和 Co 分别采用了类 Hubbard 校正 U = 6 eV 和 U = 4 eV(LDA+U 方法)。5 Kampert 等人在计算 {Mn 4 } 时也使用了相同的 U = 6 eV 值。6 对碳、氮和氢使用标准双 zeta 极化 (DZP) 基组,对 Mn、Co 和 O 使用优化的双 zeta (DZ)。计算是自旋极化的,并假设共线自旋。为了确定轨道矩和 SOC 的作用,进行了没有 Hubbard 校正的 LDA+SOC 计算(参考文献 [7] 的场外形式),因为目前的 SIESTA 代码不允许同时包含 SOC 和 Hubbard 校正。我们验证了自旋轨道相互作用的影响在{Mn 4 }中可以忽略不计(对于半填充的3d壳层而言如此),但在{Co 4 }中则不然。在LDA+U计算中,当真实空间网格截止值为400 Ry、费米-狄拉克弥散为100 K时,电子结构和磁性达到了收敛,而在SOC中,截止值为650 Ry,电子温度为1 K。在标准周期边界条件模拟中放宽原子位置,对15个{M 4 }-CNT单元(移位网格)的布里渊区进行1×1×12 k点采样,采用共轭梯度算法。模拟单元沿周期方向延伸36.9354 Å(30个碳原子),而在垂直于管轴的两个方向上,系统的周期复制品之间的真空度超过30 Å。对于 CNT+ {M 4 } 系统,原子上的最大力小于 0.04 eV/Å。开放系统模拟是在非平衡格林函数形式内进行的,使用 TranSIESTA 解决方案方法,8-9 在一个 70 个碳长的单元上进行,该单元由松弛的 {M 4 -CNT} 单元组成,两侧填充有 (5,5)-CNT 片段(总共 20 个碳长)。
用于凸优化的自适应近端梯度法 NeurIPS ,2024 16. K. Mishchenko、A. Defazio Prodigy:一种快速自适应的无参数学习器 ICML ,2024 15. A. Khaled、K. Mishchenko、C. Jin DoWG Unleashed:一种有效的通用无参数梯度下降法 NeurIPS ,2023 14. A. Defazio、K. Mishchenko 通过 D 自适应实现无学习率学习 ICML ,2023 杰出论文奖 13. B. Woodoworth、K. Mishchenko、F. Bach 两个损失胜过一个:使用更便宜的代理进行更快的优化 ICML ,2023 12. K. Mishchenko、F. Bach、M. Even、B. Woodworth 异步 SGD 在任意延迟 NeurIPS,2022 11. K. Mishchenko、G. Malinovsky、S. Stich、P. Richtárik ProxSkip:是的!局部梯度步骤可证明可加速通信!终于! ICML ,2022 10. K. Mishchenko、A. Khaled、P. Richtárik 近端和联合随机重新调整 ICML ,2022 9. K. Mishchenko、B. Wang、D. Kovalev、P. Richtárik IntSGD:随机梯度的自适应无浮点压缩 ICLR ,Spotlight,2022 8. K. Mishchenko、A. Khaled、P. Richtárik 随机重新调整:简单分析但带来巨大改进 NeurIPS ,2020 7. Y. Malitsky、K. Mishchenko 无下降的自适应梯度下降 ICML ,2020 6. K. Mishchenko、F. Hanzely、P. Richtárik 分布式优化中 99% 的 Worker-Master 通信是不需要的 UAI ,2020 5. K. Mishchenko, D. Kovalev, E. Shulgin, Y. Malitsky, P. Richtárik 重温随机超梯度 AISTATS,2020 4. A. Khaled, K. Mishchenko, P. Richtárik 相同和异构数据 AISTATS 上局部 SGD 的更严格理论,2020 3. S. Soori, K. Mishchenko, A. Mokhtari, M. Dehnavi, M. Gürbüzbalaban DAve-QN:具有局部超线性收敛率的分布式平均拟牛顿法 AISTATS,2020 2. F. Hanzely,K. Mishchenko,P. Richtárik SEGA:通过梯度草图 NeurIPS 减少方差,2018 1. K. Mishchenko,F. Iutzeler,J. Malick,M.-R。 Amini 一种用于分布式学习的延迟容忍近端梯度算法 ICML,2018