Private Stochastic Convex Optimization with Heavy Tails: Near-Optimality from Simple Reductions
我们研究了具有重尾梯度的差分隐私随机凸优化 (DP-SCO) 问题,其中我们假设样本函数的 Lipschitz 常数上有 kthk^{\text{th}}kth 矩界限,而不是统一界限。我们提出了一种新的基于约简的方法,使我们能够在重尾设置中获得第一个最优利率(最多对数因子),在 (ε,δ)(\varepsilon, \delta)(ε,δ)-近似下实现误差 G2⋅1n+Gk⋅(dnε)1−1kG_2 \cdot \frac 1 {\sqrt n} + G_k \cdot (\frac{\sqrt d}{n\varepsilon})^{1 - \frac 1 k}G2⋅n1+Gk⋅(n
Influence of Fines Content on the Progression of Backward Erosion Piping
摘要:反向侵蚀管涌是一种内部侵蚀形式,会危及堤坝和水坝的结构稳定性。了解影响这种侵蚀形式的因素可以改善风险评估,并对新旧结构进行更适当的修改。从历史上看,人们一直认为粉砂大小的颗粒的存在会降低侵蚀所需的梯度。本研究通过对粉砂进行一系列实验室实验,调查了细粉含量对反向侵蚀管涌的影响。实验室结果表明,随着样品中细粉含量的增加,产生和推进管涌直至失效所需的梯度也会增加。结果表明,在粉砂反向侵蚀管涌 (BEP) 风险评估中,需要一个新的因素来正确考虑粉砂含量。
摘要:本报告涉及两个目标:(1) 开展全岛调查和测绘计划,记录密西西比州鹿岛的栖息地和土地覆盖类型;(2) 对鹿岛的森林资源进行评估,并提出改善和扩大岛上海滨森林范围的建议。记录了多样化的栖息地,包括 30 多种不同的栖息地和土地覆盖类型,从湿地沼泽到海滨森林和沙脊。栖息地和土地覆盖调查(以及随附的地图)支持正在进行的和未来的生态系统恢复活动,提供基线数据以进行随时间的变化分析,并为与管理岛上自然资源相关的决策提供信息。此外,对鹿岛森林的描述记录了一系列由海拔梯度、土壤、入侵物种存在和其他因素决定的森林健康状况。总的来说,所提供的数据为与岛上恢复活动相关的正在进行的规划工作以及未来的管理机会提
Reinforcement Learning, Part 8: Feature State Construction
通过将状态特征巧妙地纳入学习目标来增强线性方法强化学习是机器学习的一个领域,它引入了代理在复杂环境中学习最佳策略的概念。代理根据环境状态从其行为中学习,从而获得奖励。强化学习是一个具有挑战性的话题,与机器学习的其他领域有很大不同。强化学习的显著之处在于,可以使用相同的算法使代理适应完全不同、未知和复杂的条件。关于本文在第 7 部分中,我们介绍了可扩展标准表格方法的值函数近似算法。除此之外,我们特别关注了一个非常重要的情况,即近似值函数是线性的。我们发现,线性保证了收敛到全局最优值或 TD 不动点(在半梯度方法中)。问题是,有时我们可能希望使用更复杂的近似值函数,而不仅仅是简单的标量积,而不离开
On a Neural Implementation of Brenier's Polar Factorization
1991 年,Brenier 证明了一个定理,该定理将方阵的极分解(分解为 PSD ×\times× 单位矩阵)推广到任何矢量场 F:Rd→RdF:\mathbb{R}^d\rightarrow \mathbb{R}^dF:Rd→Rd。该定理称为极分解定理,指出任何场 FFF 都可以恢复为凸函数 uuu 的梯度与保测度映射 MMM 的组合,即 F=∇u∘MF=\nabla u \circ MF=∇u∘M。我们提出了这一影响深远的理论结果的实际实现,并探索了机器学习中的可能用途。该定理与… 密切相关
3 Important Considerations in DDPG Reinforcement Algorithm
照片由 Jeremy Bishop 在 Unsplash 上拍摄深度确定性策略梯度 (DDPG) 是一种用于学习连续动作的强化学习算法。您可以在 YouTube 上的以下视频中了解更多信息:https://youtu.be/4jh32CvwKYw?si=FPX38GVQ-yKESQKU以下是使用 DDPG 解决问题时必须考虑的 3 个重要事项。请注意,这不是 DDPG 的操作指南,而是内容指南,因为它只讨论了您必须研究的领域。噪声Ornstein-UhlenbeckDDPG 的原始实现/论文提到使用噪声进行探索。它还表明某一步骤的噪声取决于前一步的噪声。这种噪声的实现是 Ornstein-Uh
Research Brief: Impacts of the Salinization of Small Urban Ponds
雨水滞留池和其他小型浅水资源在湖沼学研究中经常被遗忘。多年来,科学家认为较浅的水不会在密度梯度上分层[...]文章《研究简报:小型城市池塘盐化的影响》首先出现在 Lake Scientist 上。
Rethinking the Role of PPO in RLHF
重新思考 PPO 在 RLHF 中的作用TL;DR:在 RLHF 中,奖励学习阶段(以比较的形式使用人类偏好)与 RL 微调阶段(优化单一的非比较奖励)之间存在矛盾。如果我们以比较的方式执行 RL 会怎么样?图 1:此图说明了绝对反馈和相对反馈的强化学习之间的区别。通过合并新组件 - 成对策略梯度,我们可以统一奖励建模阶段和 RL 阶段,从而实现基于成对响应的直接更新。大型语言模型 (LLM) 为功能越来越强大的虚拟助手提供支持,例如 GPT-4、Claude-2、Bard 和 Bing Chat。这些系统可以响应复杂的用户查询、编写代码,甚至创作诗歌。这些令人惊叹的虚拟助手背后的技术是带人类
First Phase of the MAGPIE Weather and Climate Experiment Completed in Barbados
华盛顿 - 美国海军研究实验室(NRL)完成了其对倒置进化(Magpie)计划的水分和气溶胶梯度/物理学的贡献,这是巴巴多斯执行18个月任务的第一阶段。
First Phase of the MAGPIE Weather and Climate Experiment Completed in Barbados
华盛顿——美国海军研究实验室 (NRL) 完成了对湿度和气溶胶梯度/反转演化物理 (MAGPIE) 项目的贡献,这是在巴巴多斯为期 18 个月的任务的第一阶段。
IEEE Transactions on Emerging Topics in Computational Intelligence, Volume 8, Number 3, June 2024
1) 深度学习在 B 型超声分割中的进展:综合综述作者:Mohammed Yusuf Ansari、Iffa Afsa Changaai Mangalote、Pramod Kumar Meher、Omar Aboumarzouk、Abdulla Al-Ansari、Osama Halabi、Sarada Prasad Dakua页数:2126 - 21492) 机器反学习:解决方案和挑战作者:Jie Xu、Zihan Wu、Cong Wang、Xiaohua Jia页数:2150 - 21683) MuralDiff:基于大规模预训练的古代壁画修复扩散作者:Zishan Xu、Xiaofeng
What is ADAGrad and How Does it Relate to Machine Learning
为什么重要:AdaGrad(自适应梯度)是一种用于机器学习和深度学习领域的优化算法。
是的,NBER 会收取下载工作论文的费用,但您可以免费观看一些最近的会议。顺便说一句,根据我的经验,如果您四处寻找,通常可以找到大多数 NBER 工作论文的未封闭版本。我认为种族和阶层经济学会议以及美国经济发展会议应该会引起本博客读者的兴趣。种族和阶层会议的最后一位演讲者是玛丽华盛顿大学经济学校友 Lavar Edmonds,他目前正在斯坦福大学攻读经济学博士学位,他将介绍他对 HBCU 培训教师影响的研究。我还喜欢种族和阶层会议关于如何将种族和阶层经济学纳入入门经济学课程的内容。 NBER种族与分层工作组 YouTube 频道 https://www.nber.org/conferences
Introduction to XGBoost and its Uses in Machine Learning
为什么重要:XGBoost 是一种基于决策树的集成机器学习算法,它使用梯度提升框架来实现集成机器学习。
Deep Recurrent Neural Nets with Long Short Term Memory
再次。LTSM 可能正在成为循环 NN 建模中的大问题。我之前写过博客(例如这里),但我仍然不太了解它。有人了解吗?也许它只是一种避免消失梯度问题的手段(并不是说这并不重要);也许它更重要。这篇新论文写得很好,突出介绍了 LSTM。DONUT 集成组合预测方法作者:Lars Lien Ankile;Kjartan Krange摘要:本文提出了一种集成预测方法,通过减少特征和模型选择假设,在 M4Competition 数据集上显示出强劲的结果,称为 DONUT(不使用人类假设)。我们的假设减少主要由自动生成的特征和更多样化的集成模型池组成,其表现明显优于 Montero-Manso 等人(20
The Latest in Observation-Driven TVP Models
看看这个。相对于“标准”GAS/DCS 显式更新,隐式随机梯度更新似乎非常有吸引力。“使用近端参数更新的稳健观察驱动模型”,作者:Rutger-Jan Lange、Bram van Os 和 Dick van Dijk。https://www.tinbergen.nl/discussion-paper/6188/22-066-iii-robust-observation-driven-models-using-proximal-parameter-updates
A journey into Optimization algorithms for Deep Neural Networks
概述用于训练深度神经网络的最流行优化算法。从随机梯度下降到 Adam、AdaBelief 和二阶优化
使用 torch,几乎没有理由从头开始编写反向传播代码。它的自动微分功能称为 autograd,可跟踪需要计算梯度的操作以及如何计算它们。在这个由四部分组成的系列的第二篇文章中,我们更新了简单的手工编码网络以使用 autograd。