梯度关键词检索结果

简单地实现了从头开始的注意机制

A Simple Implementation of the Attention Mechanism from Scratch

注意力如何帮助诸如RNNS之类的模型减轻消失的梯度问题并捕获单词之间的远程依赖性,从而首先在数据科学方面出现了从头开始的注意机制的简单实现。

[疱疹学•2023] Varanus varius•使用众包摄影记录探索颜色多态性的地理变化

[Herpetology • 2023] Varanus varius • Using Crowdsourced Photographic Records to explore Geographical Variation in Colour Polymorphism

Farquhar,Pili et Russell,2023。Doi:doi.org/10.1111/jbi.145​​00 Abstract Ampactaim:在广泛的范围内占据广泛气候梯度,替代色彩模式变体(即Morphs)可以像适应性的响应时, We explore the patterns of geographical segregation among colour morphs of the Lace monitor and determine whether morphs occupy divergent climatic niches along a mesic–arid g

ALSP Axiom提供与DraftPilot的AI合同解决方案

ALSP Axiom Offers AI Contract Solution with DraftPilot

ALSP没有AI…?这些天听起来像没有鳄梨的烤面包。因此,很高兴看到Axiom与AI驱动的DraftPilot合作以提供合同... 今天有更多Legora新闻。在成功的概念证明之后,国际律师事务所Bird&Bird选择了正式的Legora,正式地从Legora出发。 这是一个惊喜….. Baretz+Brunelle(B+B),PR组 - 或至少这就是他们向Al表现出来的方式 - 购买了Lexfusion,是法律的... VLEX已将其25冬季升级升级为Vincent AI助手,该助手引入了多模式功能。 Vlex首席执行官LluísFaus说:‘新的多模式AI ... Patlyti

步行:VLEX - 多模式Vincent AI + More

Walk Through: vLex – Multi-Modal Vincent AI + More

Patlytics是一个由Genai驱动的专利工作流平台,由全球风险公司Next47领导的1400万美元的A轮融合,并带有Google以AI为重点的风险投资基金梯度,...

具有可扩展在线双层优化的自适应训练分布

Adaptive Training Distributions with Scalable Online Bilevel Optimization

在网络规模语料库上进行预训练的大型神经网络是现代机器学习的核心。在这种范式中,大型异构预训练数据的分布很少与应用领域的分布相匹配。这项工作考虑在拥有反映目标测试条件的少量数据样本的情况下修改预训练分布。我们提出了一种算法,该算法受到最近将此设置表述为在线双层优化问题的启发。考虑到可扩展性,我们的算法优先考虑在可能... 的训练点计算梯度。

IEEE 神经网络和学习系统学报,第 36 卷,第 1 期,2025 年 1 月2025年

IEEE Transactions on Neural Networks and Learning Systems, Volume 36, Issue 1, January 2025

1) 特邀编辑:可信联邦学习专题作者:Qiang Yang, Han Yu, Sin G. Teo, Bo Li, Guodong Long, Chao Jin, Lixin Fan, Yang Liu, Le Zhang页数:5 - 52) 联邦推荐系统综述作者:Zehua Sun, Yonghui Xu, Yong Liu, Wei He, Lanju Kong, Fangzhao Wu, Yali Jiang, Lizhen Cui页数:6 - 203) 从梯度进行生成图像重建作者:Ekanut Sotthiwat, Liangli Zhen, Chi Zhang, Zengxiang

是时候浪费金钱的“价值存储”功能

It's time to trash the "store of value" function of money

当我们第一次在高中或大学中了解金钱和银行业时,我们都被告知金钱具有三个功能:交换媒介,帐户单位和价值存储。也许是时候让教育工作者扔掉这一trium派了。这不是很准确。我们需要一个简单且可教的设备来取得三重的位置。我提出了金钱维恩图。在解释金钱维恩图之前,让我们重新审视教科书Triumvirate。当某种东西是一种交换的媒介时,意味着它在贸易中通常可以接受。您可以使用它在杂货店购买商品,或在股票市场购买股票,或者在线上购买股票。作为交换媒介的质量实际上是梯度,而不是一个/或一个问题。例如,钞票擅长于实体店和砂浆商店,但在线毫无用处。您的借记卡在商店里效果很好,但忘记尝试购买股票。但是两者都被足够

是时候抛弃货币的“价值存储”功能了

It's time to trash the "store of value" function of money

当我们在高中或大学第一次学习货币和银行业务时,我们都被教导货币具有三种功能:交换媒介、记账单位和价值储存。也许是时候让教育工作者抛弃这三种功能了。它不太准确。我们需要一种简单易学的工具来取代这三种功能。我建议使用货币维恩图。在我解释货币维恩图之前,让我们重新回顾一下教科书上的三种功能。当某物成为交换媒介时,这意味着它在贸易中是普遍可接受的。你可以用它在杂货店买东西,或者在股票市场上购买股票,或者在网上买东西。作为交换媒介的质量实际上更多的是一个梯度,而不是非此即彼的问题。例如,钞票在实体店很好用,但在网上却没用。你的借记卡在商店很好用,但别想用它来买股票。但两者都被广泛接受,足以成为交换媒介。

利用周期性实现多模态情绪模式模型的稳健性

Leveraging Periodicity for Robustness with Multi-modal Mood Pattern Models

*平等贡献者来自可穿戴传感器的数据(例如心率、步数)可用于模拟情绪模式。我们使用多模态离散时间序列数据表征特征表示和建模策略,使用具有自然缺失的大型数据集(n=116,819 名参与者)进行情绪模式分类,使用 12 个可穿戴数据流,重点是捕捉数据的周期性趋势。综合考虑性能和鲁棒性,基于周期性的具有梯度提升模型的聚合特征表示优于其他表示和架构……

具有重尾的私有随机凸优化:通过简单归约实现近似最优性

Private Stochastic Convex Optimization with Heavy Tails: Near-Optimality from Simple Reductions

我们研究了具有重尾梯度的差分隐私随机凸优化 (DP-SCO) 问题,其中我们假设样本函数的 Lipschitz 常数上有 kthk^{\text{th}}kth 矩界限,而不是统一界限。我们提出了一种新的基于约简的方法,使我们能够在重尾设置中获得第一个最优利率(最多对数因子),在 (ε,δ)(\varepsilon, \delta)(ε,δ)-近似下实现误差 G2⋅1n+Gk⋅(dnε)1−1kG_2 \cdot \frac 1 {\sqrt n} + G_k \cdot (\frac{\sqrt d}{n\varepsilon})^{1 - \frac 1 k}G2​⋅n​1​+Gk​⋅(n

细粉含量对后向侵蚀管道进展的影响

Influence of Fines Content on the Progression of Backward Erosion Piping

摘要:反向侵蚀管涌是一种内部侵蚀形式,会危及堤坝和水坝的结构稳定性。了解影响这种侵蚀形式的因素可以改善风险评估,并对新旧结构进行更适当的修改。从历史上看,人们一直认为粉砂大小的颗粒的存在会降低侵蚀所需的梯度。本研究通过对粉砂进行一系列实验室实验,调查了细粉含量对反向侵蚀管涌的影响。实验室结果表明,随着样品中细粉含量的增加,产生和推进管涌直至失效所需的梯度也会增加。结果表明,在粉砂反向侵蚀管涌 (BEP) 风险评估中,需要一个新的因素来正确考虑粉砂含量。

密西西比州鹿岛的栖息地和土地覆盖分类以及海洋森林恢复建议

Habitat and Landcover Classification and Maritime Forest Restoration Recommendations for Deer Island, Mississippi

摘要:本报告涉及两个目标:(1) 开展全岛调查和测绘计划,记录密西西比州鹿岛的栖息地和土地覆盖类型;(2) 对鹿岛的森林资源进行评估,并提出改善和扩大岛上海滨森林范围的建议。记录了多样化的栖息地,包括 30 多种不同的栖息地和土地覆盖类型,从湿地沼泽到海滨森林和沙脊。栖息地和土地覆盖调查(以及随附的地图)支持正在进行的和未来的生态系统恢复活动,提供基线数据以进行随时间的变化分析,并为与管理岛上自然资源相关的决策提供信息。此外,对鹿岛森林的描述记录了一系列由海拔梯度、土壤、入侵物种存在和其他因素决定的森林健康状况。总的来说,所提供的数据为与岛上恢复活动相关的正在进行的规划工作以及未来的管理机会提

强化学习,第 8 部分:特征状态构建

Reinforcement Learning, Part 8: Feature State Construction

通过将状态特征巧妙地纳入学习目标来增强线性方法强化学习是机器学习的一个领域,它引入了代理在复杂环境中学习最佳策略的概念。代理根据环境状态从其行为中学习,从而获得奖励。强化学习是一个具有挑战性的话题,与机器学习的其他领域有很大不同。强化学习的显著之处在于,可以使用相同的算法使代理适应完全不同、未知和复杂的条件。关于本文在第 7 部分中,我们介绍了可扩展标准表格方法的值函数近似算法。除此之外,我们特别关注了一个非常重要的情况,即近似值函数是线性的。我们发现,线性保证了收敛到全局最优值或 TD 不动点(在半梯度方法中)。问题是,有时我们可能希望使用更复杂的近似值函数,而不仅仅是简单的标量积,而不离开

关于 Brenier 极分解的神经实现

On a Neural Implementation of Brenier's Polar Factorization

1991 年,Brenier 证明了一个定理,该定理将方阵的极分解(分解为 PSD ×\times× 单位矩阵)推广到任何矢量场 F:Rd→RdF:\mathbb{R}^d\rightarrow \mathbb{R}^dF:Rd→Rd。该定理称为极分解定理,指出任何场 FFF 都可以恢复为凸函数 uuu 的梯度与保测度映射 MMM 的组合,即 F=∇u∘MF=\nabla u \circ MF=∇u∘M。我们提出了这一影响深远的理论结果的实际实现,并探索了机器学习中的可能用途。该定理与… 密切相关

DDPG 强化算法中的 3 个重要考虑因素

3 Important Considerations in DDPG Reinforcement Algorithm

照片由 Jeremy Bishop 在 Unsplash 上拍摄深度确定性策略梯度 (DDPG) 是一种用于学习连续动作的强化学习算法。您可以在 YouTube 上的以下视频中了解更多信息:https://youtu.be/4jh32CvwKYw?si=FPX38GVQ-yKESQKU以下是使用 DDPG 解决问题时必须考虑的 3 个重要事项。请注意,这不是 DDPG 的操作指南,而是内容指南,因为它只讨论了您必须研究的领域。噪声Ornstein-UhlenbeckDDPG 的原始实现/论文提到使用噪声进行探索。它还表明某一步骤的噪声取决于前一步的噪声。这种噪声的实现是 Ornstein-Uh

研究简报:小型城市池塘盐化的影响

Research Brief: Impacts of the Salinization of Small Urban Ponds

雨水滞留池和其他小型浅水资源在湖沼学研究中经常被遗忘。多年来,科学家认为较浅的水不会在密度梯度上分层[...]文章《研究简报:小型城市池塘盐化的影响》首先出现在 Lake Scientist 上。

重新思考 PPO 在 RLHF 中的作用

Rethinking the Role of PPO in RLHF

重新思考 PPO 在 RLHF 中的作用TL;DR:在 RLHF 中,奖励学习阶段(以比较的形式使用人类偏好)与 RL 微调阶段(优化单一的非比较奖励)之间存在矛盾。如果我们以比较的方式执行 RL 会怎么样?图 1:此图说明了绝对反馈和相对反馈的强化学习之间的区别。通过合并新组件 - 成对策略梯度,我们可以统一奖励建模阶段和 RL 阶段,从而实现基于成对响应的直接更新。大型语言模型 (LLM) 为功能越来越强大的虚拟助手提供支持,例如 GPT-4、Claude-2、Bard 和 Bing Chat。这些系统可以响应复杂的用户查询、编写代码,甚至创作诗歌。这些令人惊叹的虚拟助手背后的技术是带人类

MAGPIE天气和气候实验第一阶段在巴巴多斯完成

First Phase of the MAGPIE Weather and Climate Experiment Completed in Barbados

华盛顿——美国海军研究实验室 (NRL) 完成了对湿度和气溶胶梯度/反转演化物理 (MAGPIE) 项目的贡献,这是在巴巴多斯为期 18 个月的任务的第一阶段。