泛化关键词检索结果

变换不变学习和 OOD 泛化的理论保证

Transformation-Invariant Learning and Theoretical Guarantees for OOD Generalization

在实践和理论上,对具有相同训练和测试分布的学习进行了广泛的研究。然而,在分布偏移下的统计学习中,仍有许多需要理解的地方。本文重点关注分布偏移设置,其中训练和测试分布可以通过(数据)转换图的类别相关联。我们为该框架启动了一项理论研究,研究了目标转换类别已知或未知的学习场景。我们建立了学习规则和算法简化以最小化经验风险……

聚合和调整自然语言提示以实现 CLIP 的下游泛化

Aggregate-and-Adapt Natural Language Prompts for Downstream Generalization of CLIP

大型预训练视觉语言模型(如 CLIP)已显示出良好的泛化能力,但在专业领域(例如卫星图像)或细粒度分类(例如汽车模型)中可能会遇到困难,因为在预训练期间看不到视觉概念或视觉概念代表性不足。即时学习提供了一个参数高效的微调框架,即使在注释数据有限的情况下,也可以使 CLIP 适应下游任务。在本文中,我们通过从自然语言提示(人工或 LLM 生成)中提取文本知识来改进即时学习,以提供……

关于直接偏好优化引起的隐式奖励模型的有限泛化能力

On the Limited Generalization Capability of the Implicit Reward Model Induced by Direct Preference Optimization

从人类反馈中进行强化学习 (RLHF) 是一种将语言模型与人类偏好保持一致的有效方法。RLHF 的核心是学习用于对人类偏好进行评分的奖励函数。学习奖励模型的两种主要方法是 1) 训练显式奖励模型(如 RLHF)和 2) 使用通过直接偏好优化 (DPO) 等方法从偏好数据中学习的隐式奖励。先前的研究表明,DPO 的隐性奖励模型可以近似训练有素的奖励模型,但尚不清楚 DPO 在多大程度上可以推广到分布……

适用于人类数据注释的可泛化错误建模:来自行业规模搜索数据注释程序的证据

Generalizable Error Modeling for Human Data Annotation: Evidence from an Industry-Scale Search Data Annotation Program

机器学习 (ML) 和人工智能 (AI) 系统在训练和评估时严重依赖人工注释的数据。在这种情况下,一个主要的挑战是注释错误的发生,因为它们的影响会降低模型性能。本文介绍了一种预测错误模型,该模型经过训练可检测三个行业规模的 ML 应用程序(音乐流、视频流和移动应用程序)的搜索相关性注释任务中的潜在错误。利用来自广泛的搜索相关性注释程序的真实数据,我们证明可以使用... 预测错误

基于像素的分层策略对任务泛化的好处

On the Benefits of Pixel-Based Hierarchical Policies for Task Generalization

强化学习从业者通常避免使用分层策略,尤其是在基于图像的观察空间中。通常,与平面策略相比,单任务性能的改进并不能证明实施层次结构所带来的额外复杂性是合理的。但是,通过引入多个决策层,分层策略可以组成较低级别的策略,以更有效地在任务之间进行概括,从而突出了多任务评估的必要性。我们通过像素模拟多任务机器人控制实验来分析层次结构的好处……

关于非布尔函数在未见范围内泛化的最小度偏差

On the Minimal Degree Bias in Generalization on the Unseen for non-Boolean Functions

我们研究了随机特征 (RF) 模型和 Transformer 的域外泛化。我们首先证明,在“在看不见的 (GOTU) 上泛化”设置中,训练数据在域的某些部分完全可见,但在另一部分进行测试,对于小特征范围内的 RF 模型,收敛发生在最小程度的插值器上,就像布尔情况一样 (Abbe 等人,2023)。然后,我们考虑稀疏目标范围,并解释该范围与小特征范围的关系,但使用不同的正则化项,可以改变图片……

这项机器学习研究试图在 GFlowNets 的背景下形式化泛化并将泛化与稳定性联系起来

This Machine Learning Research Attempts to Formalize Generalization in the Context of GFlowNets and to Link Generalization with Stability

生成流网络 (GFlowNets) 解决了机器学习中从非正则化概率分布中采样的复杂挑战。通过在构造的图上学习策略,GFlowNets 通过一系列步骤促进有效采样,近似目标概率分布。这种创新方法通过提供强大的框架来处理帖子这项机器学习研究试图在 GFlowNets 的背景下形式化泛化并将泛化与稳定性联系起来,首次出现在 AI Quantum Intelligence 上。

人类政策〜人类政策

Humanoid Policy ~ Human Policy

针对人形机器人的培训操纵政策会涉及数据,从而增强了其跨任务和平台的稳健性和泛化。但是,仅从机器人示范中学习是劳动密集型的,需要昂贵的远程操作数据收获,这很难扩展。本文研究了更可扩展的数据源,即中心的人类示范,以作为机器人学习的跨体型培训数据。我们从数据和建模观点来减轻人形生物与人类之间的实施差距。我们收集了一个以egipentric任务为导向的数据集(PH2D)…

《IEEE 神经网络与学习系统学报》,第 36 卷,第 2 期,2025 年 2 月

IEEE Transactions on Neural Networks and Learning Systems, Volume 36, Issue 2, February 2025

1) 特邀编辑:机器学习泛化、稳健性和可解释性的信息论方法特刊作者:Badong Chen、Shujian Yu、Robert Jenssen、Jose C. Principe、Klaus-Robert Müller页数:1957 - 19582) 用于阿尔茨海默病分类和致病因素识别的社区图卷积神经网络作者:Xia-An Bi、Ke Chen、Siyu Jiang、Sheng Luo、Wenyan Zhou、Zhaoxu Xing、Luyun Xu、Zhengliang Liu、Tianming Liu页数:1959 - 19733) RSS-Bagging:通过训练数据的 Fisher 信息

波士顿动力公司和机器人与人工智能研究所合作,通过强化学习推进人形机器人

Boston Dynamics and the Robotics & AI Institute Partner to Advance Humanoid Robots Through Reinforcement Learning

合作将专注于使用强化学习在 Atlas 上构建动态和可泛化的功能

IEEE 神经网络和学习系统汇刊,第 35 卷,第 12 期,2024 年 11 月

IEEE Transactions on Neural Networks and Learning Systems, Volume 35, Number 12, November 2024

1) 场景理论、复杂性和基于压缩的学习与泛化调查作者:Roberto Rocchetta、Alexander Mey、Frans A. Oliehoek页数:16985 - 169992) 深度学习在视觉定位与映射中的应用:调查作者:Changhao Chen、Bing Wang、Chris Xiaoxuan Lu、Niki Trigoni、Andrew Markham页数:17000 - 170203) 实例分割模型稳健性的基准测试作者:Yusuf Dalva、Hamza Pehlivan、Said Fahri Altındiş、Aysegul Dundar页数:17021 - 170354

掌握模型优化:计算机视觉中的周期性学习率

Mastering Model Optimization: Cyclical Learning Rates in Computer Vision

CLR 提高了计算机视觉的速度、准确性和泛化能力。文章《掌握模型优化:计算机视觉中的周期性学习率》首先出现在 Spritle 软件上。

对看不见的、逻辑推理和学位课程的概括

Generalization on the Unseen, Logic Reasoning and Degree Curriculum

本文考虑了逻辑(布尔)函数的学习,重点关注了在未见(GOTU)设置上的泛化,这是分布外泛化的典型案例。这是因为某些推理任务(例如算术/逻辑)中数据的丰富组合性质使得代表性数据采样具有挑战性,并且在 GOTU 下成功学习为“推断”或“推理”学习者提供了第一个小插图。我们研究了由 (S)GD 训练的不同网络架构在 GOTU 下的表现,并提供了理论和实验证据……

压力扰乱记忆:神经科学的新见解

Stress Scrambles Memories: New Insights From Neuroscience

研究表明,急性应激会阻止小鼠形成特定记忆,而是导致由大量神经元编码的更普遍的记忆。这种现象是由皮质酮水平升高引起的,通过药物干预可以逆转这种现象,为创伤后应激障碍和广泛性焦虑症等人类疾病的治疗应用带来了希望。压力和记忆泛化 [...]

发展专业知识可以提高大脑的集中能力

Developing Expertise Improves the Brain’s Ability to Concentrate

专业知识增强了大脑的深度思考能力,这种技能可能会泛化跨任务

联合学习奖励和策略:具有... 的迭代逆强化学习框架

Jointly learning rewards and policies: an iterative Inverse Reinforcement Learning framework with…

联合学习奖励和策略:具有排序合成轨迹的迭代逆强化学习框架一种新颖的可处理和可解释算法,用于从专家演示中学习照片由 Andrea De Santis 在 Unsplash 上拍摄简介模仿学习最近在机器学习社区中引起了越来越多的关注,因为它能够通过观察到的行为将专家知识转移到自主代理。第一类算法是行为克隆 (BC),旨在直接复制专家演示,将模仿过程视为监督学习任务,其中代理尝试匹配专家在给定状态下的行为。虽然 BC 简单且计算效率高,但它经常受到过度拟合和泛化能力差的影响。相比之下,逆强化学习 (IRL) 通过推断奖励函数来瞄准专家行为的潜在意图,该奖励函数可以解释专家的行为在考虑的环境中是最佳的

IEEE 认知和发展系统汇刊,第 16 卷,第 4 期,2024 年 8 月

IEEE Transactions on Cognitive and Developmental Systems, Volume 16, Issue 4, August 2024

1) 基于多模态生理信号的用户感知多层级认知工作量估计作者:Pierluigi Vito Amadori、Yiannis Demiris页数:1212 - 12222) TR-TransGAN:用于纵向 MRI 数据集扩展的时间递归 Transformer 生成对抗网络作者:Chen-Chen Fan、Hongjun Yang、Liang Peng、Xiao-Hu Zhou、Shiqi Liu、Sheng Chen、Zeng-Guang Hou页数:1223 - 12323) 基于多标准 TD3 的深度强化学习用于分散式多机器人路径规划作者:Heqing Yin、Chang Wang、Chao

如何规范化你的回归

How to regularize your regression

制药应用中的一系列回归实例。我们能否从类似的特定领域数据中学习如何设置正则化参数 \(\lambda\)?概述。实际因变量 \(y\)和特征向量 \(X\)之间最简单的关系可能是线性模型 \(y = \beta X\)。给定一些由特征和因变量对 \((X_1,y_1),(X_2,y_2),\dots,(X_m,y_m)\)组成的训练示例或数据点,我们希望学习 \(\beta\),在给定未见过的示例的特征 \(X’\)的情况下,哪个会给出最佳预测 \(y’\)。将线性模型 \(\beta\)拟合到数据点的过程称为线性回归。这种简单而有效的模型在生物、行为和社会科学、环境研究和金融预测等领域有着广