ICML关键词检索结果

DeepMind 在 ICML 2022 上的最新研究

DeepMind’s latest research at ICML 2022

从本周末开始,第三十九届国际机器学习会议 (ICML 2022) 将于 2022 年 7 月 17 日至 23 日在美国马里兰州巴尔的摩会议中心举行,并将作为混合活动举行。从事人工智能、数据科学、机器视觉、计算生物学、语音识别等领域的研究人员正在展示和发表他们在机器学习方面的前沿工作。

#icml2025出色的职位论文:与Jaeho Kim的访谈有关会议审查

#ICML2025 outstanding position paper: Interview with Jaeho Kim on addressing the problems with conference reviewing

在今年的机器学习国际会议上(ICML2025),Jaeho Kim,Yunseok Lee和Seulki Lee因其工作立场而获得了杰出的职位纸奖:AI会议同行评审危机需求作者反馈和审阅者奖励。我们从Jaeho那里听到了他们试图解决的问题,以及他们提议的作者反馈[…]

#icml2025出色的职位论文:与Jaeho Kim的访谈有关会议审查

#ICML2025 outstanding position paper: Interview with Jaeho Kim on addressing the problems with conference reviewing

在今年的机器学习国际会议上(ICML2025),Jaeho Kim,Yunseok Lee和Seulki Lee因其工作立场而获得了杰出的职位纸奖:AI会议同行评审危机需求作者反馈和审阅者奖励。我们从Jaeho那里听到了他们试图解决的问题,以及他们提议的作者反馈[…]

识别最坏情况的预测价值:访谈unai fischer abaigar

The value of prediction in identifying the worst-off: Interview with Unai Fischer Abaigar

在今年的机器学习国际会议上(ICML2025),Unai Fischer-Abaigar,Christoph Kern和Juan Carlos Perdomo在其工作中获得了杰出的纸质奖,以确定最坏情况的预测价值。我们从Unai听到了有关本文的主要贡献,为什么预测系统是一个有趣的研究领域,以及进一步的[…]

#icml2025社交媒体综述第2部分

#ICML2025 social media round-up part 2

第42届国际机器学习会议(ICML2025)于7月13日至19日在加拿大温哥华举行。除了五次受邀的会谈外,该计划还包括口头和海报演示,亲和力活动,教程和讲习班。找出比赛的下半场参与者的发展。我们将介绍我们的作品,“变色龙:灵活的[…]

BoolFormer:具有变压器逻辑函数的符号回归

Boolformer: Symbolic Regression of Logic Functions with Transformers

本文在ICML 2025的第二个AI上接受了数学研讨会。我们介绍了BoolFormer,这是一种基于变压器的模型,该模型训练有素,旨在执行布尔函数的端到端符号回归。首先,我们证明它可以预测鉴于其完整的真相表,可以预测训练期间未见的复杂功能的紧凑型公式。然后,我们证明,即使有不完整或嘈杂的观察,Boolformer仍然能够找到良好的近似表达式。我们在广泛的现实二进制分类数据集上评估了布尔形式,证明了其作为可解释的替代方案的潜力……

#icml2025社交媒体综述1

#ICML2025 social media round-up 1

第42届国际机器学习会议(ICML2025)目前在7月13日至19日在加拿大温哥华举行。除了五次邀请的会谈外,该计划还包括口头和海报演示,亲和力活动,教程和讲习班。找出参与者在最初几天开始做的事情。 ✈️前往[…]

自我反射不确定性:LLM知道他们的内部答案分布吗?

Self-reflective Uncertainties: Do LLMs Know Their Internal Answer Distribution?

本文在ICML 2025的可靠和负责任的基础模型(RRFMS)研讨会上接受了本文。不确定量化在将大语言模型(LLMS)带到最终用户时起着关键作用。它的主要目标是LLM应该指出何时不确定其给出答案。尽管过去已经以数值确定性得分来揭示,但我们建议使用LLM的丰富输出空间,LLM的所有可能字符串的空间,以提供描述不确定性的字符串。特别是,我们寻求一个描述LLM答案分布的字符串……

#icml2025的程序中有什么?

What’s on the programme at #ICML2025?

今年的机器学习国际会议(ICML)将于2025年7月13日至19日在加拿大温哥华举行。该计划包括口头和海报演示,亲和力活动,教程和工作坊。受邀演讲者五个受邀的演讲者如下:乔恩·克莱恩伯格·帕梅拉·萨缪尔森·弗拉克·克鲁特·克雷特·纳姆·德拉曼·纳曼·克劳斯[…]

真理的几何形状在任务中是正交的

The Geometries of Truth Are Orthogonal Across Tasks

本文在ICML 2025.LARGE语言模型(LLMS)的有关可靠和负责任的基础模型的研讨会上介绍了各种任务的令人印象深刻的概括能力,但是他们对实际相关性的主张仍然存在于其可靠性的担忧。最近的工作提出了研究LLM在推理时间上产生的激活,以评估其对问题的答案是否正确。一些作品声称可以从示例中学到“真理的几何”,从某种意义上说,可以区分产生正确答案的激活……

OpenAi释放了评估AI复制AI研究能力的纸质底座

OpenAI släpper PaperBench som utvärderar AI:s förmåga att replikera AI-forskning

PaperBench是OpenAI的一种新工具,旨在系统地评估人工智能模型理解和复制AI地区研究文章的能力。该计划是通过为研究人员提供一个评估模型科学能力的结构化框架来开发更复杂的AI系统的重要步骤。基准测试由ICML的20篇研究文章组成[…] Openai邮报释放了Paperbench,该纸质板评估了AI首先出现在AI新闻中的AI复制AI研究的能力。

采访 Jerone Andrews:评估数据集多样性的框架

Interview with Jerone Andrews: a framework towards evaluating diversity in datasets

Jerone Andrews、Dora Zhao、Orestis Papakyriakopoulos 和 Alice Xiang 凭借其立场论文《测量数据集多样性。不要只是宣称它》在国际机器学习会议 (ICML) 上获得了最佳论文奖。我们与 Jerone 讨论了该团队的方法论,以及他们如何开发一个框架来概念化、操作化和评估机器学习的多样性 […]

考虑使用大规模公共预训练进行差异化隐私学习——采访 Gautam Kamath

Considerations for differentially private learning with large-scale public pretraining – interview with Gautam Kamath

Florian Tramer、Gautam Kamath 和 Nicholas Carlini 凭借其作品《立场:具有大规模公共预训练的差异化隐私学习考量》获得了国际机器学习会议 (ICML2024) 最佳论文奖。在这次采访中,Gautam 总结了这篇论文的一些主要成就。首先,什么是差异隐私,研究人员如何以及为什么 […]

投影语言模型:将大型模型预先分割成较小的模型

Projected Language Models: A Large Model Pre-Segmented Into Smaller Ones

这篇论文已被 ICML 2024 的 Foundation Models in the Wild 研讨会接受。大型语言模型是一种多功能工具,但不适合小型推理预算。小型模型具有更高效的推理能力,但其容量较低,这意味着只有将其范围限制在专业领域时,其性能才会很好。这篇论文探讨了如何获得具有良好专业准确度的小型语言模型,即使在预训练期间专业化数据未知的情况下也是如此。我们提出了一种新颖的架构,即投影网络 (PN)。PN 是一种高容量网络,其参数……

改进 GFlowNets 以实现文本到图像扩散对齐

Improving GFlowNets for Text-to-Image Diffusion Alignment

这篇论文被 ICML 2024 的 Foundation Models in the Wild 研讨会接受。扩散模型已成为生成视觉数据的实际方法,这些模型经过训练以匹配训练数据集的分布。此外,我们还希望控制生成以满足所需的属性,例如与文本描述的对齐,这可以通过黑盒奖励函数来指定。先前的工作通过基于强化学习的算法对预训练的扩散模型进行了微调,以实现此目标。尽管如此,它们仍存在一些问题,包括信用分配缓慢……

数据机器 #260

Data Machina #260

视觉语言模型蓬勃发展。PaliGemma。Phi-3 Vision。Florence-2。LLaVA-NeXT。视频游戏中的 ML。潜在空间中的 PCA。MosaicML 代理框架。大规模 MoE。GraphRAG。低成本图像 SSL。

帮助非专家构建先进的生成式 AI 模型

Helping nonexperts build advanced generative AI models

MosaicML 由麻省理工学院的一位校友和一位教授共同创立,它使深度学习模型更快、更高效。 Databricks 收购它扩大了这一使命。

关于自我监督学习的逐步性质

On the Stepwise Nature of Self-Supervised Learning

图 1:自监督学习中的逐步行为。在训练常见的 SSL 算法时,我们发现损失以逐步方式下降(左上),而学习到的嵌入则以迭代方式增加维度(左下)。嵌入的直接可视化(右图;显示了前三个 PCA 方向)证实了嵌入最初会折叠到一个点,然后扩展到 1D 流形、2D 流形,并随着损失的步骤而扩展。人们普遍认为,深度学习的惊人成功部分归功于它能够发现和提取复杂数据的有用表示。自监督学习 (SSL) 已成为一种领先的框架,用于直接从未标记数据中学习图像的这些表示,类似于 LLM 直接从网络抓取的文本中学习语言的表示。然而,尽管 SSL 在 CLIP 和 MidJourney 等最先进的模型中发挥着关键作用,但诸