推理关键词检索结果

推测流:无需辅助模型的快速 LLM 推理

Speculative Streaming: Fast LLM Inference Without Auxiliary Models

推测解码是一种重要的技术,可基于辅助草稿模型的预测来加速大型目标语言模型的推理。虽然有效,但在特定于应用程序的设置中,它通常涉及对草稿和目标模型进行微调以实现高接受率。随着下游任务数量的增加,这些草稿模型会给推理系统增加相当大的复杂性。我们提出了 Speculative Streaming,这是一种单模型推测解码方法,通过将微调目标从下一个标记预测更改为...,将起草融合到目标模型中。

OpenAI推出具有高级推理能力的新型AI模型

OpenAI launches new AI model with advanced reasoning capabilities

OpenAI o1 旨在在科学、编码和数学等复杂推理任务中表现出色。新模型旨在通过模仿人类推理来提高准确性并解决安全问题,确保更可靠、更负责任地使用人工智能。

LLM 如何在网络中迷失并发现图形推理

How the LLM Got Lost in the Network and Discovered Graph Reasoning

增强大型语言模型:通过图形推理和指令调整的旅程继续阅读 Towards Data Science »

Monty Hall 问题和贝叶斯推理 - 我们如何根据附加信息改变我们的行为?

モンティ・ホール問題とベイズ推定-追加情報に応じて取るべき行動をどう変えるか?

最流行的概率难题之一是 Monty Hall 问题。我们的许多读者可能在某处听说过它。 事实上,直到现在我才刻意讨论蒙蒂·霍尔问题。这个问题是如此众所周知,以至于感觉没有什么新东西可写。 然而,当我尝试使用贝叶斯估计找到答案时,我意识到这个问题有许多不同的变体。这次我们就来看看其中的一部分。首先,我们来看看蒙蒂·霍尔问题。我希望那些说“我很清楚这一点”的读者回顾一下。 (蒙蒂·霍尔问题)有一个电视游戏节目,由一个名叫蒙蒂·霍尔的人主持。回答者前面有三扇门(1)、(2)和(3)。如果其中一个有这扇门的房间里有宝藏,那扇门就会被击中,其余的都会丢失。如果回答者猜出雅达利门,他们将获得宝藏。要求回答

引导推理:一种提高多智能体系统智能的新方法

Guided Reasoning: A New Approach to Improving Multi-Agent System Intelligence

来自 Logikon AI, KIT 的 Gregor Betz 介绍了引导推理。如果一个代理(称为引导)主要与其他代理合作以改进其推理能力,则具有多个代理的系统就是引导推理系统。具有引导代理和至少一个客户端代理的多代理系统称为引导推理。引导推理:一种改进多代理系统智能的新方法一文首先出现在 AI Quantum Intelligence 上。

引导推理:一种提高多智能体系统智能的新方法

Guided Reasoning: A New Approach to Improving Multi-Agent System Intelligence

来自 Logikon AI, KIT 的 Gregor Betz 介绍了引导推理。如果一个代理(称为引导)主要与其他代理合作以改进其推理,则具有多个代理的系统是引导推理系统。具有引导代理和至少一个客户端代理的多代理系统称为引导推理帖子引导推理:一种改进多代理系统智能的新方法首先出现在 AI Quantum Intelligence 上。

激励下的因果推理:带注释的阅读清单

Causal inference under incentives: an annotated reading list

因果推理是确定原因是否以及如何导致结果的过程,通常使用统计方法来区分相关性和因果关系。从数据中学习因果关系是一项重要任务,涉及从医疗保健和药物开发到在线广告和电子商务等各种领域。因此,经济学、统计学、计算机科学和公共政策方面的文献中有大量关于设计因果推理算法和方法的研究。虽然大部分重点都集中在统计性质的问题上,但在对有偏好的战略个人进行因果推理时,还必须考虑博弈论激励因素。例如,当研究中的参与者不遵守规定(即参与者不遵守分配给他们的治疗)时,可能很难在随机对照试验中推断因果关系。更一般地说,当个人可以自由选择自己的治疗方法并且具有不同偏好的个体之间存在足够的异质性时,因果学习可能会很困难。即使

使用 Amazon SageMaker 上的 NVIDIA NIM 微服务加速生成式 AI 推理

Accelerate Generative AI Inference with NVIDIA NIM Microservices on Amazon SageMaker

在本文中,我们将演示客户如何通过 NVIDIA NIM 与 SageMaker 的集成来使用生成人工智能 (AI) 模型和 LLM。我们演示了这种集成的工作原理,以及如何在 SageMaker 上部署这些最先进的模型,以优化其性能和成本。

助推理论正在医疗保健领域取得进展,结果好坏参半

Nudge Theory Is Making Inroads in Health Care, With Mixed Results

助推理论认为,微妙的社会暗示可以有效地引导人们做出更好的决定,该理论正在医疗保健领域取得进展。但是,尽管实验数据越来越多,专家们仍在努力找出可以帮助他们理解为什么有些助推成功,而另一些助推失败的模式。

我们准备好进行多图像推理了吗?推出 VH:Visual Haystacks 基准!

Are we ready for multi-image reasoning? Launching VHs: The Visual Haystacks benchmark!

人类擅长处理大量视觉信息,这是实现通用人工智能 (AGI) 的关键技能。几十年来,人工智能研究人员开发了视觉问答 (VQA) 系统来互动……

通过复杂推理提高 RAG 答案质量

Improving RAG Answer Quality Through Complex Reasoning

展示使用 DSPy 和 Indexify 构建多跳检索系统的过程TLDR;在本文中,我们将探索多跳检索以及如何利用它来构建需要复杂推理的 RAG 系统我们将通过使用 Indexify、OpenAI 和 DSPy 在医疗保健领域构建问答聊天机器人来了解该技术。多跳思路链 RAG 如何有效回答复杂问题。简介检索增强生成 (RAG) 系统已成为构建 LLM 驱动应用程序的强大方法。RAG 系统的运行方式是首先使用检索模型从外部知识源检索信息,然后使用此信息提示 LLM 生成响应。但是,基本 RAG 系统(也称为朴素 RAG)在处理需要对多条信息进行推理的复杂查询时可能会面临挑战。这就是多跳检索发挥作

大型语言模型对宏观经济学的推理能力如何?

How Well Do Large Language Models Reason About Macroeconomics?

我想,对于关注这个博客和关注我的社交媒体的每个人来说,我都非常清楚我对人工智能以及我们如何在经济研究中使用大型语言模型等非常着迷——我渴望传播福音。今天,我花了几个小时构建了一个简单的 […]

我们准备好进行多图像推理了吗?推出 VH:Visual Haystacks 基准测试!

Are We Ready for Multi-Image Reasoning? Launching VHs: The Visual Haystacks Benchmark!

人类擅长处理大量视觉信息,这是实现通用人工智能 (AGI) 的关键技能。几十年来,人工智能研究人员开发了视觉问答 (VQA) 系统来解释单个图像中的场景并回答相关问题。虽然基础模型的最新进展大大缩小了人类和机器视觉处理之间的差距,但传统的 VQA 仅限于一次推理单个图像,而不是整个视觉数据集合。这种限制在更复杂的场景中带来了挑战。例如,辨别医学图像集合中的模式、通过卫星图像监测森林砍伐、使用自动导航数据绘制城市变化、分析大型艺术收藏中的主题元素或从零售监控录像中了解消费者行为等挑战。这些场景中的每一个不仅需要对数百或数千张图像进行视觉处理,还需要对这些发现进行跨图像处理。为了弥补这一差距,本项

UCSD 研究人员提出了一种基于通用变分推理的框架 (MCD),用于推断潜在的因果模型以及每个样本的混合概率

UCSD Researchers Propose a General Variational Inference-based Framework (MCD) to Infer the Underlying Causal Models as well as the Mixing Probability of Each Sample

研究人员正在努力应对异构时间序列数据中因果关系发现的挑战,其中单一因果模型无法捕捉到不同的因果机制。基于结构因果模型、条件独立性检验和 Granger 因果关系的传统时间序列数据因果发现方法通常假设整个数据集的因果结构统一。然而,现实世界的场景 UCSD 研究人员提出了一种基于通用变分推理的框架 (MCD) 来推断潜在的因果模型以及每个样本的混合概率 这篇文章首先出现在 AI Quantum Intelligence 上。

人工智能会犯类似人类的推理错误

AI Makes Human-Like Reasoning Mistakes

EurekAlert!大型语言模型 (LM) 可以完成抽象推理任务,但它们容易犯许多与人类相同类型的错误。Andrew Lampinen、Ishita...

在商业中使用因果推理的 15 分钟指南(附安慰剂测试)

Your 15-Minute Guide on Using Causal Inference in Business (with Placebo Tests)

“相关性不代表因果关系。”所以让我们计算因果关系。继续阅读 Towards Data Science »

对大型语言模型的推理能力存在高估

Det finns en överskattning av stora språkmodellers resonemangsförmåga

麻省理工学院计算机科学与人工智能实验室 (CSAIL) 的一项新研究强调了大型语言模型 (LLM) 在熟悉的场景中表现出色,但在新的场景中却表现不佳,这让人质疑它们真正的推理能力与对记忆的依赖。这种见解对于提高这些模型的适应性和扩展其应用领域至关重要。该研究比较了“标准任务”,[…]这篇文章首次出现在人工智能新闻上。

大规模变换器模型的有效部署:可扩展和低延迟推理策略

Efficient Deployment of Large-Scale Transformer Models: Strategies for Scalable and Low-Latency Inference

将基于 Transformer 的模型扩展到超过 1000 亿个参数已在自然语言处理中取得突破性成果。这些大型语言模型在各种应用中都表现出色,但由于生成推理的顺序性,有效部署它们带来了挑战,其中每个标记的计算都依赖于前面的标记。这需要细致的并行布局和内存帖子《大规模 Transformer 模型的有效部署:可扩展和低延迟推理策略》首先出现在 AI Quantum Intelligence 上。