NVIDIA 推出面向代理 AI 的开放模型系列

NVIDIA 的 Nemotron 3 是一个新的开放式 AI 模型系列,专为高效、大规模的多代理系统而构建,可提供高达 100 万个令牌的上下文窗口。它由混合 Mamba-Transformer MoE 架构提供支持,可提供高推理吞吐量,同时支持透明、可扩展且经济高效的 AI 代理以供实际使用。

来源:Qudata

NVIDIA 推出面向代理 AI 的开放模型系列

Nemotron 3 系列包括 Nano、Super 和 Ultra,为多智能体人工智能系统提供领先的性能,结合了先进的推理、对话和协作功能。这些模型利用混合 Mamba-Transformer 专家混合 (MoE) 架构,提供一流的推理吞吐量,同时支持高达 100 万个令牌的上下文长度。

Nemotron 3 Nano 是最小的模型,针对经济高效的推理和任务进行了优化,例如软件调试、内容摘要、AI 助手工作流程和信息检索。尽管拥有 300 亿个总参数,但每个代币仅智能激活约 30 亿个参数。凭借独特的混合 MoE 设计,Nano 的令牌吞吐量比其前身高出 4 倍,并将推理令牌生成减少 60%,同时保持卓越的准确性。早期基准测试显示,Nano 在推理和长上下文任务方面优于 GPT-OSS-20B 和 Qwen3-30B 等同类开放模型。

Nemotron 3 Super 和 Ultra 将这些功能扩展到大容量协作代理和复杂的 AI 应用程序,并结合了诸如潜在 MoE(一种硬件感知专家设计,可在不牺牲效率的情况下提高模型质量)和多标记预测 (MTP) 等创新,可增强长格式文本生成和多步骤推理。两个较大的模型均使用 NVIDIA 的 NVFP4 格式进行训练,从而实现更快的训练并减少内存需求。

所有 Nemotron 3 模型均使用多环境强化学习 (RL) 进行后训练,使它们能够处理涵盖数学和科学推理、竞争性编码、指令遵循、软件工程、聊天和多代理工具使用的任务。该模型还支持推理时的粒度推理预算控制,允许开发人员在保持准确性的同时微调计算资源。