Deploy SageMaker AI inference endpoints with set GPU capacity using training plans
在这篇文章中,我们将介绍如何搜索可用的 p 系列 GPU 容量、创建推理训练计划预留以及在该预留容量上部署 SageMaker AI 推理端点。我们跟踪数据科学家的旅程,因为他们保留模型评估的能力并在整个预订生命周期中管理端点。
Causal Inference Is Eating Machine Learning
您的 ML 模型可以完美预测,但会建议错误的操作。学习 5 个问题诊断、方法比较矩阵和 Python 工作流程,通过因果推理来修复它。因果推理正在吞噬机器学习这篇文章首先出现在《走向数据科学》上。
Goldilocks RL: Tuning Task Difficulty to Escape Sparse Rewards for Reasoning
强化学习已成为解锁大型语言模型推理能力的强大范例。然而,依赖稀疏的奖励使得这个过程的样本效率非常低,因为模型必须以最少的反馈来导航巨大的搜索空间。虽然经典课程学习的目的是通过根据复杂性对数据进行排序来缓解这种情况,但特定模型的正确排序通常是不清楚的。为了解决这个问题,我们提出了 Goldilocks,这是一种新颖的教师驱动的数据采样策略,旨在预测学生模型的每个问题的难度。教师模型...
llama.cpp: Fast Local LLM Inference, Hardware Choices & Tuning
将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。
Introducing Disaggregated Inference on AWS powered by llm-d
在这篇博文中,我们介绍了下一代推理能力背后的概念,包括分解服务、智能请求调度和专家并行。我们讨论它们的优势,并介绍如何在 Amazon SageMaker HyperPod EKS 上实施它们,以显着提高推理性能、资源利用率和运营效率。
Clarifai Reasoning Engine Achieves 414 Tokens Per Second on Kimi K2.5
Clarifai 在 Kimi K2.5 上实现了每秒 414 个令牌,是首批在 Nvidia B200 GPU 上运行的万亿参数推理模型上达到 400+ TPS 的提供商之一。
Multilingual Reasoning Gym: Multilingual Scaling of Procedural Reasoning Environments
我们提出了多语言推理 Gym,它是 Reasoning Gym(Stojanovski 等人,2025)的扩展,它可以在程序上生成跨 14 种语言的可验证推理问题。我们翻译 94 项任务的模板,并以 10 种语言进行母语验证,并进行有针对性的代码或模板调整,以确保语言的自然性。多语言推理 Gym 保留了原始 Reasoning Gym 中使用的程序生成方法的核心优势,例如几乎无限的问题实例生成和可调整的难度,并且仍然可直接用于强化......
P-EAGLE: Faster LLM inference with Parallel Speculative Decoding in vLLM
在这篇文章中,我们将解释 P-EAGLE 的工作原理、如何将其集成到从 v0.16.0 (PR#32887) 开始的 vLLM 中,以及如何通过预先训练的检查点为其提供服务。
The Causal Inference Playbook: Advanced Methods Every Data Scientist Should Master
使用 Python 掌握六种高级因果推理方法:双重稳健估计、工具变量、不连续性回归、现代双重差分、异质治疗效果和敏感性分析。包括代码和实用的决策框架。因果推理手册:每个数据科学家都应该掌握的高级方法一文首先出现在走向数据科学上。
今天,我们宣布针对 Amazon Bedrock 推出两个新的 Amazon CloudWatch 指标:TimeToFirstToken 和 EstimatedTPMQuotaUsage。在这篇文章中,我们将介绍它们的工作原理以及如何设置警报、建立基线以及使用它们主动管理容量。
Access Anthropic Claude models in India on Amazon Bedrock with Global cross-Region inference
在本文中,您将了解如何在印度使用 Amazon Bedrock 的全球跨区域推理来处理 Claude 模型。我们将指导您了解每个 Claude 模型变体的功能以及如何开始使用代码示例,以帮助您立即开始构建生成式 AI 应用程序。
What is LPU? Language Processing Units | The Future of AI Inference
将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。
Clarifai vs Other Inference Providers: Groq, Fireworks, Together AI
将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。
LatentVLA: Latent Reasoning Models for Autonomous Driving
如果自然语言不是驾驶的最佳抽象怎么办?LatentVLA:自动驾驶的潜在推理模型一文首先出现在 Towards Data Science 上。
В Nvidia намерены значительно ускорить логические выводы
该公司通过将 Groq 技术集成到混合推理平台中,巩固了其在人工智能市场的主导地位。
AGIBOT World Challenge at ICRA 2026 Now Opens "Reasoning to Action" and "World Model" Tracks
继首届比赛取得成功之后,今年的比赛带着更广阔的视野和破纪录的 530,000 美元奖金重返 IEEE 国际机器人与自动化会议 (ICRA)。
Scaling ML Inference on Databricks: Liquid or Partitioned? Salted or Not?
关于最大化集群技术的案例研究Databricks 上的后扩展 ML 推理:流动还是分区?加盐还是不加盐?首先出现在《走向数据科学》上。
Scientists made AI agents ruder — and they performed better at complex reasoning tasks
一个新项目允许人工智能聊天机器人像人类在对话中那样打断、保持沉默或大声说话,这让它们变得更聪明、更准确。