How Automated Reasoning checks in Amazon Bedrock transform generative AI compliance
在这篇文章中,您将了解为什么概率 AI 验证在受监管行业中存在不足,以及自动推理检查如何使用形式验证来提供经过数学验证的结果。您还将看到六个行业的客户如何使用该技术来生成经过正式验证、可审计的人工智能输出,以及如何开始。
Accelerating decode-heavy LLM inference with speculative decoding on AWS Trainium and vLLM
在本文中,您将了解推测性解码的工作原理以及它为何有助于降低 AWS Trainium2 上每个生成令牌的成本。
AI remains lacking in clinical reasoning abilities, according to study of 21 large language models
一项研究表明,虽然人工智能可以正确诊断疾病,但它在临床推理方面存在困难,特别是在制定鉴别诊断方面。研究人员强调医疗人工智能应用中需要人工监督。
Best practices to run inference on Amazon SageMaker HyperPod
本文探讨了 Amazon SageMaker HyperPod 如何为推理工作负载提供全面的解决方案。我们将引导您了解该平台的动态扩展、简化部署和智能资源管理的关键功能。在本文结束时,您将了解如何使用 HyperPod 自动化基础设施、成本优化功能和性能增强功能将总拥有成本降低高达 40%,同时加速从概念到生产的生成式 AI 部署。
9 Strategies To Help Students Build Mathematical Reasoning
有意义的数学的核心在于分析、解释和证明推理的能力。
“Just in Time” World Modeling Supports Human Planning and Reasoning
概述最先进的研究,揭示基于模拟的推理、“即时”框架以及它如何在支持人类规划和推理的背景下帮助改进预测。
Run Generative AI inference with Amazon Bedrock in Asia Pacific (New Zealand)
今天,我们很高兴地宣布 Amazon Bedrock 现已在亚太地区(新西兰)区域 (ap-southeast-6) 推出。新西兰的客户现在可以直接在奥克兰地区访问 Anthropic Claude 模型(Claude Opus 4.5、Opus 4.6、Sonnet 4.5、Sonnet 4.6 和 Haiku 4.5)和 Amazon (Nova 2 Lite) 模型,并进行跨区域推理。在这篇文章中,我们将探讨新西兰区域的跨区域推理的工作原理、通过地理和全球路由提供的模型,以及如何开始首次 API 调用。我们
Deploy SageMaker AI inference endpoints with set GPU capacity using training plans
在这篇文章中,我们将介绍如何搜索可用的 p 系列 GPU 容量、创建推理训练计划预留以及在该预留容量上部署 SageMaker AI 推理端点。我们跟踪数据科学家的旅程,因为他们保留模型评估的能力并在整个预订生命周期中管理端点。
Causal Inference Is Eating Machine Learning
您的 ML 模型可以完美预测,但会建议错误的操作。学习 5 个问题诊断、方法比较矩阵和 Python 工作流程,通过因果推理来修复它。因果推理正在吞噬机器学习这篇文章首先出现在《走向数据科学》上。
Goldilocks RL: Tuning Task Difficulty to Escape Sparse Rewards for Reasoning
强化学习已成为解锁大型语言模型推理能力的强大范例。然而,依赖稀疏的奖励使得这个过程的样本效率非常低,因为模型必须以最少的反馈来导航巨大的搜索空间。虽然经典课程学习的目的是通过根据复杂性对数据进行排序来缓解这种情况,但特定模型的正确排序通常是不清楚的。为了解决这个问题,我们提出了 Goldilocks,这是一种新颖的教师驱动的数据采样策略,旨在预测学生模型的每个问题的难度。教师模型...
llama.cpp: Fast Local LLM Inference, Hardware Choices & Tuning
将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。
Introducing Disaggregated Inference on AWS powered by llm-d
在这篇博文中,我们介绍了下一代推理能力背后的概念,包括分解服务、智能请求调度和专家并行。我们讨论它们的优势,并介绍如何在 Amazon SageMaker HyperPod EKS 上实施它们,以显着提高推理性能、资源利用率和运营效率。
Clarifai Reasoning Engine Achieves 414 Tokens Per Second on Kimi K2.5
Clarifai 在 Kimi K2.5 上实现了每秒 414 个令牌,是首批在 Nvidia B200 GPU 上运行的万亿参数推理模型上达到 400+ TPS 的提供商之一。
What Happens When Students Actually Learn Economics
要求经济学不仅仅是为了填补课程中的空白。它是为了提高我们公共生活的推理质量。一个认真对待权衡的校园将会培养出同样这样做的毕业生。《当学生真正学习经济学时会发生什么》一文首先出现在美国企业研究所 - AEI 上。
An integrative study on Mesobuthus rakhshanii (Scorpiones: Buthidae)
对Mesobuthus rakhshanii(蝎目:Buthidae)的综合研究摘要Mesobuthus Vachon,1950,描述了30种,广泛分布于从东地中海地区到东古北界。 Mesobuthus rakhshanii Barahoei,2022 年描述于锡斯坦和俾路支斯坦北部以及南呼罗珊省南部。 2021年至2023年间,从这些地区的不同栖息地总共采集了213个M. rakhshanii标本。从形态学、分子、生物学和生态学角度对标本进行了研究。进行了基于COI基因的贝叶斯推理(BI)分析。三十对活体标本用于生物学研究。利用最大熵模型(MaxEnt)评估生物气候因子的贡献率,并预测拉克山
Treating enterprise AI as an operating layer
企业人工智能存在一条断层线,但它并不是最受关注的断层线。公众对话仍然跟踪基础模型和基准——GPT 与 Gemini、推理分数和边际能力增益。但在实践中,更持久的优势是结构性的:谁拥有应用、管理和改进情报的操作层。……
Prefill Is Compute-Bound. Decode Is Memory-Bound. Why Your GPU Shouldn’t Do Both.
内部分解的 LLM 推理 - 大多数 ML 团队尚未采用的 2-4 倍成本降低背后的架构转变。预填充是受计算限制的。解码受内存限制。为什么你的 GPU 不应该两者兼而有之。首先出现在《走向数据科学》上。