工作负载关键词检索结果

利用 TTFT 和估计配额消耗的新 CloudWatch 指标提高 Amazon Bedrock 上推理工作负载的运营可见性

Improve operational visibility for inference workloads on Amazon Bedrock with new CloudWatch metrics for TTFT and Estimated Quota Consumption

今天,我们宣布针对 Amazon Bedrock 推出两个新的 Amazon CloudWatch 指标:TimeToFirstToken 和 EstimatedTPMQuotaUsage。在这篇文章中,我们将介绍它们的工作原理以及如何设置警报、建立基线以及使用它们主动管理容量。

使用 NVIDIA Nemotron 3 Super 通过 DataRobot 构建企业级 Agentic AI

Build enterprise-ready Agentic AI with DataRobot using NVIDIA Nemotron 3 Super

随着 NVIDIA Nemotron 3 Super 的到来,组织现在可以使用专为协作、多代理企业工作负载而构建的高精度推理模型。 Nemotron 3 Super 完全开放,可以在任何地方进行定制和安全部署。然而,拥有像 Nemotron 3 Super 这样强大的大语言模型 (LLM) 只是一个起跑线。真正的...使用 NVIDIA Nemotron 3 Super 与 DataRobot 构建企业级 Agentic AI 帖子首先出现在 DataRobot 上。

尖叫识别

Squawk Ident

对于在美国空域使用国内 CPDLC 的运营商,与消息延迟、登录不一致和程序模糊性等摩擦点相比,您如何评估其对简化清关准确性、缓解频繁拥塞和改善高密度 ARTCC 环境中的工作负载管理的日常实际影响,以及该技术与您既定的 SOP 集成的无缝程度如何,[...]

关于 OnePlus 15T 磁力冷却系统您需要了解的一切

All You Need to Know About OnePlus 15T Magnetic Cooling System

OnePlus 15T 凭借其创新的磁力冷却技术重新定义了智能手机的性能。它旨在解决密集游戏和多任务处理过程中的过热问题。该冷却系统可确保更流畅的性能、更长的电池寿命和更舒适的用户体验。通过采用先进的磁吸模块,一加 15T 能够有效散热,即使在繁重的工作负载下也能保持设备稳定。这一突破不仅提高了速度和响应能力,而且还保护内部组件免受热应力的影响。无论您是移动游戏玩家、高级用户,还是只是重视可靠性的人,OnePlus 15T 磁力冷却系统都能为应对日常性能挑战提供尖端的解决方案。让我们来探索您需要了解的关于这项改变游戏规则的技术的一切。带磁力冷却系统的 OnePlus 15T 关于 OnePlu

在 Amazon SageMaker 训练作业上使用 veRL 和 Ray 训练 CodeFu-7B

Train CodeFu-7B with veRL and Ray on Amazon SageMaker Training jobs

在这篇文章中,我们将演示如何在由 SageMaker 训练作业管理的分布式 Ray 集群中使用组相对策略优化 (GRPO) 和 veRL 来训练 CodeFu-7B(一种用于竞争性编程的专用 70 亿参数模型),veRL 是一个灵活高效的大型语言模型 (LLM) 训练库,可直接扩展各种 RL 算法,并与现有 LLM 基础设施无缝集成。我们将介绍完整的实施过程,涵盖数据准备、分布式训练设置和全面的可观察性,展示这种统一的方法如何为复杂的 RL 训练工作负载提供计算规模和开发人员体验。

如何选择合适的开源 LLM 进行生产

How to Choose the Right Open-Source LLM for Production

根据工作负载类型、基础设施限制、成本和实际性能为生产选择合适的开源 LLM 的实用指南。

Microsoft 通过治理、本地生产力和 AI 扩展主权云安全

Microsoft expands Sovereign Cloud security with governance, local productivity and AI

Microsoft 通过新的断开连接和 AI 功能扩展了 Microsoft 主权云,帮助组织在主权边界内运行关键基础设施、生产力服务和大型 AI 模型,同时保持跨连接和断开连接环境的治理和运营连续性。主权私有云统一了 Azure Local、Microsoft 365 Local 和 Foundry Local,为任何运营边界带来了基础设施、生产力和对大型 AI 模型的支持。 (来源:微软)“客户可以通过……为每个工作负载选择正确的控制姿势。更多→微软通过治理、本地生产力和人工智能扩展主权云安全性的帖子首先出现在 Help Net Security 上。

多 GPU 中的人工智能:点对点和集体操作

AI in Multiple GPUs: Point-to-Point and Collective Operations

学习适用于多 GPU AI 工作负载的 PyTorch 分布式操作多 GPU 中的人工智能后:点对点和集体操作首先出现在《走向数据科学》上。

Amazon SageMaker AI 2025 年回顾,第 2 部分:提高 SageMaker AI 模型自定义和托管的可观测性并增强功能

Amazon SageMaker AI in 2025, a year in review part 2: Improved observability and enhanced features for SageMaker AI model customization and hosting

2025 年,Amazon SageMaker AI 进行了多项改进,旨在帮助您训练、调整和托管生成型 AI 工作负载。在本系列的第 1 部分中,我们讨论了灵活的培训计划和对推理组件的性价比改进。在这篇文章中,我们讨论可观察性、模型定制和模型托管方面的增强功能。这些改进有助于在 SageMaker AI 上托管全新类别的客户用例。

多个 GPU 中的人工智能:GPU 如何通信

AI in Multiple GPUs: How GPUs Communicate

深入探讨支持 AI 工作负载多 GPU 通信的硬件基础设施多 GPU 中的后 AI:GPU 如何通信首先出现在《迈向数据科学》上。

内存技术的进步可以让英特尔回归本源

Успех в технологиях памяти может вернуть Intel к истокам

在运行 AI 工作负载时,Z-Angle Memory 的性能优于 HBM。

适用于大批量房地产管道的人工智能:在不增加人员的情况下管理更多交易

AI for High-Volume Real Estate Pipelines: Managing More Deals Without Adding Headcount

我们探讨房地产领域的人工智能如何帮助组织管理大批量交易渠道、提高决策重点并在不断增长的工作负载中保持一致性。大批量房地产管道的人工智能后:在不增加人员的情况下管理更多交易首先出现在 Fusemachines 上。