工作负载关键词检索结果

优化分布式 AI/ML 训练工作负载中的数据传输

Optimizing Data Transfer in Distributed AI/ML Training Workloads

借助 NVIDIA Nsight™ 系统深入探讨数据传输瓶颈、识别瓶颈及其解决方案 - 第 3 部分优化分布式 AI/ML 训练工作负载中的数据传输一文首先出现在 Towards Data Science 上。

在 Amazon SageMaker 训练作业上使用 veRL 和 Ray 训练 CodeFu-7B

Train CodeFu-7B with veRL and Ray on Amazon SageMaker Training jobs

在这篇文章中,我们将演示如何在由 SageMaker 训练作业管理的分布式 Ray 集群中使用组相对策略优化 (GRPO) 和 veRL 来训练 CodeFu-7B(一种用于竞争性编程的专用 70 亿参数模型),veRL 是一个灵活高效的大型语言模型 (LLM) 训练库,可直接扩展各种 RL 算法,并与现有 LLM 基础设施无缝集成。我们将介绍完整的实施过程,涵盖数据准备、分布式训练设置和全面的可观察性,展示这种统一的方法如何为复杂的 RL 训练工作负载提供计算规模和开发人员体验。

如何选择合适的开源 LLM 进行生产

How to Choose the Right Open-Source LLM for Production

根据工作负载类型、基础设施限制、成本和实际性能为生产选择合适的开源 LLM 的实用指南。

Microsoft 通过治理、本地生产力和 AI 扩展主权云安全

Microsoft expands Sovereign Cloud security with governance, local productivity and AI

Microsoft 通过新的断开连接和 AI 功能扩展了 Microsoft 主权云,帮助组织在主权边界内运行关键基础设施、生产力服务和大型 AI 模型,同时保持跨连接和断开连接环境的治理和运营连续性。主权私有云统一了 Azure Local、Microsoft 365 Local 和 Foundry Local,为任何运营边界带来了基础设施、生产力和对大型 AI 模型的支持。 (来源:微软)“客户可以通过……为每个工作负载选择正确的控制姿势。更多→微软通过治理、本地生产力和人工智能扩展主权云安全性的帖子首先出现在 Help Net Security 上。

多 GPU 中的人工智能:点对点和集体操作

AI in Multiple GPUs: Point-to-Point and Collective Operations

学习适用于多 GPU AI 工作负载的 PyTorch 分布式操作多 GPU 中的人工智能后:点对点和集体操作首先出现在《走向数据科学》上。

Amazon SageMaker AI 2025 年回顾,第 2 部分:提高 SageMaker AI 模型自定义和托管的可观测性并增强功能

Amazon SageMaker AI in 2025, a year in review part 2: Improved observability and enhanced features for SageMaker AI model customization and hosting

2025 年,Amazon SageMaker AI 进行了多项改进,旨在帮助您训练、调整和托管生成型 AI 工作负载。在本系列的第 1 部分中,我们讨论了灵活的培训计划和对推理组件的性价比改进。在这篇文章中,我们讨论可观察性、模型定制和模型托管方面的增强功能。这些改进有助于在 SageMaker AI 上托管全新类别的客户用例。

多个 GPU 中的人工智能:GPU 如何通信

AI in Multiple GPUs: How GPUs Communicate

深入探讨支持 AI 工作负载多 GPU 通信的硬件基础设施多 GPU 中的后 AI:GPU 如何通信首先出现在《迈向数据科学》上。

内存技术的进步可以让英特尔回归本源

Успех в технологиях памяти может вернуть Intel к истокам

在运行 AI 工作负载时,Z-Angle Memory 的性能优于 HBM。

适用于大批量房地产管道的人工智能:在不增加人员的情况下管理更多交易

AI for High-Volume Real Estate Pipelines: Managing More Deals Without Adding Headcount

我们探讨房地产领域的人工智能如何帮助组织管理大批量交易渠道、提高决策重点并在不断增长的工作负载中保持一致性。大批量房地产管道的人工智能后:在不增加人员的情况下管理更多交易首先出现在 Fusemachines 上。

LG 的 Gram Pro 笔记本电脑限时折扣 500 美元(并且您还可以获得免费显示器)

LG has discounted its Gram Pro laptop by $500 for a limited time (and you get a free monitor too)

LG gram Pro 17 是一款时尚且功能强大的笔记本电脑,配备充满活力的 2K 显示屏。它旨在轻松处理要求苛刻的工作负载。

使用 Amazon Bedrock 全球跨区域推理和 Anthropic Claude 4.5 模型扩展南非的 AI

Scale AI in South Africa using Amazon Bedrock global cross-Region inference with Anthropic Claude 4.5 models

在本文中,我们将介绍全局跨区域推理如何路由请求以及数据驻留在何处,然后向您展示如何配置所需的 AWS Identity and Access Management (IAM) 权限并使用全局推理配置文件 Amazon 资源名称 (ARN) 调用 Claude 4.5 模型。我们还介绍了如何请求增加工作负载的配额。最后,您将在 af-south-1 中实现全局跨区域推理。

光子芯片将解决数据中心的性能和能耗问题

Фотонные чипы решат проблемы производительности и энергозатратат в дата-центрах

比尔·盖茨和其他投资者正在支持 Neurophos,这是一家为人工智能工作负载开发光学处理器的初创公司。

Gartner:2026年全球人工智能支出将超过2.5万亿美元

Gartner: мировые расходы на ИИ превысят в 2026 году 2,5 трлн долл.

大部分增长将来自针对人工智能工作负载优化的基础设施和服务器。