Sagemaker关键词检索结果

利用新的 Amazon SageMaker AI 模型定制和大规模训练功能转变 AI 开发

Transform AI development with new Amazon SageMaker AI model customization and large-scale training capabilities

本文探讨了新的无服务器模型定制功能、弹性训练、无检查点训练和无服务器 MLflow 如何协同工作,将您的 AI 开发速度从几个月缩短到几天。

Omada Health 如何通过在 Amazon SageMaker AI 上微调 Llama 模型来扩大患者护理规模

How Omada Health scaled patient care by fine-tuning Llama models on Amazon SageMaker AI

本文由 Omada Health 的 AI/ML 产品经理 Sunaina Kavi 共同撰写。 Omada Health 是虚拟医疗服务领域的长期创新者,于 2025 年推出了新的营养体验,其特色是 OmadaSpark,这是一款接受过强大临床输入训练的人工智能代理,可提供实时动机访谈和营养教育。它是在 AWS 上构建的。 OmadaSpark 的设计 [...]

在 Amazon SageMaker AI 上构建 TrueLook 由 AI 驱动的施工安全系统

Architecting TrueLook’s AI-powered construction safety system on Amazon SageMaker AI

本文详细介绍了 TrueLook 如何使用 SageMaker AI 构建人工智能驱动的安全监控系统,重点介绍了关键技术决策、管道设计模式和 MLOps 最佳实践。您将获得有关在 AWS 上设计可扩展计算机视觉解决方案的宝贵见解,特别是围绕模型训练工作流程、自动化管道创建和实时推理的生产部署策略。

在 Amazon SageMaker AI 上使用 AWQ 和 GPTQ 通过训练后权重和激活加速 LLM 推理

Accelerating LLM inference with post-training weight and activation using AWQ and GPTQ on Amazon SageMaker AI

使用几行代码即可将量化模型无缝部署在 Amazon SageMaker AI 上。在这篇文章中,我们探讨了为什么量化很重要——它如何实现更低成本的推理,支持在资源受限的硬件上的部署,并减少现代法学硕士对财务和环境的影响,同时保留其大部分原始性能。我们还深入研究 PTQ 背后的原理,并演示如何量化您选择的模型并将其部署在 Amazon SageMaker 上。

12 月回顾:新的 AWS 特权权限和服务

Dec Recap: New AWS Privileged Permissions and Services

随着 2025 年 12 月即将结束,Sonrai 对新发布的 AWS 权限的最新审查凸显了云权限的持续扩展。本月的更新涵盖身份、可观察性、人工智能和托管服务基础设施,以及 CloudWatch、CloudFront、Bedrock、EKS、SageMaker 和基于代理的新兴平台的变化。这些权限共同强化了云安全的核心现实:[...]

使用无服务器 MLflow 将 MLflow 跟踪服务器迁移到 Amazon SageMaker AI

Migrate MLflow tracking servers to Amazon SageMaker AI with serverless MLflow

本文向您展示如何将自我管理的 MLflow 跟踪服务器迁移到 MLflow 应用程序 - SageMaker AI 上的无服务器跟踪服务器,可根据需求自动扩展资源,同时免费消除服务器修补和存储管理任务。了解如何使用 MLflow 导出导入工具传输实验、运行、模型和其他 MLflow 资源,包括验证迁移是否成功的说明。

在 Amazon SageMaker AI 上部署 Mistral AI 的 Voxtral

Deploy Mistral AI’s Voxtral on Amazon SageMaker AI

在本文中,我们演示了使用 vLLM 和自带容器 (BYOC) 方法在 Amazon SageMaker AI 终端节点上托管 Voxtral 模型。 vLLM 是一个用于服务大型语言模型 (LLM) 的高性能库,具有分页注意力以改进内存管理和张量并行性,以便跨多个 GPU 分发模型。

推出 Amazon SageMaker Studio 的 SOCI 索引:AI/ML 工作负载的容器启动时间更快

Introducing SOCI indexing for Amazon SageMaker Studio: Faster container startup times for AI/ML workloads

今天,我们很高兴向您介绍 SageMaker Studio 的一项新功能:SOCI(Seekable Open Container Initiative)索引。 SOCI 支持容器镜像的延迟加载,即最初只下载镜像的必要部分,而不是整个容器。

使用 Amazon SageMaker AI 跟踪和管理 AI 开发中使用的资产

Tracking and managing assets used in AI development with Amazon SageMaker AI

在这篇文章中,我们将探讨帮助组织跟踪和管理模型开发和部署生命周期的新功能和核心概念。我们将向您展示如何配置这些功能来训练具有自动端到端沿袭的模型,从数据集上传和版本控制到模型微调、评估和无缝端点部署。

使用 Snowflake 集成在 Amazon SageMaker 上通过 MLflow 跟踪机器学习实验

Track machine learning experiments with MLflow on Amazon SageMaker using Snowflake integration

在这篇文章中,我们演示了如何将 Amazon SageMaker 托管的 MLflow 集成为中央存储库来记录这些实验并提供统一的系统来监控其进度。

用于在 SageMaker HyperPod 上进行弹性训练的基础模型训练的自适应基础设施

Adaptive infrastructure for foundation model training with elastic training on SageMaker HyperPod

Amazon SageMaker HyperPod 现在支持弹性训练,使您的机器学习 (ML) 工作负载能够根据资源可用性自动扩展。在这篇文章中,我们将演示弹性训练如何帮助您最大限度地提高 GPU 利用率、降低成本并通过动态资源适应加速模型开发,同时保持训练质量并最大限度地减少手动干预。

Tata Power CoE 如何使用 Amazon SageMaker AI 和 Amazon Bedrock 构建可扩展的 AI 驱动的太阳能电池板检查解决方案

How Tata Power CoE built a scalable AI-powered solar panel inspection solution with Amazon SageMaker AI and Amazon Bedrock

在这篇文章中,我们将探讨 Tata Power CoE 和 Oneture Technologies 如何使用 AWS 服务实现端到端检查流程的自动化。