本文探讨了新的无服务器模型定制功能、弹性训练、无检查点训练和无服务器 MLflow 如何协同工作,将您的 AI 开发速度从几个月缩短到几天。
How Omada Health scaled patient care by fine-tuning Llama models on Amazon SageMaker AI
本文由 Omada Health 的 AI/ML 产品经理 Sunaina Kavi 共同撰写。 Omada Health 是虚拟医疗服务领域的长期创新者,于 2025 年推出了新的营养体验,其特色是 OmadaSpark,这是一款接受过强大临床输入训练的人工智能代理,可提供实时动机访谈和营养教育。它是在 AWS 上构建的。 OmadaSpark 的设计 [...]
Architecting TrueLook’s AI-powered construction safety system on Amazon SageMaker AI
本文详细介绍了 TrueLook 如何使用 SageMaker AI 构建人工智能驱动的安全监控系统,重点介绍了关键技术决策、管道设计模式和 MLOps 最佳实践。您将获得有关在 AWS 上设计可扩展计算机视觉解决方案的宝贵见解,特别是围绕模型训练工作流程、自动化管道创建和实时推理的生产部署策略。
使用几行代码即可将量化模型无缝部署在 Amazon SageMaker AI 上。在这篇文章中,我们探讨了为什么量化很重要——它如何实现更低成本的推理,支持在资源受限的硬件上的部署,并减少现代法学硕士对财务和环境的影响,同时保留其大部分原始性能。我们还深入研究 PTQ 背后的原理,并演示如何量化您选择的模型并将其部署在 Amazon SageMaker 上。
Dec Recap: New AWS Privileged Permissions and Services
随着 2025 年 12 月即将结束,Sonrai 对新发布的 AWS 权限的最新审查凸显了云权限的持续扩展。本月的更新涵盖身份、可观察性、人工智能和托管服务基础设施,以及 CloudWatch、CloudFront、Bedrock、EKS、SageMaker 和基于代理的新兴平台的变化。这些权限共同强化了云安全的核心现实:[...]
Migrate MLflow tracking servers to Amazon SageMaker AI with serverless MLflow
本文向您展示如何将自我管理的 MLflow 跟踪服务器迁移到 MLflow 应用程序 - SageMaker AI 上的无服务器跟踪服务器,可根据需求自动扩展资源,同时免费消除服务器修补和存储管理任务。了解如何使用 MLflow 导出导入工具传输实验、运行、模型和其他 MLflow 资源,包括验证迁移是否成功的说明。
Deploy Mistral AI’s Voxtral on Amazon SageMaker AI
在本文中,我们演示了使用 vLLM 和自带容器 (BYOC) 方法在 Amazon SageMaker AI 终端节点上托管 Voxtral 模型。 vLLM 是一个用于服务大型语言模型 (LLM) 的高性能库,具有分页注意力以改进内存管理和张量并行性,以便跨多个 GPU 分发模型。
今天,我们很高兴向您介绍 SageMaker Studio 的一项新功能:SOCI(Seekable Open Container Initiative)索引。 SOCI 支持容器镜像的延迟加载,即最初只下载镜像的必要部分,而不是整个容器。
Tracking and managing assets used in AI development with Amazon SageMaker AI
在这篇文章中,我们将探讨帮助组织跟踪和管理模型开发和部署生命周期的新功能和核心概念。我们将向您展示如何配置这些功能来训练具有自动端到端沿袭的模型,从数据集上传和版本控制到模型微调、评估和无缝端点部署。
Track machine learning experiments with MLflow on Amazon SageMaker using Snowflake integration
在这篇文章中,我们演示了如何将 Amazon SageMaker 托管的 MLflow 集成为中央存储库来记录这些实验并提供统一的系统来监控其进度。
Adaptive infrastructure for foundation model training with elastic training on SageMaker HyperPod
Amazon SageMaker HyperPod 现在支持弹性训练,使您的机器学习 (ML) 工作负载能够根据资源可用性自动扩展。在这篇文章中,我们将演示弹性训练如何帮助您最大限度地提高 GPU 利用率、降低成本并通过动态资源适应加速模型开发,同时保持训练质量并最大限度地减少手动干预。
在这篇文章中,我们将探讨 Tata Power CoE 和 Oneture Technologies 如何使用 AWS 服务实现端到端检查流程的自动化。