本文介绍了 TGS 如何使用 Amazon SageMaker HyperPod 实现分布式训练的近线性扩展以及基于 Vision Transformer 的 SFM 的扩展上下文窗口。该联合解决方案将训练时间从 6 个月缩短至仅 5 天,同时能够分析比以前更大的地震体积。
Accelerating LLM fine-tuning with unstructured data using SageMaker Unified Studio and S3
去年,AWS 宣布了 Amazon SageMaker Unified Studio 与 Amazon S3 通用存储桶之间的集成。这种集成使团队可以轻松地将存储在 Amazon Simple Storage Service (Amazon S3) 中的非结构化数据用于机器学习 (ML) 和数据分析用例。在这篇文章中,我们展示了如何将 S3 通用存储桶与 Amazon SageMaker Catalog 集成,以使用 Amazon SageMaker Unified Studio 微调 Llama 3.2 11B Vision Instruct 以实现视觉问答 (VQA)。
Build a solar flare detection system on SageMaker AI LSTM networks and ESA STIX data
在这篇文章中,我们向您展示如何使用 Amazon SageMaker AI 构建和部署深度学习模型,以使用欧洲航天局 STIX 仪器的数据来检测太阳耀斑。
Deploy SageMaker AI inference endpoints with set GPU capacity using training plans
在这篇文章中,我们将介绍如何搜索可用的 p 系列 GPU 容量、创建推理训练计划预留以及在该预留容量上部署 SageMaker AI 推理端点。我们跟踪数据科学家的旅程,因为他们保留模型评估的能力并在整个预订生命周期中管理端点。
Enhanced metrics for Amazon SageMaker AI endpoints: deeper visibility for better performance
SageMaker AI 端点现在支持具有可配置发布频率的增强指标。此次发布提供了监控、故障排除和改进生产端点所需的精细可见性。
Build an offline feature store using Amazon SageMaker Unified Studio and SageMaker Catalog
此博文提供了有关在 SageMaker Unified Studio 域中使用 SageMaker Catalog 实施离线功能存储的分步指南。通过采用发布-订阅模式,数据生产者可以使用此解决方案来发布精选的版本化特征表,而数据消费者可以安全地发现、订阅和重用它们以进行模型开发。
Introducing Disaggregated Inference on AWS powered by llm-d
在这篇博文中,我们介绍了下一代推理能力背后的概念,包括分解服务、智能请求调度和专家并行。我们讨论它们的优势,并介绍如何在 Amazon SageMaker HyperPod EKS 上实施它们,以显着提高推理性能、资源利用率和运营效率。
Amazon Bets Big on Generative AI
为什么重要:亚马逊在生成式 AI 上押下重注,扩大 Bedrock、Titan 和 SageMaker 的规模,以引领 AI 基础设施竞赛。