Create a SageMaker inference endpoint with custom model & extended container
这篇文章将引导您完成使用 NASA 的 Prithvi 模型在 SageMaker 上部署单个自定义模型的端到端过程。Prithvi 模型是 IBM 和 NASA 团队在连续的美国协调 Landsat Sentinel 2 (HLS) 数据上预先训练的首创时间 Vision 转换器。可以使用 mmsegmentation 库对其进行微调以进行图像分割,用于烧伤疤痕检测、洪水测绘和多时间作物分类等用例。
How BQA streamlines education quality reporting using Amazon Bedrock
教育和培训质量管理局 (BQA) 在提高巴林王国的教育和培训服务质量方面发挥着关键作用。BQA 审查所有教育和培训机构的表现,包括学校、大学和职业学院,从而促进国家人力资本的专业发展。在这篇文章中,我们探讨了 BQA 如何利用 Amazon Bedrock、Amazon SageMaker JumpStart 和其他 AWS 服务的强大功能来简化整体报告工作流程。
Amazon Bedrock 是一项完全托管的服务,它通过单一 API 提供来自 AI21 Labs、Anthropic、Cohere、Meta、Mistral AI、Stability AI 和 Amazon 等领先 AI 公司的高性能基础模型 (FM),以及一系列广泛的功能,用于构建具有安全性、隐私性和负责任 AI 的生成式 AI 应用程序。在这篇文章中,我将向您展示如何将 Amazon Bedrock(及其完全托管的按需 API)与您的 Amazon SageMaker 训练或微调模型结合使用。
Efficiently build and tune custom log anomaly detection models with Amazon SageMaker
在本文中,我们将引导您完成使用 Amazon SageMaker 构建自动化机制以处理您的日志数据、对其进行训练迭代以获得性能最佳的异常检测模型并将其注册到 Amazon SageMaker 模型注册表以供您的客户使用的过程。
PEFT fine tuning of Llama 3 on SageMaker HyperPod with AWS Trainium
在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型进行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低高达 50%,并将训练时间缩短 70%。
Fastweb 是意大利领先的电信运营商之一,很早就认识到了 AI 技术的巨大潜力,并于 2019 年开始在该领域进行投资。在本文中,我们将探讨 Fastweb 如何利用尖端的 AI 和 ML 服务踏上他们的 LLM 之旅,克服挑战并在此过程中解锁新机遇。
TUI Group 是全球领先的旅游服务公司之一,为 180 个地区的 2100 万客户提供无与伦比的度假体验。TUI 内容团队的任务是为其网站制作高质量的内容,包括产品详细信息、酒店信息和旅行指南,通常使用酒店和第三方合作伙伴撰写的描述。在这篇文章中,我们讨论了如何使用 Amazon SageMaker 和 Amazon Bedrock 构建内容生成器,该生成器根据特定的品牌和风格指南重写营销内容。
Llama 3.3 70B now available in Amazon SageMaker JumpStart
今天,我们很高兴地宣布 Meta 的 Llama 3.3 70B 已在 Amazon SageMaker JumpStart 中推出。 Llama 3.3 70B 标志着大型语言模型 (LLM) 开发方面取得了令人兴奋的进步,它以更少的计算资源提供了与大型 Llama 版本相当的性能。在本文中,我们将探讨如何在 Amazon SageMaker AI 上高效部署此模型,并使用高级 SageMaker AI 功能实现最佳性能和成本管理。
How Amazon trains sequential ensemble models at scale with Amazon SageMaker Pipelines
集成模型在 ML 社区中越来越受欢迎。它们通过组合多个模型的预测来生成更准确的预测。管道可以快速用于为集成模型创建端到端 ML 管道。这使开发人员能够构建高度准确的模型,同时保持效率和可重复性。在这篇文章中,我们提供了一个使用管道训练和部署的集成模型的示例。
Implementing login node load balancing in SageMaker HyperPod for enhanced multi-user experience
在本文中,我们探讨了在基于 Slurm 的 HyperPod 集群中跨登录节点实现负载平衡的解决方案。通过在所有可用节点上均匀分布用户活动,这种方法为所有用户提供了更一致的性能、更好的资源利用率和更流畅的体验。我们将指导您完成设置过程,并提供在 HyperPod 集群中实现有效负载平衡的实用步骤。
在本文中,我们探讨了 Clearwater Analytics 在生成 AI 方面的尝试,他们如何使用 Amazon SageMaker 构建解决方案,并深入研究 Clearwater Analytics 如何使用 LLM 利用投资管理领域超过 18 年的经验,同时优化模型成本和性能。
在本系列的第 1 部分中,我们介绍了 Amazon SageMaker Python SDK 上新推出的 ModelTrainer 类及其优势,并向您展示了如何在自定义数据集上微调 Meta Llama 3.1 8B 模型。在这篇文章中,我们将介绍 ModelBuilder 类的增强功能,它允许您将模型从 ModelTrainer 无缝部署到 SageMaker 终端节点,并为多种部署配置提供单一界面。
在本文中,我们重点介绍 ModelTrainer 类,以简化训练体验。ModelTrainer 类比当前的 Estimator 类有显著改进,本文将对此进行详细讨论。我们将向您展示如何使用 ModelTrainer 类来训练您的 ML 模型,其中包括使用自定义脚本或容器执行分布式训练。在第 2 部分中,我们将向您展示如何使用改进的 ModelBuilder 类构建模型并部署到 SageMaker 终端节点。
Pixtral 12B is now available on Amazon SageMaker JumpStart
今天,我们很高兴地宣布,Pixtral 12B (pixtral-12b-2409) 是一款由 Mistral AI 开发的先进视觉语言模型 (VLM),在纯文本和多模式任务中均表现出色,现已通过 Amazon SageMaker JumpStart 向客户提供。您可以使用 SageMaker JumpStart 试用此模型,SageMaker JumpStart 是一个机器学习 (ML) 中心,可访问算法和模型,只需单击一下即可部署这些算法和模型以运行推理。在这篇文章中,我们将介绍如何发现、部署和使用 Pixtral 12B 模型来处理各种现实世界的视觉用例。
借助各种生成式 AIfoundation 模型 (FM) 以及在 AmazonSageMaker 中构建和训练自己的机器学习 (ML) 模型的能力,用户希望以无缝且安全的方式试验和选择能够为其业务带来最大价值的模型。在 ML 的初始阶段 […]
Mistral-NeMo-Instruct-2407 and Mistral-NeMo-Base-2407 are now available on SageMaker JumpStart
今天,我们很高兴地宣布,Mistral AI 的 Mistral-NeMo-Base-2407 和 Mistral-NeMo-Instruct-2407 大型语言模型在文本生成方面表现优异,可通过 Amazon SageMaker JumpStart 供客户使用。在本文中,我们将介绍如何发现、部署和使用 Mistral-NeMo-Instruct-2407 和 Mistral-NeMo-Base-2407 模型来处理各种实际用例。
Deploy RAG applications on Amazon SageMaker JumpStart using FAISS
在本文中,我们展示了如何使用 Facebook AI 相似性搜索 (FAISS) 在 Amazon SageMaker JumpStart 上构建 RAG 应用程序。
Speed up your cluster procurement time with Amazon SageMaker HyperPod training plans
在本文中,我们将演示如何使用 Amazon SageMaker HyperPod 训练计划来缩短训练集群采购等待时间。我们将逐步指导您如何使用 (AWS CLI) 或 AWS 管理控制台查找、查看和创建适合您特定计算和时间线需求的最佳训练计划。我们将进一步指导您使用训练计划提交 SageMaker 训练作业或创建 SageMaker HyperPod 集群。