Hosting NVIDIA speech NIM models on Amazon SageMaker AI: Parakeet ASR
在这篇文章中,我们将探讨如何使用异步推理端点在 Amazon SageMaker AI 上部署 NVIDIA 的 Parakeet ASR 模型,以创建可扩展、经济高效的管道来处理大量音频数据。该解决方案将最先进的语音识别功能与 Lambda、S3 和 Bedrock 等 AWS 托管服务相结合,自动转录音频文件并生成智能摘要,使组织能够从客户通话、会议录音和其他大规模音频内容中获取有价值的见解。
Serverless deployment for your Amazon SageMaker Canvas models
在这篇文章中,我们将介绍如何采用 SageMaker Canvas 中构建的 ML 模型并使用 SageMaker Serverless Inference 进行部署,帮助您快速高效地从模型创建到生产就绪的预测,而无需管理任何基础设施。该解决方案演示了一个完整的工作流程,从将经过训练的模型添加到 SageMaker 模型注册表,到创建无服务器端点配置,再到部署根据需求自动扩展的端点。
Accelerate large-scale AI training with Amazon SageMaker HyperPod training operator
在这篇文章中,我们演示了如何使用 Amazon SageMaker HyperPod 训练操作器部署和管理机器学习训练工作负载,该操作器通过精确恢复和可定制的监控功能增强 Kubernetes 工作负载的训练弹性。 Amazon SageMaker HyperPod 训练运算符通过有效管理跨大型 GPU 集群的分布式训练来帮助加速生成式 AI 模型开发,提供集中训练过程监控、精细过程恢复和挂起作业检测等优势,可将恢复时间从数十分钟缩短到几秒钟。
Splash Music transforms music generation using AWS Trainium and Amazon SageMaker HyperPod
在这篇文章中,我们展示了 Splash Music 如何通过在 Amazon SageMaker HyperPod 上结合使用其先进的 HummingLM 模型和 AWS Trainium,为 AI 驱动的音乐创作设定新标准。作为 2024 年 AWS Generative AI Accelerator 中入选的初创公司,Splash Music 与 AWS Startups 和 AWS GenAIIC 密切合作,以快速跟踪创新并加速其音乐生成 FM 开发生命周期。
Scala development in Amazon SageMaker Studio with Almond kernel
本文提供了有关将 Almond 内核集成到 SageMaker Studio 的综合指南,为平台内的 Scala 开发提供了解决方案。
Use Amazon SageMaker HyperPod and Anyscale for next-generation distributed computing
在这篇文章中,我们演示了如何将 Amazon SageMaker HyperPod 与 Anyscale 平台集成,以解决构建和部署大规模 AI 模型时的关键基础设施挑战。该组合解决方案通过高性能硬件、持续监控以及与领先的 AI 计算引擎 Ray 的无缝集成,为分布式 AI 工作负载提供强大的基础设施,使组织能够缩短上市时间并降低总体拥有成本。
Customizing text content moderation with Amazon Nova
在这篇文章中,我们介绍了通过 Amazon SageMaker AI 进行文本内容审核的 Amazon Nova 定制,使组织能够根据其特定的审核需求微调模型。三个基准测试的评估结果显示,与基准 Nova Lite 相比,定制的 Nova 模型的 F1 分数平均提高了 7.3%,在不同的内容审核任务中,个别改进范围为 4.2% 到 9.2%。
在这篇文章中,我们演示了 PowerSchool 如何使用 Amazon SageMaker AI 构建和部署自定义内容过滤解决方案,该解决方案在保持较低误报率的同时实现了更高的准确性。我们将详细介绍微调 Llama 3.1 8B 的技术方法、我们的部署架构以及内部验证的性能结果。
Modernize fraud prevention: GraphStorm v0.5 for real-time inference
在这篇文章中,我们演示了如何使用 GraphStorm v0.5 通过 Amazon SageMaker 部署图神经网络 (GNN) 模型的新功能来实现实时欺诈预防。我们展示了如何以最小的运营开销从模型训练过渡到生产就绪的推理端点,从而在具有数十亿节点和边的事务图上实现亚秒级欺诈检测。
Rapid ML experimentation for enterprises with Amazon SageMaker AI and Comet
在这篇文章中,我们展示了如何使用sagemaker和Comet一起旋转具有可重现性和实验跟踪功能的完全管理的ML环境。
Use AWS Deep Learning Containers with Amazon SageMaker AI managed MLflow
在这篇文章中,我们展示了如何将AWS DLC与MLFlow集成,以创建一个解决基础结构控制与强大ML治理的解决方案。我们将浏览您的团队可以使用的功能设置,以满足您的专业要求,同时大大减少ML生命周期管理所需的时间和资源。
Build Agentic Workflows with OpenAI GPT OSS on Amazon SageMaker AI and Amazon Bedrock AgentCore
在这篇文章中,我们展示了如何将GPT-OSS-20B模型部署到SageMaker托管端点,并演示了与Langgraph的实用库存分析仪代理助理示例,Langgraph是一个强大的基于图形的框架,可处理状态管理,协调的工作流程和持久的内存系统。
Schedule topology-aware workloads using Amazon SageMaker HyperPod task governance
在这篇文章中,我们通过提交代表层次网络信息的作业来介绍使用SageMaker HyperPod任务治理的拓扑感知调度。我们提供有关如何使用SageMaker HyperPod任务治理来优化您的工作效率的详细信息。
Automate advanced agentic RAG pipeline with Amazon SageMaker AI
在这篇文章中,我们介绍了如何简化您的破布开发生命周期从实验到自动化,从而帮助您通过Amazon Sagemaker AI来运行RAG解决方案,以帮助您的团队有效地实验,有效地协作并驱动持续改进。
Create a private workforce on Amazon SageMaker Ground Truth with the AWS CDK
在这篇文章中,我们提供了一个完整的解决方案,用于使用AWS Cloud Development Kit(AWS CDK)在Amazon Sagemaker AI上编程创建私人劳动力,包括设置专用,完整配置的Amazon Cognito用户池。
TII Falcon-H1 models now available on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart
我们很高兴地宣布,在亚马逊基岩市场和亚马逊萨金人的Amazon Sagemaker Jumpstart上,技术创新研究所(TII)的Falcon-H1车型的可用性。通过此次发布,开发人员和数据科学家现在可以在AWS上使用六种指令调节的Falcon-H1型号(0.5b,1.5b,1.5b,1.5b,3b,7b和34b),并可以访问一系列混合体系结构,这些模型将传统注意力机制与州空间模型(SSMS)相结合,以提供具有非精致效率的效率。
Accelerate your model training with managed tiered checkpointing on Amazon SageMaker HyperPod
AWS宣布在亚马逊Sagemaker Hyperpod中宣布了托管分层的检查点,这是一种专门建立的基础架构,可扩展和加速成千上万个AI加速器的生成AI模型开发。托管分层检查点使用CPU内存进行高性能检查点存储,并在相邻计算节点上自动数据复制,以增强可靠性。在这篇文章中,我们深入研究了这些概念,并了解如何使用托管分层检查点功能。
Maximize HyperPod Cluster utilization with HyperPod task governance fine-grained quota allocation
我们很高兴地宣布高元素和内存配额分配的一般可用性,并宣布高架任务治理。借助此功能,客户可以优化Amazon弹性Kubernetes服务(Amazon EKS)上的Amazon Sagemaker HyperPod群集利用,分发公平用法,并支持不同团队或项目之间的有效资源分配。有关更多信息,请参见HyperPod Task Task Ponsectance […]