Automate advanced agentic RAG pipeline with Amazon SageMaker AI
在这篇文章中,我们介绍了如何简化您的破布开发生命周期从实验到自动化,从而帮助您通过Amazon Sagemaker AI来运行RAG解决方案,以帮助您的团队有效地实验,有效地协作并驱动持续改进。
Create a private workforce on Amazon SageMaker Ground Truth with the AWS CDK
在这篇文章中,我们提供了一个完整的解决方案,用于使用AWS Cloud Development Kit(AWS CDK)在Amazon Sagemaker AI上编程创建私人劳动力,包括设置专用,完整配置的Amazon Cognito用户池。
TII Falcon-H1 models now available on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart
我们很高兴地宣布,在亚马逊基岩市场和亚马逊萨金人的Amazon Sagemaker Jumpstart上,技术创新研究所(TII)的Falcon-H1车型的可用性。通过此次发布,开发人员和数据科学家现在可以在AWS上使用六种指令调节的Falcon-H1型号(0.5b,1.5b,1.5b,1.5b,3b,7b和34b),并可以访问一系列混合体系结构,这些模型将传统注意力机制与州空间模型(SSMS)相结合,以提供具有非精致效率的效率。
Accelerate your model training with managed tiered checkpointing on Amazon SageMaker HyperPod
AWS宣布在亚马逊Sagemaker Hyperpod中宣布了托管分层的检查点,这是一种专门建立的基础架构,可扩展和加速成千上万个AI加速器的生成AI模型开发。托管分层检查点使用CPU内存进行高性能检查点存储,并在相邻计算节点上自动数据复制,以增强可靠性。在这篇文章中,我们深入研究了这些概念,并了解如何使用托管分层检查点功能。
Maximize HyperPod Cluster utilization with HyperPod task governance fine-grained quota allocation
我们很高兴地宣布高元素和内存配额分配的一般可用性,并宣布高架任务治理。借助此功能,客户可以优化Amazon弹性Kubernetes服务(Amazon EKS)上的Amazon Sagemaker HyperPod群集利用,分发公平用法,并支持不同团队或项目之间的有效资源分配。有关更多信息,请参见HyperPod Task Task Ponsectance […]
Train and deploy models on Amazon SageMaker HyperPod using the new HyperPod CLI and SDK
在这篇文章中,我们演示了如何使用新的Amazon Sagemaker HyperPod CLI和SDK来简化通过使用完全碎片数据并行的分布式培训(FSDP)(FSDP)和模型部署进行推理的分布式培训训练和部署大型AI模型的过程。这些工具通过直接命令提供了简化的工作流程,以实现常见任务,同时通过SDK为更复杂的要求提供灵活的开发选项,以及全面的可观察性功能和准备生产的部署功能。
Announcing the new cluster creation experience for Amazon SageMaker HyperPod
借助新的群集创建体验,您可以单击一键创建SageMaker HyperPod群集,包括所需的先决条件AWS资源,并自动使用规定默认值。在这篇文章中,我们探索了亚马逊萨吉式制造商Hyperpod的新集群创建体验。
Introducing auto scaling on Amazon SageMaker HyperPod
在这篇文章中,我们宣布,亚马逊萨吉式超级平台现在支持karpenter的托管节点自动扩展,从而使SageMaker HyperPod簇的有效缩放能够满足推理和培训需求。我们深入研究Karpenter的好处,并提供有关在Sagemaker HyperPod EKS群集中启用和配置Karpenter的详细信息。
Empowering air quality research with secure, ML-driven predictive analytics
在这篇文章中,我们使用Amazon Sagemaker AI,AWS Lambda和AWS步骤功能提供了数据插补解决方案。该解决方案是为需要可靠的PM2.5数据进行趋势分析,报告和决策的可靠数据的环境分析师,公共卫生官员和商业智能专业人员设计的。我们从OpenAfrica采购了样本培训数据集。我们的解决方案使用预测时间序列预测PM2.5值。
在这篇文章中,我们宣布,Inception Labs的Mercury和Mercury Coder基金会模型现在可以通过Amazon Bedrock Marketplace和Amazon Sagemaker Jumpstart获得。我们演示了如何部署这些基于超快速扩散的语言模型,这些模型可以在NVIDIA H100 GPU上每秒生成1,100个令牌,并在代码生成和工具使用方案中展示其功能。
Learn how Amazon Health Services improved discovery in Amazon search using AWS ML and gen AI
在这篇文章中,我们向您展示了亚马逊卫生服务(AHS)如何使用亚马逊Sagemaker,Amazon Bedrock和Amazon EMR等AWS服务在Amazon.com搜索上解决可发现性挑战。通过将机器学习(ML),自然语言处理和矢量搜索功能相结合,我们提高了将客户与相关的医疗保健服务联系起来的能力。
Amazon SageMaker HyperPod enhances ML infrastructure with scalability and customizability
在这篇文章中,我们在SageMaker Hyperpod中介绍了三个功能,可提高ML基础架构的可扩展性和可定制性。连续供应提供灵活的资源供应,以帮助您更快地开始培训和部署模型,并更有效地管理群集。使用自定义AMIS,您可以将ML环境与组织安全标准和软件要求保持一致。
Fine-tune OpenAI GPT-OSS models using Amazon SageMaker HyperPod recipes
这篇文章是GPT-oss系列的第二部分,专注于Amazon Sagemaker AI的模型定制。在第1部分中,我们使用带有Sagemaker培训工作的开源拥抱面部库进行了微调的GPT-oss模型,该培训工作支持分布式的多GPU和多节点配置,因此您可以按需旋转高性能群集。在这篇文章中,[…]
Speed up delivery of ML workloads using Code Editor in Amazon SageMaker Unified Studio
在这篇文章中,我们介绍了如何在Sagemaker Unified Studio中使用新的代码编辑器和多个空格支持。示例解决方案显示了如何开发ML管道,该管道可以自动化典型的端到端ML活动以构建,训练,评估和(选择)部署ML模型。
在这篇文章中,我们通过使用Amazon SageMaker AI和MCP整合预测ML模型来演示如何增强AI代理的功能。通过使用开源链代理SDK和SageMaker AI的灵活部署选项,开发人员可以创建复杂的AI应用程序,将对话性AI与强大的预测分析功能相结合。
Simplify access control and auditing for Amazon SageMaker Studio using trusted identity propagation
在这篇文章中,我们探讨了如何在Amazon Sagemaker Studio中启用和使用可信赖的身份传播,该工作室允许组织通过授予现有AWS IAM IAM身份中心身份的权限来简化访问管理。该解决方案演示了如何根据物理用户的身份实现细粒度的访问控件,在受支持的AWS服务中保持详细的审核日志,并支持长期运行的用户背景会话以进行培训工作。
Optimizing Salesforce’s model endpoints with Amazon SageMaker AI inference components
在这篇文章中,我们分享了Salesforce AI平台团队如何优化GPU利用率,提高了资源效率并使用Amazon SageMaker AI,特别是推理组件来节省成本。
在这篇文章中,我们回顾了P6E-GB200 Ultraservers的技术规格,讨论其性能优势,并突出关键用例。然后,我们走过如何通过灵活的培训计划购买超声处理能力,并开始使用带有Sagemaker Hyperpod的Ultraservers。