sagemaker关键词检索结果

与Amazon Sagemaker AI

Automate advanced agentic RAG pipeline with Amazon SageMaker AI

在这篇文章中,我们介绍了如何简化您的破布开发生命周期从实验到自动化,从而帮助您通过Amazon Sagemaker AI来运行RAG解决方案,以帮助您的团队有效地实验,有效地协作并驱动持续改进。

用AWS CDK

Create a private workforce on Amazon SageMaker Ground Truth with the AWS CDK

在这篇文章中,我们提供了一个完整的解决方案,用于使用AWS Cloud Development Kit(AWS CDK)在Amazon Sagemaker AI上编程创建私人劳动力,包括设置专用,完整配置的Amazon Cognito用户池。

TII Falcon-H1型号现在在亚马逊基岩市场和Amazon Sagemaker Jumpstart

TII Falcon-H1 models now available on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart

我们很高兴地宣布,在亚马逊基岩市场和亚马逊萨金人的Amazon Sagemaker Jumpstart上,技术创新研究所(TII)的Falcon-H1车型的可用性。通过此次发布,开发人员和数据科学家现在可以在AWS上使用六种指令调节的Falcon-H1型号(0.5b,1.5b,1.5b,1.5b,3b,7b和34b),并可以访问一系列混合体系结构,这些模型将传统注意力机制与州空间模型(SSMS)相结合,以提供具有非精致效率的效率。

在Amazon Sagemaker Hyperpod

Accelerate your model training with managed tiered checkpointing on Amazon SageMaker HyperPod

AWS宣布在亚马逊Sagemaker Hyperpod中宣布了托管分层的检查点,这是一种专门建立的基础架构,可扩展和加速成千上万个AI加速器的生成AI模型开发。托管分层检查点使用CPU内存进行高性能检查点存储,并在相邻计算节点上自动数据复制,以增强可靠性。在这篇文章中,我们深入研究了这些概念,并了解如何使用托管分层检查点功能。

使用高地形任务治理量最大化高地形群集利用率细粒度配额分配

Maximize HyperPod Cluster utilization with HyperPod task governance fine-grained quota allocation

我们很高兴地宣布高元素和内存配额分配的一般可用性,并宣布高架任务治理。借助此功能,客户可以优化Amazon弹性Kubernetes服务(Amazon EKS)上的Amazon Sagemaker HyperPod群集利用,分发公平用法,并支持不同团队或项目之间的有效资源分配。有关更多信息,请参见HyperPod Task Task Ponsectance […]

使用新的HyperPod CLI和SDK

Train and deploy models on Amazon SageMaker HyperPod using the new HyperPod CLI and SDK

在这篇文章中,我们演示了如何使用新的Amazon Sagemaker HyperPod CLI和SDK来简化通过使用完全碎片数据并行的分布式培训(FSDP)(FSDP)和模型部署进行推理的分布式培训训练和部署大型AI模型的过程。这些工具通过直接命令提供了简化的工作流程,以实现常见任务,同时通过SDK为更复杂的要求提供灵活的开发选项,以及全面的可观察性功能和准备生产的部署功能。

宣布Amazon Sagemaker HyperPod的新群集创建体验

Announcing the new cluster creation experience for Amazon SageMaker HyperPod

借助新的群集创建体验,您可以单击一键创建SageMaker HyperPod群集,包括所需的先决条件AWS资源,并自动使用规定默认值。在这篇文章中,我们探索了亚马逊萨吉式制造商Hyperpod的新集群创建体验。

在Amazon Sagemaker Hyperpod上引入自动缩放

Introducing auto scaling on Amazon SageMaker HyperPod

在这篇文章中,我们宣布,亚马逊萨吉式超级平台现在支持karpenter的托管节点自动扩展,从而使SageMaker HyperPod簇的有效缩放能够满足推理和培训需求。我们深入研究Karpenter的好处,并提供有关在Sagemaker HyperPod EKS群集中启用和配置Karpenter的详细信息。

通过安全,ML驱动的预测分析授权空气质量研究

Empowering air quality research with secure, ML-driven predictive analytics

在这篇文章中,我们使用Amazon Sagemaker AI,AWS Lambda和AWS步骤功能提供了数据插补解决方案。该解决方案是为需要可靠的PM2.5数据进行趋势分析,报告和决策的可靠数据的环境分析师,公共卫生官员和商业智能专业人员设计的。我们从OpenAfrica采购了样本培训数据集。我们的解决方案使用预测时间序列预测PM2.5值。

Inception Labs的Mercury Foundation Models现在可以在Amazon Bedrock Marketplace和Amazon Sagemaker Jumpstart

Mercury foundation models from Inception Labs are now available in Amazon Bedrock Marketplace and Amazon SageMaker JumpStart

在这篇文章中,我们宣布,Inception Labs的Mercury和Mercury Coder基金会模型现在可以通过Amazon Bedrock Marketplace和Amazon Sagemaker Jumpstart获得。我们演示了如何部署这些基于超快速扩散的语言模型,这些模型可以在NVIDIA H100 GPU上每秒生成1,100个令牌,并在代码生成和工具使用方案中展示其功能。

了解亚马逊卫生服务如何使用AWS ML和ai ai

Learn how Amazon Health Services improved discovery in Amazon search using AWS ML and gen AI

在这篇文章中,我们向您展示了亚马逊卫生服务(AHS)如何使用亚马逊Sagemaker,Amazon Bedrock和Amazon EMR等AWS服务在Amazon.com搜索上解决可发现性挑战。通过将机器学习(ML),自然语言处理和矢量搜索功能相结合,我们提高了将客户与相关的医疗保健服务联系起来的能力。

Amazon Sagemaker HyperPod增强了具有可伸缩性和可定制性

Amazon SageMaker HyperPod enhances ML infrastructure with scalability and customizability

在这篇文章中,我们在SageMaker Hyperpod中介绍了三个功能,可提高ML基础架构的可扩展性和可定制性。连续供应提供灵活的资源供应,以帮助您更快地开始培训和部署模型,并更有效地管理群集。使用自定义AMIS,您可以将ML环境与组织安全标准和软件要求保持一致。

使用Amazon Sagemaker Hyperpod食谱进行微调Openai GPT-oss型号

Fine-tune OpenAI GPT-OSS models using Amazon SageMaker HyperPod recipes

这篇文章是GPT-oss系列的第二部分,专注于Amazon Sagemaker AI的模型定制。在第1部分中,我们使用带有Sagemaker培训工作的开源拥抱面部库进行了微调的GPT-oss模型,该培训工作支持分布式的多GPU和多节点配置,因此您可以按需旋转高性能群集。在这篇文章中,[…]

使用Amazon Sagemaker Unified Studio

Speed up delivery of ML workloads using Code Editor in Amazon SageMaker Unified Studio

在这篇文章中,我们介绍了如何在Sagemaker Unified Studio中使用新的代码编辑器和多个空格支持。示例解决方案显示了如何开发ML管道,该管道可以自动化典型的端到端ML活动以构建,训练,评估和(选择)部署ML模型。

使用Amazon SageMaker AI和模型上下文协议(MCP)

Enhance AI agents using predictive ML models with Amazon SageMaker AI and Model Context Protocol (MCP)

在这篇文章中,我们通过使用Amazon SageMaker AI和MCP整合预测ML模型来演示如何增强AI代理的功能。通过使用开源链代理SDK和SageMaker AI的灵活部署选项,开发人员可以创建复杂的AI应用程序,将对话性AI与强大的预测分析功能相结合。

使用可信赖的身份传播

Simplify access control and auditing for Amazon SageMaker Studio using trusted identity propagation

在这篇文章中,我们探讨了如何在Amazon Sagemaker Studio中启用和使用可信赖的身份传播,该工作室允许组织通过授予现有AWS IAM IAM身份中心身份的权限来简化访问管理。该解决方案演示了如何根据物理用户的身份实现细粒度的访问控件,在受支持的AWS服务中保持详细的审核日志,并支持长期运行的用户背景会话以进行培训工作。

使用Amazon SageMaker AI推理组件优化Salesforce的模型端点

Optimizing Salesforce’s model endpoints with Amazon SageMaker AI inference components

在这篇文章中,我们分享了Salesforce AI平台团队如何优化GPU利用率,提高了资源效率并使用Amazon SageMaker AI,特别是推理组件来节省成本。

用Amazon Sagemaker Hyperpod支持P6E-GB200 Ultraservers

Train and deploy AI models at trillion-parameter scale with Amazon SageMaker HyperPod support for P6e-GB200 UltraServers

在这篇文章中,我们回顾了P6E-GB200 Ultraservers的技术规格,讨论其性能优势,并突出关键用例。然后,我们走过如何通过灵活的培训计划购买超声处理能力,并开始使用带有Sagemaker Hyperpod的Ultraservers。