Sagemaker关键词检索结果

使用Langchain和Amazon Sagemaker AI MLFlow

Advanced tracing and evaluation of generative AI agents using LangChain and Amazon SageMaker AI MLFlow

在这篇文章中,我向您展示了如何结合Langchain的Langgraph,Amazon Sagemaker AI和MLFlow,以演示用于开发,评估和部署复杂的Generativeai代理的强大工作流程。该集成提供了所需的工具,可以深入了解Generativeai代理的性能,快速迭代并在整个开发过程中维护版本控制。

Lumi如何简化Amazon Sagemaker AI

How Lumi streamlines loan approvals with Amazon SageMaker AI

Lumi是澳大利亚领先的金融科技贷方,以快速,灵活和透明的资金解决方案赋予小型企业能力。他们使用实时数据和机器学习(ML)提供定制的贷款,以促进可持续增长并解决获得资本的挑战。这篇文章探讨了Lumi如何使用Amazon Sagemaker AI来实现此目标,增强其交易处理和分类功能,并最终通过提供更快的贷款申请,更准确的信贷决策以及改善客户体验来发展其业务。

Amazon Sagemaker上的Ray Job

Ray jobs on Amazon SageMaker HyperPod: scalable and resilient distributed AI

Ray是一个开源框架,使创建,部署和优化分布式Python作业变得直接。在这篇文章中,我们演示了在Sagemaker Hyperpod上运行射线作业的步骤。

在Amazon Sagemaker Canvas Workfrows中集成自定义依赖项

Integrating custom dependencies in Amazon SageMaker Canvas workflows

在亚马逊sagemaker画布中实施机器学习工作流程时,组织可能需要考虑其特定用例所需的外部依赖项。尽管Sagemaker画布为快速实验提供了强大的无代码和低编码功能,但某些项目可能需要默认情况下默认情况下的专门依赖项和库。这篇文章提供了一个示例,说明了如何将依赖外部依赖关系的代码合并到您的SageMaker画布工作流程中。

增强Amazon Sagemaker AI推理的推理组件滚动更新的增强部署护栏

Enhance deployment guardrails with inference component rolling updates for Amazon SageMaker AI inference

在这篇文章中,我们讨论了组织更新生产模型时面临的挑战。然后,我们深入研究推理组件的新滚动更新功能,并使用DeepSeek蒸馏器模型提供实践示例来演示此功能。最后,我们探索如何在不同方案中设置滚动更新。

创建生成的AI代理,该代理在使用Amazon Sagemaker Unified Studio

Create generative AI agents that interact with your companies’ systems in a few clicks using Amazon Bedrock in Amazon SageMaker Unified Studio

在这篇文章中,我们演示了如何在Sagemaker Unified Studio中使用Amazon Bedrock来构建生成AI应用程序,以与现有的端点和数据库集成。

在Amazon Sagemaker Hyperpod

Running NVIDIA NeMo 2.0 Framework on Amazon SageMaker HyperPod

在这篇博客文章中,我们探讨了如何将Nemo 2.0与Sagemaker Hyperpod集成,以实现对大型语言模型(LLMS)的有效培训。我们介绍设置过程,并提供逐步指南,以在Sagemaker HyperPod群集上运行NEMO作业。

Nemo Retriever Llama 3.2文本嵌入和重新固定NVIDIA NIM微服务现在在Amazon Sagemaker Jumpstart

NeMo Retriever Llama 3.2 text embedding and reranking NVIDIA NIM microservices now available in Amazon SageMaker JumpStart

今天,我们很高兴地宣布,Nemo Retriever Llama3.2文本嵌入和重新启动NVIDIA NIM微服务可在Amazon Sagemaker Jumpstart中获得。通过此发布,您现在可以部署NVIDIA优化的重新骑行和嵌入模型来构建,实验和负责任地扩展您的生成AI想法。在这篇文章中,我们演示了如何在Sagemaker Jumpstart上开始这些模型。

使用Amazon Sagemaker Hyperpod

Unleash AI innovation with Amazon SageMaker HyperPod

在这篇文章中,我们展示了SageMaker HyperPod及其在AWS RE:Invent 2024上引入的新功能如何满足现代AI工作负载的需求,从而提供了针对分布式培训和加速推理的持久和优化的群集,并在云规模上加速推理和有吸引力的价格。

在Amazon Sagemaker AI

Optimize hosting DeepSeek-R1 distilled models with Hugging Face TGI on Amazon SageMaker AI

在这篇文章中,我们演示了如何通过Amazon Sagemaker AI优化托管DeepSeek-R1蒸馏型模型(TGI)。

使用Amazon Sagemaker Hyperpod食谱自定义DeepSeek-R1蒸馏型 - 第1部分

Customize DeepSeek-R1 distilled models using Amazon SageMaker HyperPod recipes – Part 1

在这个两部分的系列中,我们讨论了如何通过使用deepSeek-R1模型及其蒸馏变量的预先构建的微调工作流(也称为“食谱”)来减少DeepSeek模型的自定义复杂性,并作为亚马逊SageMaker HyproPod食谱的一部分发布。 In this first post, we will build a solution architecture for fine-tuning DeepSeek-R1 distilled models and demonstrate the approach by providing a step-by-step example on customizing t

llm连续自我建筑微型调整框架由Amazon Sagemaker上的复合AI系统供电

LLM continuous self-instruct fine-tuning framework powered by a compound AI system on Amazon SageMaker

在这篇文章中,我们将连续的自我实施微型调整框架作为DSPY框架实现的复合AI系统。该框架首先从域知识库中生成一个综合数据集,并为自我建筑生成文档,然后通过SFT驱动模型进行微调,并介绍了人类的工作流程,以将人类和AI的反馈收集到模型响应中,它用于通过增强学习(RLHF/RLAIF)来对齐人类偏好来进一步提高模型性能。

Amazon Sagemaker Hyperpod任务治理的最佳实践

Best practices for Amazon SageMaker HyperPod task governance

在这篇文章中,我们提供了最佳实践,以最大程度地提高SageMaker HyperPod任务治理的价值,并使管理和数据科学体验无缝。在管理和运行生成的AI开发任务时,我们还讨论了共同的治理方案。

None

Customize Amazon Nova in Amazon SageMaker AI using Direct Preference Optimization

在纽约市的AWS峰会上,我们为亚马逊Nova Foundation Models推出了一套全面的模型定制功能。作为现成的食谱Onamazon Sagemaker AI可用,您可以在模型培训生命周期中使用它们来适应Nova Micro,Nova Lite和Nova Pro,包括预训练,监督微调和对齐方式。在这篇文章中,我们提出了一种简化的方法来自定义Sagemaker培训工作中的Nova Micro。

通过Visual Studio Code连接到SageMaker Studio

Supercharge your AI workflows by connecting to SageMaker Studio from Visual Studio Code

AI开发人员和机器学习(ML)工程师现在可以直接从其本地Visual Studio代码(VS代码)直接使用Amazon Sagemaker Studio的功能。借助此功能,您可以使用自定义的本地VS代码设置,包括AI辅助开发工具,自定义扩展和调试工具,同时访问SageMaker Studio中的计算资源和数据。在这篇文章中,我们向您展示如何将本地VS代码连接到SageMaker Studio开发环境,以在访问Amazon SageMaker AI计算资源时使用自定义的开发环境。

QWEN3推理模型现已在亚马逊基岩市场和亚马逊萨格人Jumpstart

Qwen3 family of reasoning models now available in Amazon Bedrock Marketplace and Amazon SageMaker JumpStart

今天,我们很高兴地宣布,Qwen3是QWEN家族中最新一代的大型语言模型(LLMS),可通过亚马逊基岩市场和Amazon Sagemaker Jumpstart获得。通过此启动,您可以在0.6B,4B,8B和32B参数尺寸中部署QWEN3模型,以构建,实验和负责任地扩展您的生成AI应用程序。在这篇文章中,我们演示了如何在Amazon Bedrock Marketplace和Sagemaker Jumpstart上使用Qwen3开始。

通过新的SageMaker AI生成AI工具

Power Your LLM Training and Evaluation with the New SageMaker AI Generative AI Tools

今天,我们很高兴向SageMaker AI客户介绍文本排名和问答模板。在这篇博客文章中,我们将引导您介绍如何在萨格人中设置这些模板,以创建用于培训大型语言模型的高质量数据集。

训练骆驼3.3燕子:亚马逊萨吉式制造商Hyperpod

Training Llama 3.3 Swallow: A Japanese sovereign LLM on Amazon SageMaker HyperPod

Tokyo科学院已经成功训练了Llama 3.3 Swallow,这是一种使用Amazon Sagemaker Hyperpod的700亿参数大语模型(LLM),具有增强的日本能力。该模型在日语任务中表现出了卓越的性能,表现优于GPT-4O-Mini和其他领先的模型。该技术报告详细介绍了项目期间开发的培训基础设施,优化和最佳实践。