在这篇文章中,我向您展示了如何结合Langchain的Langgraph,Amazon Sagemaker AI和MLFlow,以演示用于开发,评估和部署复杂的Generativeai代理的强大工作流程。该集成提供了所需的工具,可以深入了解Generativeai代理的性能,快速迭代并在整个开发过程中维护版本控制。
How Lumi streamlines loan approvals with Amazon SageMaker AI
Lumi是澳大利亚领先的金融科技贷方,以快速,灵活和透明的资金解决方案赋予小型企业能力。他们使用实时数据和机器学习(ML)提供定制的贷款,以促进可持续增长并解决获得资本的挑战。这篇文章探讨了Lumi如何使用Amazon Sagemaker AI来实现此目标,增强其交易处理和分类功能,并最终通过提供更快的贷款申请,更准确的信贷决策以及改善客户体验来发展其业务。
Ray jobs on Amazon SageMaker HyperPod: scalable and resilient distributed AI
Ray是一个开源框架,使创建,部署和优化分布式Python作业变得直接。在这篇文章中,我们演示了在Sagemaker Hyperpod上运行射线作业的步骤。
Integrating custom dependencies in Amazon SageMaker Canvas workflows
在亚马逊sagemaker画布中实施机器学习工作流程时,组织可能需要考虑其特定用例所需的外部依赖项。尽管Sagemaker画布为快速实验提供了强大的无代码和低编码功能,但某些项目可能需要默认情况下默认情况下的专门依赖项和库。这篇文章提供了一个示例,说明了如何将依赖外部依赖关系的代码合并到您的SageMaker画布工作流程中。
在这篇文章中,我们讨论了组织更新生产模型时面临的挑战。然后,我们深入研究推理组件的新滚动更新功能,并使用DeepSeek蒸馏器模型提供实践示例来演示此功能。最后,我们探索如何在不同方案中设置滚动更新。
在这篇文章中,我们演示了如何在Sagemaker Unified Studio中使用Amazon Bedrock来构建生成AI应用程序,以与现有的端点和数据库集成。
Running NVIDIA NeMo 2.0 Framework on Amazon SageMaker HyperPod
在这篇博客文章中,我们探讨了如何将Nemo 2.0与Sagemaker Hyperpod集成,以实现对大型语言模型(LLMS)的有效培训。我们介绍设置过程,并提供逐步指南,以在Sagemaker HyperPod群集上运行NEMO作业。
今天,我们很高兴地宣布,Nemo Retriever Llama3.2文本嵌入和重新启动NVIDIA NIM微服务可在Amazon Sagemaker Jumpstart中获得。通过此发布,您现在可以部署NVIDIA优化的重新骑行和嵌入模型来构建,实验和负责任地扩展您的生成AI想法。在这篇文章中,我们演示了如何在Sagemaker Jumpstart上开始这些模型。
Unleash AI innovation with Amazon SageMaker HyperPod
在这篇文章中,我们展示了SageMaker HyperPod及其在AWS RE:Invent 2024上引入的新功能如何满足现代AI工作负载的需求,从而提供了针对分布式培训和加速推理的持久和优化的群集,并在云规模上加速推理和有吸引力的价格。
Optimize hosting DeepSeek-R1 distilled models with Hugging Face TGI on Amazon SageMaker AI
在这篇文章中,我们演示了如何通过Amazon Sagemaker AI优化托管DeepSeek-R1蒸馏型模型(TGI)。
Customize DeepSeek-R1 distilled models using Amazon SageMaker HyperPod recipes – Part 1
在这个两部分的系列中,我们讨论了如何通过使用deepSeek-R1模型及其蒸馏变量的预先构建的微调工作流(也称为“食谱”)来减少DeepSeek模型的自定义复杂性,并作为亚马逊SageMaker HyproPod食谱的一部分发布。 In this first post, we will build a solution architecture for fine-tuning DeepSeek-R1 distilled models and demonstrate the approach by providing a step-by-step example on customizing t
在这篇文章中,我们将连续的自我实施微型调整框架作为DSPY框架实现的复合AI系统。该框架首先从域知识库中生成一个综合数据集,并为自我建筑生成文档,然后通过SFT驱动模型进行微调,并介绍了人类的工作流程,以将人类和AI的反馈收集到模型响应中,它用于通过增强学习(RLHF/RLAIF)来对齐人类偏好来进一步提高模型性能。
Best practices for Amazon SageMaker HyperPod task governance
在这篇文章中,我们提供了最佳实践,以最大程度地提高SageMaker HyperPod任务治理的价值,并使管理和数据科学体验无缝。在管理和运行生成的AI开发任务时,我们还讨论了共同的治理方案。
Customize Amazon Nova in Amazon SageMaker AI using Direct Preference Optimization
在纽约市的AWS峰会上,我们为亚马逊Nova Foundation Models推出了一套全面的模型定制功能。作为现成的食谱Onamazon Sagemaker AI可用,您可以在模型培训生命周期中使用它们来适应Nova Micro,Nova Lite和Nova Pro,包括预训练,监督微调和对齐方式。在这篇文章中,我们提出了一种简化的方法来自定义Sagemaker培训工作中的Nova Micro。
Supercharge your AI workflows by connecting to SageMaker Studio from Visual Studio Code
AI开发人员和机器学习(ML)工程师现在可以直接从其本地Visual Studio代码(VS代码)直接使用Amazon Sagemaker Studio的功能。借助此功能,您可以使用自定义的本地VS代码设置,包括AI辅助开发工具,自定义扩展和调试工具,同时访问SageMaker Studio中的计算资源和数据。在这篇文章中,我们向您展示如何将本地VS代码连接到SageMaker Studio开发环境,以在访问Amazon SageMaker AI计算资源时使用自定义的开发环境。
今天,我们很高兴地宣布,Qwen3是QWEN家族中最新一代的大型语言模型(LLMS),可通过亚马逊基岩市场和Amazon Sagemaker Jumpstart获得。通过此启动,您可以在0.6B,4B,8B和32B参数尺寸中部署QWEN3模型,以构建,实验和负责任地扩展您的生成AI应用程序。在这篇文章中,我们演示了如何在Amazon Bedrock Marketplace和Sagemaker Jumpstart上使用Qwen3开始。
Power Your LLM Training and Evaluation with the New SageMaker AI Generative AI Tools
今天,我们很高兴向SageMaker AI客户介绍文本排名和问答模板。在这篇博客文章中,我们将引导您介绍如何在萨格人中设置这些模板,以创建用于培训大型语言模型的高质量数据集。
Training Llama 3.3 Swallow: A Japanese sovereign LLM on Amazon SageMaker HyperPod
Tokyo科学院已经成功训练了Llama 3.3 Swallow,这是一种使用Amazon Sagemaker Hyperpod的700亿参数大语模型(LLM),具有增强的日本能力。该模型在日语任务中表现出了卓越的性能,表现优于GPT-4O-Mini和其他领先的模型。该技术报告详细介绍了项目期间开发的培训基础设施,优化和最佳实践。