Optimizing Mixtral 8x7B on Amazon SageMaker with AWS Inferentia2
这篇文章演示了如何在AWS推理的实例上部署和服务Mixtral 8x7b语言模型,以进行具有成本效益,高性能推断。我们将使用拥抱面孔的最佳神经元进行模型汇编,该神经元提供了一组工具,可直接加载,训练和推理以及文本生成推理(TGI)容器,该容器具有用于部署和服务LLMS与HOUGGingFace的工具套件。
Racing beyond DeepRacer: Debut of the AWS LLM League
AWS LLM LOAGEWAS旨在通过提供一种体验来降低生成AI模型定制的进入障碍,而参与者无论其先前的数据科学经验如何,都可以从事微调LLMS。使用Amazon Sagemaker Jumpstart,引导与会者通过自定义LLMS来解决适应其领域的实际业务挑战的过程。
Reduce ML training costs with Amazon SageMaker HyperPod
在这篇文章中,我们探讨了大规模边界模型培训的挑战,重点是硬件故障以及亚马逊萨吉式制造商HyperPod的好处 - 一种解决方案,可最大程度地减少干扰,提高效率并降低培训成本。
在这篇文章中,我们展示了IFOOD如何使用萨格马制造商彻底改变其ML操作。通过利用SageMaker的力量,IFOOD简化了整个ML生命周期,从模型培训到部署。这种集成不仅简化了复杂的过程,还可以自动化关键任务。
Llama 4 family of models from Meta are now available in SageMaker JumpStart
今天,我们很高兴地宣布亚马逊萨吉式制造商Jumpstart的Llama 4 Scout和MaverickModels的可用性。在这篇博客文章中,我们将带您了解如何使用SageMaker Jumpstart进行部署和提示Allama-4-Scout-17b-16e-Inscruct模型。
在这篇文章中,我向您展示了如何结合Langchain的Langgraph,Amazon Sagemaker AI和MLFlow,以演示用于开发,评估和部署复杂的Generativeai代理的强大工作流程。该集成提供了所需的工具,可以深入了解Generativeai代理的性能,快速迭代并在整个开发过程中维护版本控制。
How Lumi streamlines loan approvals with Amazon SageMaker AI
Lumi是澳大利亚领先的金融科技贷方,以快速,灵活和透明的资金解决方案赋予小型企业能力。他们使用实时数据和机器学习(ML)提供定制的贷款,以促进可持续增长并解决获得资本的挑战。这篇文章探讨了Lumi如何使用Amazon Sagemaker AI来实现此目标,增强其交易处理和分类功能,并最终通过提供更快的贷款申请,更准确的信贷决策以及改善客户体验来发展其业务。
Ray jobs on Amazon SageMaker HyperPod: scalable and resilient distributed AI
Ray是一个开源框架,使创建,部署和优化分布式Python作业变得直接。在这篇文章中,我们演示了在Sagemaker Hyperpod上运行射线作业的步骤。
Integrating custom dependencies in Amazon SageMaker Canvas workflows
在亚马逊sagemaker画布中实施机器学习工作流程时,组织可能需要考虑其特定用例所需的外部依赖项。尽管Sagemaker画布为快速实验提供了强大的无代码和低编码功能,但某些项目可能需要默认情况下默认情况下的专门依赖项和库。这篇文章提供了一个示例,说明了如何将依赖外部依赖关系的代码合并到您的SageMaker画布工作流程中。
Amazon SageMaker JumpStart adds fine-tuning support for models in a private model hub
今天,我们宣布了一项增强的私人枢纽功能,并具有几种新功能,可为组织提供更大的控制权。这些增强功能包括直接在私人枢纽内微调SageMaker JumpStart模型的能力,支持和管理定制训练的模型,为关联笔记本电脑的深层链接功能以及改进的模型版本管理。
在这篇文章中,我们讨论了组织更新生产模型时面临的挑战。然后,我们深入研究推理组件的新滚动更新功能,并使用DeepSeek蒸馏器模型提供实践示例来演示此功能。最后,我们探索如何在不同方案中设置滚动更新。
在这篇文章中,我们演示了如何在Sagemaker Unified Studio中使用Amazon Bedrock来构建生成AI应用程序,以与现有的端点和数据库集成。
Running NVIDIA NeMo 2.0 Framework on Amazon SageMaker HyperPod
在这篇博客文章中,我们探讨了如何将Nemo 2.0与Sagemaker Hyperpod集成,以实现对大型语言模型(LLMS)的有效培训。我们介绍设置过程,并提供逐步指南,以在Sagemaker HyperPod群集上运行NEMO作业。
今天,我们很高兴地宣布,Nemo Retriever Llama3.2文本嵌入和重新启动NVIDIA NIM微服务可在Amazon Sagemaker Jumpstart中获得。通过此发布,您现在可以部署NVIDIA优化的重新骑行和嵌入模型来构建,实验和负责任地扩展您的生成AI想法。在这篇文章中,我们演示了如何在Sagemaker Jumpstart上开始这些模型。
Unleash AI innovation with Amazon SageMaker HyperPod
在这篇文章中,我们展示了SageMaker HyperPod及其在AWS RE:Invent 2024上引入的新功能如何满足现代AI工作负载的需求,从而提供了针对分布式培训和加速推理的持久和优化的群集,并在云规模上加速推理和有吸引力的价格。
How to run Qwen 2.5 on AWS AI chips using Hugging Face libraries
在这篇文章中,我们概述了如何使用拥抱脸部文本生成推断(TGI)容器(TGI)容器(TGI)容器(TGI)和TheHugging Optimum face face face facimum neuron库来使用使用Amazon弹性Compute Cloud(Amazon EC2)和Amazon Sagemaker部署QWEN 2.5模型家族。还支持QWEN2.5编码器和数学变体。
Optimize hosting DeepSeek-R1 distilled models with Hugging Face TGI on Amazon SageMaker AI
在这篇文章中,我们演示了如何通过Amazon Sagemaker AI优化托管DeepSeek-R1蒸馏型模型(TGI)。
Deploy DeepSeek-R1 distilled models on Amazon SageMaker using a Large Model Inference container
在SageMaker AI上部署DeepSeek模型为寻求在其应用程序中使用最先进的语言模型的组织提供了强大的解决方案。在这篇文章中,我们展示了如何在SageMaker AI中使用蒸馏型,该模型提供了几种选择R1模型的蒸馏版本。