Run small language models cost-efficiently with AWS Graviton and Amazon SageMaker AI
在这篇文章中,我们通过将预建的容器扩展到与AWS Graviton实例兼容,演示了如何在Sagemaker AI上部署小语言模型。我们首先提供解决方案的概述,然后提供详细的实施步骤以帮助您入门。您可以在GitHub存储库中找到示例笔记本。
Impel enhances automotive dealership customer experience with fine-tuned LLMs on Amazon SageMaker
在这篇文章中,我们与SageMaker的微调LLMS分享Impel如何增强汽车经销商的客户体验。
How climate tech startups are building foundation models with Amazon SageMaker HyperPod
在这篇文章中,我们展示了气候技术初创公司如何开发基础模型(FMS),这些模型(FMS)使用广泛的环境数据集来解决诸如碳捕获,碳阴性燃料,新的微塑料破坏和生态系统保存等问题。这些专业模型需要高级计算功能来有效地处理和分析大量数据。
Deploy Amazon SageMaker Projects with Terraform Cloud
在这篇文章中,您定义,部署和提供纯粹在Terraform中的SageMaker项目自定义模板。由于对其他IAC工具没有依赖性,因此您现在可以严格在Terraform企业基础架构中启用Sagemaker项目。
Zuru与AWS生成AI创新中心合作,并使用AWS专业服务,以使用Generative AI实施更准确的文本到层次底层计划生成器。在这篇文章中,我们向您展示了为什么选择使用大语言模型(LLM)的解决方案。我们探讨了如何使用模型选择,及时的工程和微调来改善结果。
Revolutionizing earth observation with geospatial foundation models on AWS
在这篇文章中,我们探讨了如何将领先的GeoFM(Clay Foundation的Clay Foundation模型在拥抱面上可用)如何用于大规模推断和在Amazon Sagemaker上进行微调。
Accelerate edge AI development with SiMa.ai Edgematic with a seamless AWS integration
在这篇文章中,我们演示了如何使用SageMaker AI和Sima.ai Palette软件套件对模型进行重新训练和量化。目的是准确检测个人在可见性和保护设备检测对于合规性和安全性至关重要的环境中。
在这个专业信息提取解决方案的基础上建立了建立,并利用Sagemaker Hyperpod的功能,我们与Apoidea Group合作探索了使用大型视觉语言模型(LVLM)的使用,以进一步改善银行和财务文档上的表结构识别性能。在这篇文章中,我们介绍了使用Sagemaker Hyperpod上的Llama-Factory进行QWEN2-VL-7B教学模型进行微调的QWEN2-VL-7B教学模型的逐步代码。
Customize DeepSeek-R1 671b model using Amazon SageMaker HyperPod recipes – Part 2
在这篇文章中,我们使用食谱来微调原始的DeepSeek-R1 671b参数模型。我们通过使用Sagemaker培训工作和Sagemaker Hyperpod的逐步实施这些食谱来证明这一点。
Extend large language models powered by Amazon SageMaker AI using Model Context Protocol
人类提出的MCP提供了将FMS连接到数据源的标准化方法,现在您可以使用SageMaker AI使用此功能。在这篇文章中,我们展示了一个结合Sagemaker AI和MCP的力量来构建应用程序的示例,该应用程序通过专业角色和自动化工作流提供了新的借贷承销观点。
InterVision accelerates AI development using AWS LLM League and Amazon SageMaker AI
这篇文章展示了AWS LLM League的游戏启示能力如何加速合作伙伴的实用AI开发能力,同时展示了微调较小的语言模型如何为特定行业需求提供成本效益,专业的解决方案。
How Salesforce achieves high-performance model deployment with Amazon SageMaker AI
这篇文章是Salesforce和AWS之间的共同合作,并且在Salesforce Engineering Blog和AWS机器学习博客上都在交叉发布。 Salesforce AI模型服务团队正在努力突破自然语言处理的界限和企业应用程序的AI功能。他们的关键重点领域包括优化大型[…]
Optimizing Mixtral 8x7B on Amazon SageMaker with AWS Inferentia2
这篇文章演示了如何在AWS推理的实例上部署和服务Mixtral 8x7b语言模型,以进行具有成本效益,高性能推断。我们将使用拥抱面孔的最佳神经元进行模型汇编,该神经元提供了一组工具,可直接加载,训练和推理以及文本生成推理(TGI)容器,该容器具有用于部署和服务LLMS与HOUGGingFace的工具套件。
Racing beyond DeepRacer: Debut of the AWS LLM League
AWS LLM LOAGEWAS旨在通过提供一种体验来降低生成AI模型定制的进入障碍,而参与者无论其先前的数据科学经验如何,都可以从事微调LLMS。使用Amazon Sagemaker Jumpstart,引导与会者通过自定义LLMS来解决适应其领域的实际业务挑战的过程。
Reduce ML training costs with Amazon SageMaker HyperPod
在这篇文章中,我们探讨了大规模边界模型培训的挑战,重点是硬件故障以及亚马逊萨吉式制造商HyperPod的好处 - 一种解决方案,可最大程度地减少干扰,提高效率并降低培训成本。
在这篇文章中,我们展示了IFOOD如何使用萨格马制造商彻底改变其ML操作。通过利用SageMaker的力量,IFOOD简化了整个ML生命周期,从模型培训到部署。这种集成不仅简化了复杂的过程,还可以自动化关键任务。
Llama 4 family of models from Meta are now available in SageMaker JumpStart
今天,我们很高兴地宣布亚马逊萨吉式制造商Jumpstart的Llama 4 Scout和MaverickModels的可用性。在这篇博客文章中,我们将带您了解如何使用SageMaker Jumpstart进行部署和提示Allama-4-Scout-17b-16e-Inscruct模型。