Automate AIOps with SageMaker Unified Studio Projects, Part 2: Technical implementation
在这篇文章中,我们专注于通过逐步指导和参考代码实施此体系结构。我们提供了详细的技术演练,以满足AI开发生命周期中两个关键角色的需求:通过自动模板建立治理和基础设施的管理员,以及使用SageMaker Unified Studio用于模型开发的数据科学家,而无需管理基础设施。
GPT OSS models from OpenAI are now available on SageMaker JumpStart
今天,我们很高兴地宣布,来自Amazon Sagemaker Jumpstart的OpenAI,Openai的Open AI开放式AI开放式GPT OSS模型,GPT-OSS-1220B和GPT-SOSS-20B。通过此发布,您现在可以部署Openai的最新推理模型来构建,实验和负责任地扩展您的生成AI想法。在这篇文章中,我们演示了如何在Sagemaker Jumpstart上开始这些模型。
July Recap: New AWS Services and Privileged Permissions
随着2025年7月的结束,我们回到了本月的新发布的AWS特权许可证 - 这次,几项新服务首次亮相,每个服务都带有可以重塑您的云安全边界的权限。本月在Amazon Bedrock,Oracle Database@aws,S3矢量和Sagemaker中介绍新的功能,所有[…]
Customize Amazon Nova in Amazon SageMaker AI using Direct Preference Optimization
在纽约市的AWS峰会上,我们为亚马逊Nova Foundation Models推出了一套全面的模型定制功能。作为现成的食谱Onamazon Sagemaker AI可用,您可以在模型培训生命周期中使用它们来适应Nova Micro,Nova Lite和Nova Pro,包括预训练,监督微调和对齐方式。在这篇文章中,我们提出了一种简化的方法来自定义Sagemaker培训工作中的Nova Micro。
Supercharge your AI workflows by connecting to SageMaker Studio from Visual Studio Code
AI开发人员和机器学习(ML)工程师现在可以直接从其本地Visual Studio代码(VS代码)直接使用Amazon Sagemaker Studio的功能。借助此功能,您可以使用自定义的本地VS代码设置,包括AI辅助开发工具,自定义扩展和调试工具,同时访问SageMaker Studio中的计算资源和数据。在这篇文章中,我们向您展示如何将本地VS代码连接到SageMaker Studio开发环境,以在访问Amazon SageMaker AI计算资源时使用自定义的开发环境。
今天,我们很高兴地宣布,Qwen3是QWEN家族中最新一代的大型语言模型(LLMS),可通过亚马逊基岩市场和Amazon Sagemaker Jumpstart获得。通过此启动,您可以在0.6B,4B,8B和32B参数尺寸中部署QWEN3模型,以构建,实验和负责任地扩展您的生成AI应用程序。在这篇文章中,我们演示了如何在Amazon Bedrock Marketplace和Sagemaker Jumpstart上使用Qwen3开始。
Power Your LLM Training and Evaluation with the New SageMaker AI Generative AI Tools
今天,我们很高兴向SageMaker AI客户介绍文本排名和问答模板。在这篇博客文章中,我们将引导您介绍如何在萨格人中设置这些模板,以创建用于培训大型语言模型的高质量数据集。
Training Llama 3.3 Swallow: A Japanese sovereign LLM on Amazon SageMaker HyperPod
Tokyo科学院已经成功训练了Llama 3.3 Swallow,这是一种使用Amazon Sagemaker Hyperpod的700亿参数大语模型(LLM),具有增强的日本能力。该模型在日语任务中表现出了卓越的性能,表现优于GPT-4O-Mini和其他领先的模型。该技术报告详细介绍了项目期间开发的培训基础设施,优化和最佳实践。
Multi-account support for Amazon SageMaker HyperPod task governance
在这篇文章中,我们讨论了具有多个帐户的企业如何访问共享的Amazon Sagemaker HyperPod群集以运行其异质工作负载。我们使用SageMaker HyperPod任务治理来启用此功能。
Modernize and migrate on-premises fraud detection machine learning workflows to Amazon SageMaker
radial是最大的3PL履行提供商,也为中型市场和企业品牌提供综合付款,欺诈检测以及全渠道解决方案。在这篇文章中,我们通过使用Amazon Sagemaker对其ML工作流进行现代化,分享了Radial如何优化其欺诈检测机学习(ML)应用程序的成本和性能。
Impel enhances automotive dealership customer experience with fine-tuned LLMs on Amazon SageMaker
在这篇文章中,我们与SageMaker的微调LLMS分享Impel如何增强汽车经销商的客户体验。
Deploy Amazon SageMaker Projects with Terraform Cloud
在这篇文章中,您定义,部署和提供纯粹在Terraform中的SageMaker项目自定义模板。由于对其他IAC工具没有依赖性,因此您现在可以严格在Terraform企业基础架构中启用Sagemaker项目。
Revolutionizing earth observation with geospatial foundation models on AWS
在这篇文章中,我们探讨了如何将领先的GeoFM(Clay Foundation的Clay Foundation模型在拥抱面上可用)如何用于大规模推断和在Amazon Sagemaker上进行微调。
Gemma 3 27B model now available on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart
我们很高兴地宣布,通过亚马逊基岩市场和亚马逊Sagemaker Jumpstart宣布Gemma 3 27B指示模型。在这篇文章中,我们向您展示了如何开始使用Amazon Bedrock Marketplace和SageMaker Jumpstart上的Gemma 3 27B指令,以及如何在应用程序中使用模型强大的指令遵循功能。
Accelerate edge AI development with SiMa.ai Edgematic with a seamless AWS integration
在这篇文章中,我们演示了如何使用SageMaker AI和Sima.ai Palette软件套件对模型进行重新训练和量化。目的是准确检测个人在可见性和保护设备检测对于合规性和安全性至关重要的环境中。
Extend large language models powered by Amazon SageMaker AI using Model Context Protocol
人类提出的MCP提供了将FMS连接到数据源的标准化方法,现在您可以使用SageMaker AI使用此功能。在这篇文章中,我们展示了一个结合Sagemaker AI和MCP的力量来构建应用程序的示例,该应用程序通过专业角色和自动化工作流提供了新的借贷承销观点。
Supercharge your LLM performance with Amazon SageMaker Large Model Inference container v15
今天,我们很高兴地宣布,由VLLM 0.8.4驱动的Amazon Sagemaker大型推理(LMI)容器V15的推出,并支持VLLM V1发动机。该版本引入了显着的性能提高,扩展的模型兼容性与多模态(即能够理解和分析文本到文本,图像到文本和文本映射数据),并与VLLM提供内置的集成,以帮助您无人接缝和最高绩效的大型性能(LLMS)具有最高的性能。
Racing beyond DeepRacer: Debut of the AWS LLM League
AWS LLM LOAGEWAS旨在通过提供一种体验来降低生成AI模型定制的进入障碍,而参与者无论其先前的数据科学经验如何,都可以从事微调LLMS。使用Amazon Sagemaker Jumpstart,引导与会者通过自定义LLMS来解决适应其领域的实际业务挑战的过程。