Amazon Sagemaker AI上使用拥抱面库

于2025年8月5日发布,OpenAI的GPT-Oss车型GPT-OSS-20B和GPT-OSS-1220B现在可以通过AWS通过Amazon Sagemaker AI和Amazon Bedrock在AWS上购买。在这篇文章中,我们介绍了使用SageMaker AI培训工作在完全管理的培训环境中微调GPT-oss模型的过程。

来源:亚马逊云科技 _机器学习
于2025年8月5日发布,OpenAI的GPT-Oss车型GPT-OSS-20B和GPT-OSS-1220B现在可以通过AWS通过Amazon Sagemaker AI和Amazon Bedrock在AWS上购买。这些预训练的纯文本变压器模型是建立在专家(MOE)架构的混合物上的,该架构仅激活每个令牌参数的子集,在降低计算成本的同时提供高的推理性能。他们专注于编码,科学分析和数学推理,并支持128,000个上下文长度,可调节的推理水平(低/中/高),具有审核友好的痕迹,结构化输出和工具用途,以支持代理工作流程。正如OpenAI文档中所讨论的那样,这两种模型都接受了以安全性为中心的培训和对抗性微调评估,以评估和增强稳定性,以免滥用滥用。 The following table summarizes the model specifications.ModelLayersTotal ParametersActive Parameters Per TokenTotal ExpertsActive Experts Per TokenContext Lengthopenai/gpt-oss-120b36117 billion5.1 billion1284128,000openai/gpt-oss-20b2421 billion3.6 billion324128,000The GPT-OSS models are deployable using Amazon Sagemaker Jumpstart,也可以通过Amazon Bedrock API访问。这两种选项都为开发人员提供了将GPT-soss模型部署和集成到您的生产级AI工作流中的灵活性。除了开箱即用的部署外,这些模型还可以进行微调以与特定的域和用例保持一致,使用拥抱面部生态系统中的开源工具,并在Sagemaker AI的完全管理的基础架构上运行。通过使用较小的型号的较小的型号量定型的型号的sagemaker ai.fine-fine-tun-tuning大语言模型(LLMS)是一种调整较小的型号的过程。像GPT-Oss这样的微型大型模型将它们从广泛的通才转变为特定领域的专家,而没有从头开始培训的成本。将模型调整到您的数据和术语中,可以delive