None

在纽约市的AWS峰会上,我们为亚马逊Nova Foundation Models推出了一套全面的模型定制功能。作为现成的食谱Onamazon Sagemaker AI可用,您可以在模型培训生命周期中使用它们来适应Nova Micro,Nova Lite和Nova Pro,包括预训练,监督微调和对齐方式。在这篇文章中,我们提出了一种简化的方法来自定义Sagemaker培训工作中的Nova Micro。

来源:亚马逊云科技 _机器学习
在纽约市的AWS峰会上,我们为亚马逊Nova Foundation Models推出了一套全面的模型定制功能。您可以在Amazon Sagemaker AI上作为现成的食谱可用,您可以在模型培训生命周期中使用它们来调整Nova Micro,Nova Lite和Nova Pro,包括预训练,监督的微调和对齐方式。 We are starting with Direct Preference Optimization (DPO, an alignment technique that offers a straightforward way to tune model outputs with your preferences. DPO uses prompts paired with two responses—one preferred over the other—to guide the model toward outputs that better reflect your desired tone, style, or guidelines. You can implement this technique using either parameter-efficient or full model DPO, based on your data volume and cost considerations. The customized models can be部署到Amazon Bedrock使用配置吞吐量。如随附的图中所示,使用带有Sagemaker培训工作的Amazon Nova食谱包括以下步骤:用户选择一个特定的Nova自定义食谱,该食谱提供了全面的配置,以控制Amazon Nova培训参数,模型设置和分布式培训策略,可以使用APE INIP APE APE INDERATIONS APER INDERIONS APERIPESS APERIPENT。 Sagemaker AI控制平面,通过Amazon