Oumi关键词检索结果

加速自定义 LLM 部署:使用 Oumi 进行微调并部署到 Amazon Bedrock

Accelerate custom LLM deployment: Fine-tune with Oumi and deploy to Amazon Bedrock

在这篇文章中,我们将展示如何在 Amazon EC2 上使用 Oumi 微调 Llama 模型(可以选择使用 Oumi 创建合成数据)、在 Amazon S3 中存储工件以及使用自定义模型导入部署到 Amazon Bedrock 进行托管推理。