详细内容或原文请订阅后点击阅览
使用 AWS Trainium 在 SageMaker HyperPod 上对 Llama 3 进行 PEFT 微调
在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型进行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低高达 50%,并将训练时间缩短 70%。
来源:亚马逊云科技 _机器学习训练大型语言模型 (LLM) 已成为企业的一项重大开支。在许多用例中,公司都希望将 LLM 基础模型 (FM) 与其领域特定数据结合使用。然而,公司发现,使用其数据对这些模型进行全面微调并不划算。为了在继续使用人工智能的同时降低成本,许多公司已转向使用参数高效微调 (PEFT) 对其领域特定数据上的 LLM 进行微调。PEFT 是一组技术,旨在使预先训练的 LLM 适应特定任务,同时最大限度地减少需要更新的参数数量。低秩自适应 (LoRA) 和加权分解低秩自适应 (DoRA) 等技术可显着减少可训练参数的数量,从而降低微调成本。
人工智能除了成本之外,大规模对 LLM 进行微调还带来了重大的技术挑战。设置和配置分布式训练环境的过程可能很复杂,需要服务器管理、集群配置、网络和分布式计算方面的专业知识。手动管理这种复杂性通常会适得其反,并从企业的 AI 开发中夺走宝贵的资源。为了简化基础设施设置并加速分布式训练,AWS 于 2023 年底推出了 Amazon SageMaker HyperPod。
Amazon SageMaker HyperPod在这篇博文中,我们展示了如何使用 AWS Trainium 上的 PEFT 和 SageMaker HyperPod 对 Meta Llama 3 模型执行高效的监督微调。我们使用 HuggingFace 的 Optimum-Neuron 软件开发工具包 (SDK) 将 LoRA 应用于微调作业,并使用 SageMaker HyperPod 作为主要计算集群在 Trainium 上执行分布式训练。使用 LoRA 监督微调 Meta Llama 3 模型,您可以进一步将微调模型的成本降低多达 50%,并将训练时间缩短 70%。
AWS Trainium 计算集群 ,