Use Llama 3.1 405B for synthetic data generation and distillation to fine-tune smaller models
今天,我们很高兴地宣布 Llama 3.1 405B 模型已在 Amazon SageMaker JumpStart 和 Amazon Bedrock 上推出预览版。 Llama 3.1 模型是一组先进的预训练和指导微调的生成式人工智能 (AI) 模型,大小分别为 8B、70B 和 405B。Amazon SageMaker JumpStart 是一个机器学习 (ML) 中心,提供对算法、模型和 ML 解决方案的访问,以便您可以快速开始使用 ML。Amazon Bedrock 提供了一种使用 Meta Llama 模型构建和扩展生成式 AI 应用程序的简单方法,只需一个 API 即可。
生成式人工智能正在通过自动化任务、增强创造力和提高效率来彻底改变行业。从内容创作到科学研究,ChatGPT GPT-4o、Gemini 2.0、Llama 3.1 405B、Deepseek、DALL·E 和 Stable Diffusion 等人工智能模型正在释放新的可能性。从 Google 趋势图可以看出,在 2022 年 10 月 ChatGPT 推出后,人们对生成式 AI 的兴趣激增。到 2026 年,预计超过 80% 的公司将集成生成式 AI API、模型或在生产中部署由 GenAI 驱动的应用程序——这一比例比 2023 年的不到 5% 大幅上升。根据 Statista 的数据,生
Amazon EC2 P5e instances are generally available
在本文中,我们将讨论 Amazon Elastic Compute Cloud (Amazon EC2) P5e 实例的核心功能以及它们非常适合的用例。我们将通过一个示例向您介绍如何开始使用这些实例并在其上执行 Meta Llama 3.1 70B 和 405B 模型的推理部署。
AWS AI chips deliver high performance and low cost for Llama 3.1 models on AWS
今天,我们很高兴地宣布 AWS Trainium 和 AWS Inferentia 支持 Llama 3.1 模型的微调和推理。Llama 3.1 系列多语言大型语言模型 (LLM) 是一组预先训练和指令调整的生成模型,大小分别为 8B、70B 和 405B。在上一篇文章中,我们介绍了如何在 Amazon SageMaker JumpStart 中基于 AWS Trainium 和 Inferentia 的实例上部署 Llama 3 模型。在这篇文章中,我们概述了如何开始在 AWS AI 芯片上微调和部署 Llama 3.1 系列模型,以实现其性价比优势。
Llama 3.1 models are now available in Amazon SageMaker JumpStart
今天,我们很高兴地宣布,最先进的 Llama 3.1 多语言大型语言模型 (LLM) 集合(包括 8B、70B 和 405B 大小的预训练和指令调整生成式 AI 模型)可通过 Amazon SageMaker JumpStart 部署以进行推理。Llama 是一种可公开访问的 LLM,专为开发人员、研究人员和企业设计,用于构建、试验和负责任地扩展他们的生成式人工智能 (AI) 创意。在这篇文章中,我们将介绍如何使用 SageMaker JumpStart 发现和部署 Llama 3.1 模型。