Inferentia2关键词检索结果

使用 AWS Inferentia2 经济高效地微调和托管 SDXL 模型

Fine-tune and host SDXL models cost-effectively with AWS Inferentia2

随着技术的不断发展,新的模型不断涌现,提供更高的质量、更大的灵活性和更快的图像生成功能。StabilityAI 发布的 Stable Diffusion XL (SDXL) 就是这样一种突破性的模型,它将文本到图像的生成 AI 技术推向了前所未有的高度。在这篇文章中,我们演示了如何使用 SageMaker Studio 有效地微调 SDXL 模型。我们展示了如何准备经过微调的模型以在由 AWS Inferentia2 提供支持的 Amazon EC2 Inf2 实例上运行,从而为您的推理工作负载带来卓越的性价比。

关于 AWS Trainium 和 Inferentia 的可编程性

On the Programmability of AWS Trainium and Inferentia

使用自定义运算符加速 AI/ML 模型训练 — 第 4 部分照片由 Agata Bres 在 Unsplash 上拍摄在这篇文章中,我们继续探索通过自定义运算符开发来优化机器学习 (ML) 工作负载运行时的机会。这一次,我们重点介绍 AWS Neuron SDK 提供的工具,用于在 AWS Trainium 和 AWS Inferentia 上开发和运行新内核。随着推动 AI 革命的低级模型组件(例如注意层)的快速发展,用于训练和运行 ML 模型的加速器的可编程性至关重要。专用 AI 芯片必须为广泛使用且影响深远的通用 GPU (GPGPU) 开发框架(例如 CUDA 和 Triton)提供有

AWS Inferentia 和 Trainium 上的 AI 模型优化

AI Model Optimization on AWS Inferentia and Trainium

使用 AWS Neuron SDK 加速 ML 的技巧照片由 julien Tromeur 在 Unsplash 上拍摄我们正处于人工智能的黄金时代,尖端模型颠覆了行业并准备改变我们所知的生活。推动这些进步的是越来越强大的人工智能加速器,例如 NVIDIA H100 GPU、Google Cloud TPU、AWS 的 Trainium 和 Inferentia 芯片等。随着选项数量的增加,选择最适合我们的机器学习 (ML) 工作负载的平台的挑战也随之而来——考虑到与 AI 计算相关的高成本,这是一个至关重要的决定。重要的是,对每个选项进行全面评估需要确保我们最大限度地利用它以充分利用其功能。

精彩的文字,精彩的写作:使用 AWS AI 芯片快速部署 Meta LLama 3 支持的应用程序

Brilliant words, brilliant writing: Using AWS AI chips to quickly deploy Meta LLama 3-powered applications

在本文中,我们将介绍如何使用 Amazon EC2 Inf2 实例在专用 AWS AI 芯片 AWS Inferentia2 上经济高效地部署多个行业领先的 LLM,帮助客户快速测试并开放 API 接口,以同时促进性能基准测试和下游应用程序调用。