Sagemaker关键词检索结果

赛车超越深度:AWS LLM League的首次亮相

Racing beyond DeepRacer: Debut of the AWS LLM League

AWS LLM LOAGEWAS旨在通过提供一种体验来降低生成AI模型定制的进入障碍,而参与者无论其先前的数据科学经验如何,都可以从事微调LLMS。使用Amazon Sagemaker Jumpstart,引导与会者通过自定义LLMS来解决适应其领域的实际业务挑战的过程。

Amazon SageMaker Jumpstart在私人模型中添加了对模型的微调支持

Amazon SageMaker JumpStart adds fine-tuning support for models in a private model hub

今天,我们宣布了一项增强的私人枢纽功能,并具有几种新功能,可为组织提供更大的控制权。这些增强功能包括直接在私人枢纽内微调SageMaker JumpStart模型的能力,支持和管理定制训练的模型,为关联笔记本电脑的深层链接功能以及改进的模型版本管理。

如何使用拥抱的面部库在AWS AI芯片上运行QWEN 2.5

How to run Qwen 2.5 on AWS AI chips using Hugging Face libraries

在这篇文章中,我们概述了如何使用拥抱脸部文本生成推断(TGI)容器(TGI)容器(TGI)容器(TGI)和TheHugging Optimum face face face facimum neuron库来使用使用Amazon弹性Compute Cloud(Amazon EC2)和Amazon Sagemaker部署QWEN 2.5模型家族。还支持QWEN2.5编码器和数学变体。

使用大型推理容器

Deploy DeepSeek-R1 distilled models on Amazon SageMaker using a Large Model Inference container

在SageMaker AI上部署DeepSeek模型为寻求在其应用程序中使用最先进的语言模型的组织提供了强大的解决方案。在这篇文章中,我们展示了如何在SageMaker AI中使用蒸馏型,该模型提供了几种选择R1模型的蒸馏版本。

时间序列预测基于LLM的基础模型和AWS上的可扩展AIOPS

Time series forecasting with LLM-based foundation models and scalable AIOps on AWS

在此博客文章中,我们将使用合成数据集将计时集成到Amazon Sagemaker管道中,该数据集将计算数据集整合到Amazon Sagemaker管道中,该数据集模拟销售预测方案,以最小的数据将准确有效的预测解锁准确有效的预测。

MISTRAL-SMALL-24B-INSTRUCT-2501现在可以在SageMaker Jumpstart和Amazon Bedrock Marketplace

Mistral-Small-24B-Instruct-2501 is now available on SageMaker Jumpstart and Amazon Bedrock Marketplace

我们很高兴地宣布,Mistral-Small-24B-Instruct-2501-来自Mistral AI的240亿个参数大语言模型(LLM),可针对低延迟文本生成任务进行优化 - 可以通过Amazon Sagemaker Jumpstartand Jumpstartand Amazon Bedrock Marketplace提供客户。在这篇文章中,我们介绍如何发现,部署和使用Mistral-Small-24B-Instruct-2501。

使用 Amazon SageMaker AI 上的 Medusa-1 将 LLM 推理速度提高约 2 倍

Achieve ~2x speed-up in LLM inference with Medusa-1 on Amazon SageMaker AI

研究人员开发了 Medusa,这是一个通过添加额外头来同时预测多个标记以加快 LLM 推理速度的框架。这篇文章演示了如何使用框架的第一个版本 Medusa-1 通过在 Amazon SageMaker AI 上对其进行微调来加速 LLM,并通过部署和简单的负载测试确认了加速效果。Medusa-1 在不牺牲模型质量的情况下实现了约两倍的推理加速,具体改进取决于模型大小和使用的数据。在这篇文章中,我们通过在样本数据集上观察到 1.8 倍的加速来证明其有效性。

Meta SAM 2.1 现已在 Amazon SageMaker JumpStart 中可用

Meta SAM 2.1 is now available in Amazon SageMaker JumpStart

我们很高兴地宣布,Meta 的 Segment Anything Model (SAM) 2.1 视觉分割模型已通过 Amazon SageMaker JumpStart 公开发布,可用于部署和运行推理。Meta SAM 2.1 在单个模型中提供了最先进的视频和图像分割功能。在这篇文章中,我们探讨了 SageMaker JumpStart 如何帮助数据科学家和 ML 工程师发现、访问和部署各种预先训练的 FM 进行推理,包括 Meta 迄今为止最先进、最强大的模型。

Falcon 3 模型现已在 Amazon SageMaker JumpStart 中可用

Falcon 3 models now available in Amazon SageMaker JumpStart

我们很高兴地宣布,TII 的 Falcon 3 系列模型已在 Amazon SageMaker JumpStart 中推出。在本文中,我们将探讨如何在 Amazon SageMaker AI 上高效部署此模型。

使用 GraphStorm v0.4 加快分布式图形神经网络训练

Faster distributed graph neural network training with GraphStorm v0.4

GraphStorm 是一个低代码企业图形机器学习 (ML) 框架,为 ML 从业者提供了一种在行业规模图形数据上构建、训练和部署图形 ML 解决方案的简单方法。在这篇文章中,我们展示了 GraphBolt 如何在分布式设置中增强 GraphStorm 的性能。我们提供了一个在 SageMaker 上使用 GraphStorm 和 GraphBolt 进行分布式训练的实际示例。最后,我们分享了如何将 Amazon SageMaker Pipelines 与 GraphStorm 结合使用。

使用 DeepSeek-R1、CrewAI 和 Amazon SageMaker AI 构建代理式 AI 解决方案

Build agentic AI solutions with DeepSeek-R1, CrewAI, and Amazon SageMaker AI

在这篇文章中,我们将演示如何将 DeepSeek-R1 等 LLM(或您选择的其他 FM)从 SageMaker JumpStart 或 Hugging Face Hub 等热门模型中心部署到 SageMaker AI 进行实时推理。我们探索了 Hugging Face TGI 等推理框架,它有助于简化部署,同时集成内置性能优化以最大限度地减少延迟并最大限度地提高吞吐量。此外,我们还展示了 SageMaker 开发人员友好的 Python SDK 如何简化端点编排,从而实现 LLM 支持的应用程序的无缝实验和扩展。

大规模管理 ML 生命周期,第 4 部分:使用安全和治理控制扩展 MLOps

Governing the ML lifecycle at scale, Part 4: Scaling MLOps with security and governance controls

这篇文章提供了设置多账户 ML 平台关键组件的详细步骤。这包括配置 ML 共享服务账户,该账户管理中央模板、模型注册表和部署管道;从中央服务目录共享 ML Admin 和 SageMaker 项目组合;以及设置单独的 ML 开发账户,数据科学家可以在其中构建和训练模型。

使用 AWS Inferentia2 经济高效地微调和托管 SDXL 模型

Fine-tune and host SDXL models cost-effectively with AWS Inferentia2

随着技术的不断发展,新的模型不断涌现,提供更高的质量、更大的灵活性和更快的图像生成功能。StabilityAI 发布的 Stable Diffusion XL (SDXL) 就是这样一种突破性的模型,它将文本到图像的生成 AI 技术推向了前所未有的高度。在这篇文章中,我们演示了如何使用 SageMaker Studio 有效地微调 SDXL 模型。我们展示了如何准备经过微调的模型以在由 AWS Inferentia2 提供支持的 Amazon EC2 Inf2 实例上运行,从而为您的推理工作负载带来卓越的性价比。

使用 Amazon SageMaker JumpStart 上的 NeMo Guardrails 增强 LLM 功能

Enhancing LLM Capabilities with NeMo Guardrails on Amazon SageMaker JumpStart

将 NeMo Guardrails 与大型语言模型 (LLM) 集成是向面向客户的应用程序中部署 AI 的重要一步。AnyCompany Pet Supplies 的示例说明了这些技术如何在处理拒绝和引导对话实现实施结果的同时增强客户互动。这一走向道德 AI 部署的旅程对于与客户建立可持续的、基于信任的关系以及塑造技术与人类价值观无缝契合的未来至关重要。

DeepSeek-R1 模型现已在 Amazon Bedrock Marketplace 和 Amazon SageMaker JumpStart 中推出

DeepSeek-R1 model now available in Amazon Bedrock Marketplace and Amazon SageMaker JumpStart

DeepSeek-R1 是一种先进的大型语言模型,它结合了强化学习、思维链推理和混合专家架构,通过 Amazon Bedrock Guardrails 集成提供高效、可解释的响应,同时保持安全性。

使用 Amazon SageMaker 托管 MLflow 和 FMEval 跟踪 LLM 模型评估

Track LLM model evaluation using Amazon SageMaker managed MLflow and FMEval

在本文中,我们将展示如何使用 FMEval 和 Amazon SageMaker 以编程方式评估 LLM。FMEval 是一个开源 LLM 评估库,旨在为数据科学家和机器学习 (ML) 工程师提供代码优先体验,以评估 LLM 的各个方面,包括准确性、毒性、公平性、稳健性和效率。

使用自定义模型和扩展容器创建 SageMaker 推理终端节点

Create a SageMaker inference endpoint with custom model & extended container

这篇文章将引导您完成使用 NASA 的 Prithvi 模型在 SageMaker 上部署单个自定义模型的端到端过程。Prithvi 模型是 IBM 和 NASA 团队在连续的美国协调 Landsat Sentinel 2 (HLS) 数据上预先训练的首创时间 Vision 转换器。可以使用 mmsegmentation 库对其进行微调以进行图像分割,用于烧伤疤痕检测、洪水测绘和多时间作物分类等用例。

BQA 如何使用 Amazon Bedrock 简化教育质量报告

How BQA streamlines education quality reporting using Amazon Bedrock

教育和培训质量管理局 (BQA) 在提高巴林王国的教育和培训服务质量方面发挥着关键作用。BQA 审查所有教育和培训机构的表现,包括学校、大学和职业学院,从而促进国家人力资本的专业发展。在这篇文章中,我们探讨了 BQA 如何利用 Amazon Bedrock、Amazon SageMaker JumpStart 和其他 AWS 服务的强大功能来简化整体报告工作流程。