SageMaker关键词检索结果

使用Amazon SageMaker AI管理MLFLOF

Use AWS Deep Learning Containers with Amazon SageMaker AI managed MLflow

在这篇文章中,我们展示了如何将AWS DLC与MLFlow集成,以创建一个解决基础结构控制与强大ML治理的解决方案。我们将浏览您的团队可以使用的功能设置,以满足您的专业要求,同时大大减少ML生命周期管理所需的时间和资源。

使用Amazon SageMaker AI和模型上下文协议(MCP)

Enhance AI agents using predictive ML models with Amazon SageMaker AI and Model Context Protocol (MCP)

在这篇文章中,我们通过使用Amazon SageMaker AI和MCP整合预测ML模型来演示如何增强AI代理的功能。通过使用开源链代理SDK和SageMaker AI的灵活部署选项,开发人员可以创建复杂的AI应用程序,将对话性AI与强大的预测分析功能相结合。

使用Amazon SageMaker AI推理组件优化Salesforce的模型端点

Optimizing Salesforce’s model endpoints with Amazon SageMaker AI inference components

在这篇文章中,我们分享了Salesforce AI平台团队如何优化GPU利用率,提高了资源效率并使用Amazon SageMaker AI,特别是推理组件来节省成本。

与SageMaker Unified Studio Projects自动化AIOPS,第2部分:技术实施

Automate AIOps with SageMaker Unified Studio Projects, Part 2: Technical implementation

在这篇文章中,我们专注于通过逐步指导和参考代码实施此体系结构。我们提供了详细的技术演练,以满足AI开发生命周期中两个关键角色的需求:通过自动模板建立治理和基础设施的管理员,以及使用SageMaker Unified Studio用于模型开发的数据科学家,而无需管理基础设施。

来自OpenAI的GPT OSS模型现在可以在SageMaker Jumpstart

GPT OSS models from OpenAI are now available on SageMaker JumpStart

今天,我们很高兴地宣布,来自Amazon Sagemaker Jumpstart的OpenAI,Openai的Open AI开放式AI开放式GPT OSS模型,GPT-OSS-1220B和GPT-SOSS-20B。通过此发布,您现在可以部署Openai的最新推理模型来构建,实验和负责任地扩展您的生成AI想法。在这篇文章中,我们演示了如何在Sagemaker Jumpstart上开始这些模型。

通过Visual Studio Code连接到SageMaker Studio

Supercharge your AI workflows by connecting to SageMaker Studio from Visual Studio Code

AI开发人员和机器学习(ML)工程师现在可以直接从其本地Visual Studio代码(VS代码)直接使用Amazon Sagemaker Studio的功能。借助此功能,您可以使用自定义的本地VS代码设置,包括AI辅助开发工具,自定义扩展和调试工具,同时访问SageMaker Studio中的计算资源和数据。在这篇文章中,我们向您展示如何将本地VS代码连接到SageMaker Studio开发环境,以在访问Amazon SageMaker AI计算资源时使用自定义的开发环境。

通过新的SageMaker AI生成AI工具

Power Your LLM Training and Evaluation with the New SageMaker AI Generative AI Tools

今天,我们很高兴向SageMaker AI客户介绍文本排名和问答模板。在这篇博客文章中,我们将引导您介绍如何在萨格人中设置这些模板,以创建用于培训大型语言模型的高质量数据集。

Gemma 3 27B model now available on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart

Gemma 3 27B model now available on Amazon Bedrock Marketplace and Amazon SageMaker JumpStart

我们很高兴地宣布,通过亚马逊基岩市场和亚马逊Sagemaker Jumpstart宣布Gemma 3 27B指示模型。在这篇文章中,我们向您展示了如何开始使用Amazon Bedrock Marketplace和SageMaker Jumpstart上的Gemma 3 27B指令,以及如何在应用程序中使用模型强大的指令遵循功能。

使用Amazon SageMaker大型推理容器V15

Supercharge your LLM performance with Amazon SageMaker Large Model Inference container v15

今天,我们很高兴地宣布,由VLLM 0.8.4驱动的Amazon Sagemaker大型推理(LMI)容器V15的推出,并支持VLLM V1发动机。该版本引入了显着的性能提高,扩展的模型兼容性与多模态(即能够理解和分析文本到文本,图像到文本和文本映射数据),并与VLLM提供内置的集成,以帮助您无人接缝和最高绩效的大型性能(LLMS)具有最高的性能。

Amazon SageMaker Jumpstart在私人模型中添加了对模型的微调支持

Amazon SageMaker JumpStart adds fine-tuning support for models in a private model hub

今天,我们宣布了一项增强的私人枢纽功能,并具有几种新功能,可为组织提供更大的控制权。这些增强功能包括直接在私人枢纽内微调SageMaker JumpStart模型的能力,支持和管理定制训练的模型,为关联笔记本电脑的深层链接功能以及改进的模型版本管理。

MISTRAL-SMALL-24B-INSTRUCT-2501现在可以在SageMaker Jumpstart和Amazon Bedrock Marketplace

Mistral-Small-24B-Instruct-2501 is now available on SageMaker Jumpstart and Amazon Bedrock Marketplace

我们很高兴地宣布,Mistral-Small-24B-Instruct-2501-来自Mistral AI的240亿个参数大语言模型(LLM),可针对低延迟文本生成任务进行优化 - 可以通过Amazon Sagemaker Jumpstartand Jumpstartand Amazon Bedrock Marketplace提供客户。在这篇文章中,我们介绍如何发现,部署和使用Mistral-Small-24B-Instruct-2501。

使用 Amazon SageMaker AI 上的 Medusa-1 将 LLM 推理速度提高约 2 倍

Achieve ~2x speed-up in LLM inference with Medusa-1 on Amazon SageMaker AI

研究人员开发了 Medusa,这是一个通过添加额外头来同时预测多个标记以加快 LLM 推理速度的框架。这篇文章演示了如何使用框架的第一个版本 Medusa-1 通过在 Amazon SageMaker AI 上对其进行微调来加速 LLM,并通过部署和简单的负载测试确认了加速效果。Medusa-1 在不牺牲模型质量的情况下实现了约两倍的推理加速,具体改进取决于模型大小和使用的数据。在这篇文章中,我们通过在样本数据集上观察到 1.8 倍的加速来证明其有效性。

Meta SAM 2.1 现已在 Amazon SageMaker JumpStart 中可用

Meta SAM 2.1 is now available in Amazon SageMaker JumpStart

我们很高兴地宣布,Meta 的 Segment Anything Model (SAM) 2.1 视觉分割模型已通过 Amazon SageMaker JumpStart 公开发布,可用于部署和运行推理。Meta SAM 2.1 在单个模型中提供了最先进的视频和图像分割功能。在这篇文章中,我们探讨了 SageMaker JumpStart 如何帮助数据科学家和 ML 工程师发现、访问和部署各种预先训练的 FM 进行推理,包括 Meta 迄今为止最先进、最强大的模型。

Falcon 3 模型现已在 Amazon SageMaker JumpStart 中可用

Falcon 3 models now available in Amazon SageMaker JumpStart

我们很高兴地宣布,TII 的 Falcon 3 系列模型已在 Amazon SageMaker JumpStart 中推出。在本文中,我们将探讨如何在 Amazon SageMaker AI 上高效部署此模型。

使用 DeepSeek-R1、CrewAI 和 Amazon SageMaker AI 构建代理式 AI 解决方案

Build agentic AI solutions with DeepSeek-R1, CrewAI, and Amazon SageMaker AI

在这篇文章中,我们将演示如何将 DeepSeek-R1 等 LLM(或您选择的其他 FM)从 SageMaker JumpStart 或 Hugging Face Hub 等热门模型中心部署到 SageMaker AI 进行实时推理。我们探索了 Hugging Face TGI 等推理框架,它有助于简化部署,同时集成内置性能优化以最大限度地减少延迟并最大限度地提高吞吐量。此外,我们还展示了 SageMaker 开发人员友好的 Python SDK 如何简化端点编排,从而实现 LLM 支持的应用程序的无缝实验和扩展。

使用 Amazon SageMaker JumpStart 上的 NeMo Guardrails 增强 LLM 功能

Enhancing LLM Capabilities with NeMo Guardrails on Amazon SageMaker JumpStart

将 NeMo Guardrails 与大型语言模型 (LLM) 集成是向面向客户的应用程序中部署 AI 的重要一步。AnyCompany Pet Supplies 的示例说明了这些技术如何在处理拒绝和引导对话实现实施结果的同时增强客户互动。这一走向道德 AI 部署的旅程对于与客户建立可持续的、基于信任的关系以及塑造技术与人类价值观无缝契合的未来至关重要。

DeepSeek-R1 模型现已在 Amazon Bedrock Marketplace 和 Amazon SageMaker JumpStart 中推出

DeepSeek-R1 model now available in Amazon Bedrock Marketplace and Amazon SageMaker JumpStart

DeepSeek-R1 是一种先进的大型语言模型,它结合了强化学习、思维链推理和混合专家架构,通过 Amazon Bedrock Guardrails 集成提供高效、可解释的响应,同时保持安全性。

使用 Amazon SageMaker 托管 MLflow 和 FMEval 跟踪 LLM 模型评估

Track LLM model evaluation using Amazon SageMaker managed MLflow and FMEval

在本文中,我们将展示如何使用 FMEval 和 Amazon SageMaker 以编程方式评估 LLM。FMEval 是一个开源 LLM 评估库,旨在为数据科学家和机器学习 (ML) 工程师提供代码优先体验,以评估 LLM 的各个方面,包括准确性、毒性、公平性、稳健性和效率。