Meta SAM 2.1 现已在 Amazon SageMaker JumpStart 中可用

我们很高兴地宣布,Meta 的 Segment Anything Model (SAM) 2.1 视觉分割模型已通过 Amazon SageMaker JumpStart 公开发布,可用于部署和运行推理。Meta SAM 2.1 在单个模型中提供了最先进的视频和图像分割功能。在这篇文章中,我们探讨了 SageMaker JumpStart 如何帮助数据科学家和 ML 工程师发现、访问和部署各种预先训练的 FM 进行推理,包括 Meta 迄今为止最先进、最强大的模型。

来源:亚马逊云科技 _机器学习

本博文由 Meta 的 George Orlin 共同撰写。

本博文由 Meta 的 George Orlin 共同撰写。

今天,我们很高兴地宣布,Meta 的 Segment Anything Model (SAM) 2.1 视觉分割模型已通过 Amazon SageMaker JumpStart 公开发布,可用于部署和运行推理。Meta SAM 2.1 在单个模型中提供了最先进的视频和图像分割功能。这种尖端模型支持长上下文处理、复杂分割场景和细粒度分析,使其成为各种行业流程自动化的理想选择,例如医疗保健中的医学成像、用于环境监测的卫星图像和用于自主系统的对象分割。Meta SAM 2.1 非常适合零样本对象分割和基于简单提示(例如用于视频跟踪和图像遮罩的帧中的点坐标和边界框)的精确对象检测。

分割任何模型 (SAM) 2.1 Amazon SageMaker JumpStart

该模型主要在 AWS 上进行训练,AWS 也将成为第一个向客户提供该模型的云提供商。在这篇文章中,我们将介绍如何使用 SageMaker JumpStart 发现和部署 Meta SAM 2.1 模型。

Meta SAM 2.1 概述

Meta SAM 2.1 是一种最先进的视觉分割模型,专为高性能计算机视觉任务而设计,可实现高级对象检测和分割工作流程。在其前身的基础上,2.1 版引入了增强的分割准确性、跨不同数据集的稳健泛化以及生产级应用程序的可扩展性。这些功能使计算机视觉、图像处理和数据驱动研究领域的 AI 研究人员和开发人员能够改进需要跨多个领域进行详细分析分割的任务。

前身 Amazon SageMaker AI

SageMaker JumpStart 概述

AWS Trainium AWS Inferentia

先决条件

确保您满足以下先决条件才能部署 Meta SAM 2.1 并运行推理:

构建 JumpStart =