Amazon SageMaker Canvas 模型的无服务器部署

在这篇文章中,我们将介绍如何采用 SageMaker Canvas 中构建的 ML 模型并使用 SageMaker Serverless Inference 进行部署,帮助您快速高效地从模型创建到生产就绪的预测,而无需管理任何基础设施。该解决方案演示了一个完整的工作流程,从将经过训练的模型添加到 SageMaker 模型注册表,到创建无服务器端点配置,再到部署根据需求自动扩展的端点。

来源:亚马逊云科技 _机器学习
将机器学习 (ML) 模型部署到生产中通常是一项复杂且资源密集型的任务,特别是对于没有深厚的 ML 和 DevOps 专业知识的客户而言。 Amazon SageMaker Canvas 通过提供无代码界面简化了模型构建,因此您可以使用现有数据源创建高度准确的 ML 模型,而无需编写任何代码。但建立模型只是旅程的一半;有效且经济高效地部署它同样重要。 Amazon SageMaker Serverless Inference 专为具有可变流量模式和空闲期的工作负载而设计。它根据需求自动配置和扩展基础设施,从而减轻了管理服务器或预配置容量的需要。在这篇文章中,我们将介绍如何采用在 SageMaker Canvas 中构建的 ML 模型并使用 SageMaker Serverless Inference 进行部署。该解决方案可以帮助您快速、高效地从模型创建过渡到生产就绪的预测,而无需管理任何基础设施。解决方案概述为了演示 SageMaker Canvas 训练模型的无服务器终端节点创建,让我们探索示例工作流程:将训练模型添加到 Amazon SageMaker 模型注册表。使用正确的配置创建新的 SageMaker 模型。创建无服务器终端节点 配置。使用创建的模型和端点配置部署无服务器端点。您还可以自动化该过程,如下图所示。在此示例中,我们将预先训练的回归模型部署到无服务器 SageMaker 端点。这样,我们就可以将我们的模型用于不需要实时推理的可变工作负载。先决条件作为先决条件,您必须有权访问 Amazon Simple Storage Service (Amazon S3) 和 Amazon SageMaker AI。如果您的账户中尚未配置 SageMaker AI 域,您还需要创建 SageMaker AI 域的权限。您还必须拥有已训练过的回归或分类模型。您可以训练