真正的价值,实时:使用 Amazon SageMaker 和 Tecton 实现生产 AI

在本文中,我们讨论了 Amazon SageMaker 和 Tecton 如何协同工作以简化可用于生产的 AI 应用程序的开发和部署,尤其是对于欺诈检测等实时用例。通过抽象复杂的工程任务,该集成可以加快价值实现速度,使团队能够专注于构建功能和用例,同时为 ML 模型的离线训练和在线服务提供精简的框架。

来源:亚马逊云科技 _机器学习

本篇文章由 Tecton 的 Isaac Cameron 和 Alex Gnibus 共同撰写。

本篇文章由 Tecton 的 Isaac Cameron 和 Alex Gnibus 共同撰写。

企业面临着展示 AI 用例投资回报率 (ROI) 的压力,无论是预测性机器学习 (ML) 还是生成性 AI。只有 54% 的 ML 原型投入生产,只有 5% 的生成性 AI 用例投入生产。

生成性 AI 投入生产

ROI 不仅仅关乎投入生产 - 它还关乎模型准确性和性能。您需要一个可扩展、可靠的系统,具有高精度和低延迟,用于每毫秒直接影响底线的实时用例。

例如,欺诈检测需要极低的延迟,因为需要在刷信用卡的时间内做出决策。随着欺诈行为的增加,越来越多的组织正在推动实施成功的欺诈检测系统。2023 年,美国全国范围内的欺诈损失超过 100 亿美元,比 2022 年增长 14%。预计到 2027 年,全球电子商务欺诈将超过 3430 亿美元。

欺诈行为不断增加 增长 14%

但是,构建和管理一个准确、可靠的 AI 应用程序以解决这个 3430 亿美元的问题非常复杂。

ML 团队通常从手动拼接不同的基础设施组件开始。对于批量数据来说,这似乎很简单,但是当您需要从批量数据转到合并实时和流数据源,以及从批量推理转到实时服务时,工程变得更加复杂。

实时服务

工程师需要构建和编排数据管道,兼顾每个数据源的不同处理需求,管理计算基础设施,构建可靠的推理服务基础设施等等。如果没有 Tecton 的功能,架构可能如下图所示。

Tecton

使用 Amazon SageMaker 和 Tecton 加速您的 AI 开发和部署

Tecton Amazon SageMaker . Amazon EMR