Clarifai 12.0:为长时间运行的 AI 工作流程引入管道

Clarifai 12.0 添加了用于异步 AI 工作流程的管道,以及跨节点池的模型路由和具有 MCP 支持的代理功能。

来源:Clarifai博客 | 实际应用中的人工智能

这篇博文重点介绍新功能和改进。有关完整列表(包括错误修复),请参阅发行说明。

Clarifai 的计算编排允许您在自己的计算上部署模型,控制它们的扩展方式,并决定跨集群和节点池运行推理的位置。

随着人工智能系统超越单一推理调用,转向长时间运行的任务、多步骤工作流程和代理驱动的执行,编排需要做的不仅仅是启动容器。它需要随着时间的推移管理执行、处理故障并在计算中智能地路由流量。

此版本建立在该基础之上,为长期运行的管道、跨节点池和环境的模型路由以及使用模型上下文协议 (MCP) 的代理模型执行提供本机支持。

引入长期运行、多步骤 AI 工作流程的管道

人工智能系统不会因推理而中断。当工作流程跨越多个步骤、运行数小时或需要从故障中恢复时,它们就会中断。

如今,团队依靠拼接脚本、cron 作业和队列工作人员来管理这些工作流程。随着代理工作负载和 MLOps 管道变得越来越复杂,此设置变得难以操作、调试和扩展。

在 Clarifai 12.0 中,我们引入了 Pipelines,这是一种直接在 Clarifai 平台上定义、运行和管理长期运行的多步骤 AI 工作流程的原生方法。

为什么选择管道

大多数人工智能平台都针对短期推理调用进行了优化。但实际的生产工作流程看起来非常不同:

跨越工具、模型和外部 API 的多步骤代理逻辑

长时间运行的作业,例如批处理、微调或评估

需要可重复性、版本控制和控制的端到端 MLOps 工作流程

管道是为了处理此类问题而构建的。

每个管道都经过版本控制、可重现,并在 Clarifai 托管的计算上执行,让您能够精细控制复杂的 AI 工作流程的大规模运行方式。

管道如何工作

初始化管道项目

上传管道

运行管道