详细内容或原文请订阅后点击阅览
Clarifai 12.0:为长时间运行的 AI 工作流程引入管道
Clarifai 12.0 添加了用于异步 AI 工作流程的管道,以及跨节点池的模型路由和具有 MCP 支持的代理功能。
来源:Clarifai博客 | 实际应用中的人工智能这篇博文重点介绍新功能和改进。有关完整列表(包括错误修复),请参阅发行说明。
Clarifai 的计算编排允许您在自己的计算上部署模型,控制它们的扩展方式,并决定跨集群和节点池运行推理的位置。
随着人工智能系统超越单一推理调用,转向长时间运行的任务、多步骤工作流程和代理驱动的执行,编排需要做的不仅仅是启动容器。它需要随着时间的推移管理执行、处理故障并在计算中智能地路由流量。
此版本建立在该基础之上,为长期运行的管道、跨节点池和环境的模型路由以及使用模型上下文协议 (MCP) 的代理模型执行提供本机支持。
引入长期运行、多步骤 AI 工作流程的管道
人工智能系统不会因推理而中断。当工作流程跨越多个步骤、运行数小时或需要从故障中恢复时,它们就会中断。
如今,团队依靠拼接脚本、cron 作业和队列工作人员来管理这些工作流程。随着代理工作负载和 MLOps 管道变得越来越复杂,此设置变得难以操作、调试和扩展。
在 Clarifai 12.0 中,我们引入了 Pipelines,这是一种直接在 Clarifai 平台上定义、运行和管理长期运行的多步骤 AI 工作流程的原生方法。
为什么选择管道
大多数人工智能平台都针对短期推理调用进行了优化。但实际的生产工作流程看起来非常不同:
跨越工具、模型和外部 API 的多步骤代理逻辑
长时间运行的作业,例如批处理、微调或评估
需要可重复性、版本控制和控制的端到端 MLOps 工作流程
管道是为了处理此类问题而构建的。
每个管道都经过版本控制、可重现,并在 Clarifai 托管的计算上执行,让您能够精细控制复杂的 AI 工作流程的大规模运行方式。
管道如何工作
初始化管道项目
上传管道
运行管道
