Clarifai 12.1:大规模构建可投入生产的 Agentic AI

使用 Clarifai 上的公共 MCP 服务器部署生产代理 AI。包括用于版本化管道存储和管道 UI 改进的工件。可在公共预览版中使用。

来源:Clarifai博客 | 实际应用中的人工智能

这篇博文重点介绍新功能和改进。有关完整列表(包括错误修复),请参阅发行说明。

大规模构建可投入生产的代理 AI

代理人工智能系统正在从研究原型转向生产工作负载。这些系统不仅仅生成响应。它们对多步骤任务进行推理、调用外部工具、与 API 交互并自主执行长时间运行的工作流程。

但生产代理人工智能需要的不仅仅是强大的模型。它需要能够可靠地部署代理、管理它们所依赖的工具、处理复杂工作流程中的状态以及跨云、本地或混合环境进行扩展而无需供应商锁定的基础设施。

Clarifai 的计算编排就是为此而构建的。它提供了基础设施层,可以在任何计算上以任何规模部署任何模型,并具有内置的自动缩放、多环境支持和集中控制。此版本专门针对代理工作负载扩展了这些功能,使构建、部署和管理生产代理 AI 系统变得更加容易。

借助 Clarifai 12.1,您现在可以直接在平台上部署公共 MCP(模型上下文协议)服务器,使代理模型能够访问浏览功能、实时数据和开发人员工具,而无需管理服务器基础设施。结合对自定义 MCP 服务器和代理模型上传的支持,Clarifai 为代理 AI 提供了完整的编排层:从开发到生产部署。

此版本还引入了 Artifacts(一种用于管道生成的文件的版本化存储系统)以及 Pipeline UI 改进,可简化对长时间运行的工作流程的监视和控制。

让我们来了解一下新功能以及如何开始。

为代理 AI 部署公共 MCP 服务器

公共 MCP 服务器如何工作

工作流程如下:

  • 使用 CLI 或 SDK 在 Clarifai 上部署公共 MCP 服务器作为模型
  • 将其连接到支持工具调用和 MCP 集成的代理模型