如何将 MCP 服务器部署为 API 端点

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

来源:Clarifai博客 | 实际应用中的人工智能

TL;DR

MCP 服务器通过标准化协议将 LLM 连接到外部工具和数据源。公共 MCP 服务器通过结构化工具定义提供 Web 搜索、GitHub 访问、数据库查询和浏览器自动化等功能。

这些服务器通常作为长期运行的 stdio 进程运行,响应工具调用请求。为了在应用程序中可靠地使用它们或在团队之间共享它们,需要将它们部署为稳定、可访问的端点。

Clarifai 允许将 MCP 服务器部署为托管端点。该平台运行已配置的 MCP 流程、处理生命周期管理、发现可用工具并通过其 API 公开它们。

本教程将引导您了解如何部署任何公共 MCP 服务器。我们将使用 DuckDuckGo 浏览器服务器作为参考实现。相同的方法适用于其他基于 stdio 的 MCP 服务器,包括 GitHub、Slack 和文件系统集成。

DuckDuckGo 浏览器 MCP 服务器

DuckDuckGo 浏览器 MCP 服务器是一个开源 MCP 实现,它将 Web 搜索功能公开为可调用工具。它允许语言模型通过 MCP 协议执行搜索查询并检索结构化结果。

服务器作为基于 stdio 的进程运行,并提供 ddg_search 等工具来执行 Web 搜索。调用时,该工具会返回结构化搜索结果,法学硕士可以使用这些结果来回答问题或完成需要当前网络信息的任务。

我们使用此服务器作为参考实现,因为它不需要额外的秘密或外部配置。唯一的要求是在 config.yaml 中定义 MCP 命令,这使得我们可以在 Clarifai 上轻松部署和测试。

如果您想使用自己的工具和逻辑从头开始构建自定义 MCP 服务器,本指南将使用 FastMCP 逐步完成该过程。

现在我们已经定义了参考服务器,让我们开始吧。

设置环境

安装 Clarifai Python SDK:

  • 1/model.py:模型类实现