适用于代理构建者的 Docker AI:模型、工具和云卸载

本文探讨了五种基础架构模式,这些模式使 Docker 成为构建强大、自主的 AI 应用程序的强大基础。

来源:KDnuggets

Docker 的价值

构建自主人工智能系统不再只是促进大型语言模型的发展。现代代理协调多个模型、调用外部工具、管理内存并跨异构计算环境进行扩展。决定成功的不仅是模型质量,还有基础设施设计。

Agentic Docker 代表了我们对该基础设施的看法发生了转变。 Docker 不再将容器视为打包后的想法,而是成为代理系统的可组合骨干。模型、工具服务器、GPU 资源和应用程序逻辑都可以作为统一堆栈进行声明式定义、版本控制和部署。其结果是便携式、可复制的人工智能系统,从本地开发到云生产,其行为始终如一。

本文探讨了五种基础架构模式,这些模式使 Docker 成为构建强大、自主的 AI 应用程序的强大基础。

1. Docker Model Runner:您的本地网关

Docker Model Runner (DMR) 非常适合实验。 DMR 没有为每个模型配置单独的推理服务器,而是提供了一个统一的、与 OpenAI 兼容的应用程序编程接口 (API) 来运行直接从 Docker Hub 拉取的模型。您可以在本地使用强大的 20B 参数模型构建代理原型,然后切换到更轻、更快的模型进行生产 - 所有这些都只需更改代码中的模型名称即可。它将大型语言模型 (LLM) 转变为标准化、可移植的组件。

基本用法:

# 从 Docker Hub 拉取模型

docker 模型拉 ai/smollm2

# 运行一次性查询

docker model run ai/smollm2 “向我解释代理工作流程。”

# 通过 OpenAI Python SDK 使用它从 openai 导入 OpenAI客户端 = OpenAI(base_url =“http://model-runner.docker.internal/engines/llama.cpp/v1”,api_key="不需要")2. 在 Docker Compose 中定义 AI 模型3. Docker 卸载:云计算能力,本地体验4. 模型上下文协议服务器:代理工具5. 用于自定义工作的 GPU 优化基础映像把它们放在一起