在您的计算机上本地运行拥抱脸部模型

使用 Clarifai Local Runners 通过公共 API 在本地运行 Hugging Face 模型。在您自己的硬件上构建、测试和扩展 AI 工作负载。

来源:Clarifai博客 | 实际应用中的人工智能

在您自己的硬件上运行模型

大多数人工智能开发都是从本地开始的。您尝试模型架构,在小型数据集上对其进行微调,然后进行迭代,直到结果看起来有希望为止。但当需要在现实世界的管道中测试模型时,事情很快就会变得复杂。

您通常有两种选择:将模型上传到云端(即使是为了简单的测试),或者设置自己的 API、管理路由、身份验证和安全性,以便在本地运行它。

如果您属于以下情况,这两种方法都效果不佳:

    处理较小或资源有限的项目需要访问本地文件或私有数据构建云访问不可行的边缘或本地环境
  • 从事较小或资源有限的项目
  • 需要访问本地文件或私有数据
  • 构建无法进行云访问的边缘或本地环境
  • 引入 Local Runners - 用于 AI 模型的 ngrok。

    Local Runners 可让您直接从笔记本电脑、工作站或内部服务器通过公共 API 安全、无缝地为 AI 模型、MCP 服务器或代理提供服务。您不需要上传模型或管理任何基础设施。只需在本地运行它,Clarifai 就会负责 API 处理、路由和集成。

    本地跑步者 公共 API

    运行后,Local Runner 会与 Clarifai 的控制平面建立安全连接。发送到模型的任何 API 请求都会路由到您的计算机,在本地进行处理,然后返回到客户端。从外部来看,它的行为类似于 Clarifai 托管的模型,而所有计算都发生在本地硬件上。

    通过本地跑步者,您可以:

  • 在您自己的硬件上运行模型使用笔记本电脑、工作站或本地服务器直接为模型提供服务,并具有对本地 GPU 或系统工具的完全访问权限。
  • 在您自己的硬件上运行模型
  • 保持数据和计算的私密性避免上传任何内容。对于受监管的环境、内部工具或涉及敏感信息的项目很有用。
  • 保持数据和计算的私密性 跳过基础设施设置 快速构建原型并迭代 用户 ID 注意: