详细内容或原文请订阅后点击阅览
在本地运行Ollama模型,并使它们可以通过公共API
在本地运行Ollama模型,并使它们可以通过公共API
来源:Clarifai博客 | 实际应用中的人工智能简介
运行大型语言模型(LLM)和其他开源模型本地为开发人员提供了重要的优势。这是奥拉马(Ollama)闪耀的地方。 Ollama简化了与基于云的解决方案相比,在本地计算机上下载,设置和运行这些强大模型的过程,从而为您提供更大的控制,增强的隐私和降低的成本。
Ollama虽然在当地运行模型可提供巨大的好处,但将它们与基于云的项目集成或共享它们以进行更广泛的访问可能是一个挑战。这正是Clarifai本地跑步者来的。本地跑步者使您能够通过公共API端点揭露本地运行的Ollama模型,从而可以与任何项目(任何地方)无缝集成,从而有效地弥合了本地环境和云之间的差距。
Clarifai本地跑步者在这篇文章中,我们将详细介绍如何使用Ollama运行开源模型,并使用Clarifai Local跑步者向公共API展示它们。这使您的本地型号在全球范围内可以访问,同时仍完全在计算机上运行。
本地跑步者解释
本地跑步者可让您在自己的计算机上运行模型,无论是笔记本电脑,工作站还是本地服务器,同时通过安全的公共API端点公开它们。您无需将模型上传到云。该模型保持本地,但表现就像在Clarifai上托管。
本地跑步者一旦初始化,本地跑步者将打开一个安全的隧道,以澄清平面。对模型的Clarifai API端点的任何请求都将路由到您的计算机,在本地处理,然后返回到呼叫者。从外部,它的功能与任何其他托管模型一样。在内部,所有内容都在您的硬件上运行。
本地跑步者特别有用: