如何使用开源模型运行 OpenClaw

通过替代法学硕士运行 OpenClaw 助手如何使用开源模型运行 OpenClaw 帖子首先出现在 Towards Data Science 上。

来源:走向数据科学

的 Claude Code 订阅为 OpenClaw 提供支持。考虑到 Claude Opus 4.6 的 API 定价非常高,这促使我寻求替代的法学硕士。

我开始测试 OpenAI 的 GPT-5.4,但遇到了模型惰性的挑战。例如,我会要求它执行一项我知道它能够完成的任务,并且经历了几次尝试后模型就放弃了。

对于一个有用的助手来说,这当然是不可接受的,所以我决定开始尝试其他替代方案,并发现了一套中文替代方案:

  • Kimi-K2.5
  • GLM-5.1
  • MiniMax-M2.7
  • Kimi-K2.5 和 GLM 是开源的,而 MiniMax 不是。本文的目的是强调如何使用许多不同的模型运行 OpenClaw,重点介绍如何做到这一点,以及如何使 OpenClaw 助手发挥作用。

    为什么将 OpenClaw 与开源模型结合使用

    我从 Claude Code 转向开源替代方案的主要原因就是成本。 Anthropic 现已阻止 OpenClaw 的订阅层使用,您现在只能通过 API 将 Claude 与 OpenClaw 一起使用。 Claude Opus 4.6 的 API 定价目前为 ,这很快就会增加成本。

    因此,我开始寻找更便宜且仍然提供良好性能的替代解决方案。我首先尝试使用 OpenAI,它有 200 美元的订阅套餐,您可以将其与 OpenClaw 一起使用。然而,我发现LLM相当懒惰,不愿意独立解决问题。很多时候,我在解决新问题时必须为模型提供很多帮助,这在与助手一起工作时显然并不理想。

    如果您现在在网上快速搜索一下最佳 OpenClaw 型号,您可能会得到 Claude Opus 的列表,其次是一些中国型号,例如 Kimi-K2.5。这些模型比 Claude Opus 4.6 便宜很多,Kimi-K2.5 的价格为每百万代币 0.6/3 美元,约为 Claude Opus 4.6 价格的 1/10。

    如何在 OpenClaw 中使用 Kimi-K2.5

    Kimi-K2.5 性能

  • 克劳德作品 4.6
  • GPT-5.4
  • 💌子堆栈