详细内容或原文请订阅后点击阅览
在旧笔记本电脑上运行 Qwen3.5:轻量级本地代理 AI 设置指南
使用 Ollama 和 OpenCode 将老化的笔记本电脑变成私人 AI 工作区,进行本地编码、测试和实验。
来源:KDnuggets简介
在本地运行性能最佳的人工智能模型不再需要高端工作站或昂贵的云设置。借助轻量级工具和更小的开源模型,您现在甚至可以将旧笔记本电脑转变为实用的本地 AI 环境,用于编码、实验和代理式工作流程。
在本教程中,您将学习如何使用 Ollama 在本地运行 Qwen3.5 并将其连接到 OpenCode 以创建简单的本地代理设置。我们的目标是让一切变得简单、易于访问且对初学者友好,这样您就可以获得一个可用的本地人工智能助手,而无需处理复杂的堆栈。
安装 Ollama
第一步是安装 Ollama,这使得您可以轻松地在计算机上本地运行大型语言模型。
如果您使用的是 Windows,您可以直接从 Windows 上的官方下载 Ollama 页面下载 Ollama 并像任何其他应用程序一样安装它,或者在 PowerShell 中运行以下命令:
irm https://ollama.com/install.ps1 | iex
Ollama 下载页面还包括 Linux 和 macOS 的安装说明,因此如果您使用不同的操作系统,可以按照其中的步骤进行操作。
安装完成后,您就可以启动 Ollama 并拉取您的第一个本地模型。
开始奥拉玛
在大多数情况下,Ollama 在安装后会自动启动,尤其是在您第一次启动它时。这意味着在本地运行模型之前您可能不需要执行任何其他操作。
如果 Ollama 服务器尚未运行,您可以使用以下命令手动启动它:
本地运行 Qwen3.5
一旦 Ollama 运行,下一步就是在您的计算机上下载并启动 Qwen3.5。
如果您访问 Ollama 中的 Qwen3.5 模型页面,您将看到多种模型尺寸,从较大的变体到更小、更轻量的选项。
要从终端下载并运行模型,请使用以下命令:
安装 OpenCode
在终端中运行以下命令:
curl -fsSL https://opencode.ai/install | bashbash
