OpenCode + Ollama 本地部署
OpenCode 最吸引人的特性之一就是能完美支持本地大模型。这意味着你可以在飞机上、高铁上,或者断网的保密机房里写代码。
为什么选择本地部署?
- 零成本:不再需要支付昂贵的 API Token 费用。
- 绝对隐私:你的代码甚至不会离开你的笔记本内存。
- 低延迟:在 M1/M2/M3 Max 芯片上,推理速度往往快于云端接口。
准备工作
1. 安装 Ollama
访问 Ollama 官网 下载并安装。
2. 拉取适合编程的模型
对于中文用户,我们强烈推荐 DeepSeek Coder V2,它的中文理解能力和代码能力都非常出色。
# 拉取模型 (建议至少 16GB 内存)
ollama pull deepseek-coder-v2
# 如果内存较少 (8GB),尝试 Llama 3
ollama pull llama3
接入 OpenCode
我们需要告诉 OpenCode 去连接本地的 Ollama 服务,而不是云端 API。
修改配置文件 ~/.opencode/config.json,或者直接设置环境变量:
export OPENCODE_MODEL_PROVIDER="ollama"
export OPENCODE_BASE_URL="http://localhost:11434/v1"
# 注意:OpenCode 使用 Ollama 的 OpenAI 兼容接口
验证连接
运行诊断命令:
opencode health
如果看到 Model Check: OK (Ollama),说明连接成功。
避坑指南
上下文长度限制
本地模型的默认上下文通常较短(4k 或 8k)。如果 Agent 在读取大文件时报错,需要在 Ollama 中增加上下文窗口。
# 临时运行增加上下文
OLLAMA_NUM_CTX=32000 ollama run deepseek-coder-v2
算力与发热
长时间运行 Agent 进行重构会导致笔记本发热严重。这是正常现象。建议在插电状态下使用。
配置完成之后
现在你的 Agent 已经拥有了“大脑”。 你可以尝试让它阅读复杂的本地代码库,而不用担心 Token 消耗。
下一步:对比 Claude Code 看看它和商业产品还有多大差距。