服务器部署 (Server)
这是什么?
OpenCode Server 是整个系统的核心大脑,负责与 LLM 通信、管理上下文、执行工具调用以及权限控制。虽然普通用户通常使用内置的本地 Server,但你可以将其独立部署在性能更强的服务器或私有云环境中。
什么时候你会用到它?
- 当你希望在公司内部搭建一套共享的 AI 后端,供全员连接使用以节省每个人的本地资源时。
- 当你需要对 AI 的所有输入输出进行中心化的审计和合规检查时。
- 当你希望通过统一的网关来管理对 OpenAI/Anthropic 的 API 调用配额时。
核心概念
- Headless Mode:无 UI 运行模式,仅提供 RPC 接口。
- Transport Layer:客户端与服务端之间的通信协议(通常基于 WebSocket 或 gRPC)。
- Authentication:服务端对连接请求的鉴权机制。
基本用法 / 配置说明
TODO:后续补充 Docker Compose 部署示例
docker-compose up -d opencode-server
常见误解 / 注意事项
- 即使部署了远程 Server,代码文件依然是在开发者的本地机器上被读取的(除非使用了远程开发模式),Server 仅负责逻辑推理。
- 远程部署时务必启用 HTTPS 和强密码认证,防止未授权访问。
延伸阅读
TODO:后续补充