模型 (Models)
这是什么?
模型配置页面允许你管理 OpenCode 支持的所有大语言模型 (LLM)。你可以配置使用哪些云端模型(如 OpenAI GPT-4, Anthropic Claude 3.5),以及哪些本地模型(如 Llama 3 on Ollama)。
什么时候你会用到它?
- 当新一代更强大的模型发布(如 GPT-5),你想第一时间接入使用时。
- 当你需要为不同的任务指定不同的模型(例如:用便宜的模型做代码补全,用昂贵的模型做复杂架构设计)以节省成本时。
- 当你需要调整模型的参数(如 Temperature, Top P)以控制生成内容的创造性或严谨性时。
核心概念
- Temperature:控制随机性的参数。值越高(如 0.8),生成的代码越有创意但可能不稳定;值越低(如 0.2),越严谨确定。
- Context Window:模型能“记住”的上下文长度限制(如 128k tokens)。
- Fallback Models:当首选模型不可用或报错时,自动降级使用的备选模型。
基本用法 / 配置说明
TODO:后续补充的具体 JSON/YAML 配置示例
常见误解 / 注意事项
- 并不是参数越大的模型就一定越好,对于简单的代码补全,小模型往往响应速度更快,体验更好。
- 本地模型的推理速度很大程度上取决于你的显卡性能。
延伸阅读
TODO:后续补充