模型 (Models)

这是什么?

模型配置页面允许你管理 OpenCode 支持的所有大语言模型 (LLM)。你可以配置使用哪些云端模型(如 OpenAI GPT-4, Anthropic Claude 3.5),以及哪些本地模型(如 Llama 3 on Ollama)。

什么时候你会用到它?

  • 当新一代更强大的模型发布(如 GPT-5),你想第一时间接入使用时。
  • 当你需要为不同的任务指定不同的模型(例如:用便宜的模型做代码补全,用昂贵的模型做复杂架构设计)以节省成本时。
  • 当你需要调整模型的参数(如 Temperature, Top P)以控制生成内容的创造性或严谨性时。

核心概念

  • Temperature:控制随机性的参数。值越高(如 0.8),生成的代码越有创意但可能不稳定;值越低(如 0.2),越严谨确定。
  • Context Window:模型能“记住”的上下文长度限制(如 128k tokens)。
  • Fallback Models:当首选模型不可用或报错时,自动降级使用的备选模型。

基本用法 / 配置说明

TODO:后续补充的具体 JSON/YAML 配置示例

常见误解 / 注意事项

  • 并不是参数越大的模型就一定越好,对于简单的代码补全,小模型往往响应速度更快,体验更好。
  • 本地模型的推理速度很大程度上取决于你的显卡性能。

延伸阅读

TODO:后续补充