Skip to content

Part 6: 模型配置

本地模型与推荐方案

Local Models & Recommendations

完全免费,完全离线,完全隐私。代价是需要硬件投入,能力上限受限。

Ollama

最流行的本地模型运行方案,完全免费,OpenClaw能自动发现已安装的模型。

bash
# 1. 安装Ollama后拉取模型
ollama pull qwen2.5:32b
ollama pull deepseek-r1:14b
# 2. 设置环境变量(任意值即可)
bash
OLLAMA_API_KEY=ollama-local
# 3. OpenClaw自动发现支持工具调用的本地模型

注意

不要使用 /v1 OpenAI兼容URL,会导致工具调用异常。让OpenClaw使用原生Ollama API URL进行自动发现。冷启动有延迟,建议保持模型加载状态。

LM Studio

有GUI界面的本地模型方案,使用Llama.cpp后端,原始性能更好。工具调用在流式模式下比Ollama更稳定。OpenClaw创始人Peter Steinberger个人使用LM Studio作为本地后端。

json
{
  "models": {
    "mode": "merge",
    "providers": {
      "lmstudio": {
        "baseUrl": "http://127.0.0.1:1234/v1",
        "apiKey": "lm-studio",
        "api": "openai-responses",
        "models": [
          { "id": "model-name", "contextWindow": 32768, "maxTokens": 8192 }
        ]
      }
    }
  }
}

推荐本地模型

模型参数量推荐场景最低内存
Qwen3.5-Coder:32B32B代码生成、Agent任务32GB RAM
Devstral-24B24BAgent/工具调用32GB RAM
Qwen 2.5:32B32B通用任务32GB RAM
DeepSeek-R1:14B14B推理任务16GB RAM
Llama 3.38B-70B通用任务16-64GB RAM

硬件要求速查:运行3-7B参数模型最低需要16GB RAM。运行32B参数模型推荐32GB RAM。如果有NVIDIA/Apple Silicon GPU会显著加速推理。

五套推荐方案

方案一:极致省钱(月均<$5)

  • 主力:DeepSeek-V3.2($0.14/$0.28)
  • 备选:Qwen 3.5 Plus($0.40/$1.20)
  • 心跳/Cron:GLM-4.5-Flash(免费)
  • 推理任务:DeepSeek-R1($0.55/$2.19)

适合:个人开发者、学习探索。风险:DeepSeek高峰期延迟,需Fallback兜底。

方案二:国产性价比(月均$5-15)

  • 主力:GLM-5($0.80/$2.56)
  • 备选:DeepSeek-V3.2($0.14/$0.28)
  • 推理增强:Kimi K2.5($0.60/$3.00)
  • 简单任务:GLM-4.5-Flash(免费)

适合:国内用户,追求中文体验和稳定性。GLM-5代码能力强,延迟低。

方案三:国际平衡(月均$10-30)

  • 主力:Claude Sonnet 4.6($3.00/$15.00)
  • 轻量:Claude Haiku 4.5 或 Gemini Flash
  • 复杂任务:Claude Opus 4.6(按需升级)
  • 心跳/Cron:Gemini Flash(免费额度)

适合:追求Agent效果最优、预算充足。Claude在Agent/工具调用场景效果最好。

方案四:混合最优(月均$5-20,推荐)

  • 复杂任务:Claude Sonnet 4.6
  • 日常对话:DeepSeek-V3.2
  • 心跳/定时:Gemini Flash 或本地 Ollama
  • Fallback链:Sonnet → Haiku → DeepSeek-V3.2

大多数用户的最佳选择。兼顾效果和成本,Fallback机制自动处理限速。

json
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-sonnet-4-6",
        "fallbacks": [
          "anthropic/claude-haiku-4-5",
          "deepseek/deepseek-chat"
        ]
      }
    }
  }
}

方案五:完全免费

  • 选项A:本地 Ollama + Qwen3.5-Coder:32B 或 Devstral-24B(需32GB RAM)
  • 选项B:免费API组合 — GLM-4.5-Flash + ERNIE Speed + Gemini Flash

适合:隐私敏感、纯实验用途。本地方案需要较好的硬件。

价格速查排行(输入价格 /1M tokens)

#模型输入输出一句话评价
Ollama / LM Studio免费免费仅消耗本地算力
GLM Flash / ERNIE Speed免费免费云端免费tier
1Doubao 1.5 Lite-32k$0.042最便宜云端对话
2Qwen3 8B$0.05$0.40轻量低成本
3DeepSeek-V3.2$0.14$0.28性价比之王
4Qwen3 Coder 480B$0.22$1.00代码专用性价比
5Qwen 3.5 Plus$0.40$1.20平衡之选
6Doubao Seed 2.0 Pro$0.47$2.37国产旗舰
7Gemini 3 Flash$0.50$3.00国际低价
8Kimi K2.5$0.60$3.00中文旗舰
9GLM-5$0.80$2.56国产代码最强
10Claude Haiku 4.5$1.00$5.00国际轻量
11Gemini 3 Pro$2.00$12.00Google旗舰
12GPT-5.4$2.50$15.00OpenAI旗舰
13Claude Sonnet 4.6$3.00$15.00Agent效果最佳
14Claude Opus 4.6$5.00$25.00最强也最贵

配置要点速查

操作命令/配置
引导式配置openclaw onboard
查看已配置模型openclaw models list
测试连通性openclaw models status --probe
设置主力模型openclaw config set agents.defaults.model.primary provider/model
添加Fallback编辑 openclaw.jsonfallbacks 数组
重启网关openclaw gateway restart(改配置后必须执行)
环境变量引用配置中用 "${VAR_NAME}" 引用 env 中的变量

基于 MIT 许可发布 | OpenClaw 入门到精通 | 内容自动更新