Skip to content

Part 6: 模型配置

国产模型配置

Chinese Models

用不了 Anthropic Claude?或者想省钱?国产模型完全可以驱动 OpenClaw。国产模型是 OpenClaw 用户省钱的核心武器——DeepSeek-V3.2.2 的输入价格仅为 Claude Sonnet 的 1/20。所有国产模型统一通过 OpenAI 兼容 API 接入,配置方法一致。

DeepSeek

性价比之王。DeepSeek-V3.2.2是当前稳定版(2025年12月发布),输入价格仅$0.14/M tokens。2026年3月初DeepSeek V4已发布(万亿参数级,支持100万Token上下文),旗舰版正在逐步放量。

模型输入 /1M输出 /1M定位
DeepSeek-V4(最新)待定待定万亿参数旗舰,100万上下文
DeepSeek-V3.2.2(deepseek-chat)$0.14$0.28当前稳定版,极致低价
DeepSeek-R1(deepseek-reasoner)$0.55~0.70$2.19~2.50深度推理

配置方式(自定义Provider)

json
{
  "env": { "DEEPSEEK_API_KEY": "sk-xxx" },
  "models": {
    "mode": "merge",
    "providers": {
      "deepseek": {
        "baseUrl": "https://api.deepseek.com/v1",
        "apiKey": "${DEEPSEEK_API_KEY}",
        "api": "openai-completions",
        "models": [
          { "id": "deepseek-chat", "contextWindow": 128000, "maxTokens": 8192 },
          { "id": "deepseek-reasoner", "contextWindow": 128000, "maxTokens": 8192 }
        ]
      }
    }
  }
}

注意

DeepSeek高峰期偶有延迟甚至不可用,不建议作为唯一Provider。务必搭配Fallback模型兜底。

智谱GLM

国产模型中代码能力最强的选择。GLM-5在SWE-bench上拿到了开源模型最高分,价格仅$0.80/M输入。更妙的是,OpenClaw内置了zai Provider,配置极为简单。

模型输入 /1M输出 /1M定位
GLM-5$0.80$2.56最新旗舰,代码能力强
GLM-4.5$0.60$2.20上一代主力
GLM-4.7-Flash免费免费轻量免费
GLM-4.5-Flash免费免费轻量免费

配置方式(内置支持)

bash
# CLI快速配置
openclaw onboard --auth-choice zai-api-key
json
{
  "env": { "ZAI_API_KEY": "sk-xxx" },
  "agents": {
    "defaults": {
      "model": { "primary": "zai/glm-5" }
    }
  }
}

注意:z.ai/*z-ai/* 前缀会自动转换为 zai/*

核心建议

GLM Flash系列完全免费,非常适合用于心跳任务和简单对话。把免费模型用在低价值任务上,把预算留给真正需要强模型的场景。

通义千问 Qwen

Qwen 3.5是阿里2026年2月发布的最新版本(397B总参数/17B激活,MoE架构,已开源)。代码专用的Qwen3.5-Coder性价比极高。

模型输入 /1M输出 /1M定位
Qwen 3.5 Max$1.20$6.00旗舰模型(397B-A17B)
Qwen 3.5 Plus$0.40$1.20主力平衡
Qwen 3.5 Coder$0.22$1.00代码专用,性价比极高
Qwen 3.5 8B$0.05$0.40轻量低成本

配置方式(插件 + OAuth)

bash
# 通过插件接入,OAuth设备码认证(无需API Key)
openclaw plugins enable qwen-portal-auth
openclaw gateway restart
openclaw models auth login --provider qwen-portal --set-default

模型ID:qwen-portal/coder-modelqwen-portal/vision-model。每日2,000次免费请求。

阿里云百炼平台也提供 Coding Plan 月费方案,可搭配阿里云一键部署直接对接。

豆包 Doubao

模型输入 /1M输出 /1M定位
Seed 2.0 Pro$0.47$2.37旗舰推理,对标GPT-5.2
Doubao 1.5 Pro-32k$0.11通用对话,极致低价
Doubao 1.5 Lite-32k$0.042最便宜的选择之一

配置方式(自定义Provider)

json
{
  "env": { "DOUBAO_API_KEY": "xxx" },
  "models": {
    "mode": "merge",
    "providers": {
      "doubao": {
        "baseUrl": "https://ark.cn-beijing.volces.com/api/v3",
        "apiKey": "${DOUBAO_API_KEY}",
        "api": "openai-completions",
        "models": [
          { "id": "doubao-seed-2.0-pro", "contextWindow": 128000, "maxTokens": 4096 }
        ]
      }
    }
  }
}

Kimi(月之暗面)

Kimi K2.5 是月之暗面最新的旗舰模型,支持 256K 上下文,擅长长文档理解。OpenClaw 从 2026.2.3 版本起全面支持 Kimi K2.5 的原生选择。

模型输入 /1M输出 /1M定位
Kimi K2.5$0.60$3.00最新旗舰
Kimi K2 0905$0.39$1.90性价比版

快速连接指南(Onboard 向导)

如果你是新安装 OpenClaw,可以在 onboard 向导中直接选择 Kimi:

  1. 安装/升级 OpenClaw(强烈建议 2026.2.3 及以上版本):
    bash
    curl -fsSL https://openclaw.ai/install.sh | bash
  2. 运行 onboard 向导,选择 QuickStart 模式。
  3. 选择 Model/auth provider → 选择 Moonshot AI (Kimi K2.5)
  4. 选择 auth method → 选择 Kimi API key (.cn)(国内用户)。
  5. 输入 API Key → 粘贴你的 Moonshot API Key。
  6. 确认默认模型 → 保持 moonshot/kimi-k2.5
  7. 其余配置保持默认即可,Gateway Port 默认 18789。

获取 API Key

在 Kimi 开放平台注册账号,完成组织认证可获得 15 元免费代金券。建议充值 50 元以上升级到 tier1,获得更流畅的使用体验。

手动配置方式

json
{
  "env": { "MOONSHOT_API_KEY": "sk-xxx" },
  "models": {
    "mode": "merge",
    "providers": {
      "moonshot": {
        "baseUrl": "https://api.moonshot.cn/v1",
        "apiKey": "${MOONSHOT_API_KEY}",
        "api": "openai-completions",
        "models": [
          { "id": "kimi-k2.5", "contextWindow": 256000, "maxTokens": 8192 }
        ]
      }
    }
  }
}

也可通过OpenRouter接入:openrouter/moonshotai/kimi-k2.5

百度文心

文心5.0于2026年1月22日发布(2.4万亿参数,原生全模态,激活参数比<3%)。

模型输入价格输出价格定位
文心 5.0~$0.58/M~$1.16/M最新旗舰(2.4万亿参数)
ERNIE Speed免费免费轻量
ERNIE Lite免费免费最轻量

注意

百度API格式与OpenAI不完全兼容,需要通过one-api等中转工具适配。在OpenClaw社区中存在感最低,配置复杂度最高。如果没有特别的百度云生态绑定,建议优先选择其他国产模型。

MiniMax

MiniMax M2.5(230B参数)在SWE-Bench上得分80.2%,代码能力突出。OpenClaw 对 MiniMax 有原生 onboard 支持,也提供 Code Plan 包月套餐(29元/月起)。

模型输入 /1M输出 /1M定位
MiniMax M2.5$0.50$2.00旗舰,SWE-bench 80.2%
MiniMax M2.1通用对话、日常任务

快速连接指南(Onboard 向导)

  1. 安装/升级 OpenClaw
    bash
    curl -fsSL https://openclaw.ai/install.sh | bash
  2. 运行 onboard 向导,选择 QuickStart 模式。
  3. 选择 Model/auth provider → 选择 MiniMax
  4. 选择 MiniMax auth method → 选择 MiniMax
  5. 输入 MiniMax API Key → 粘贴你的 API Key。
  6. 其余配置保持默认,Gateway Port 默认 18789。

国内用户注意 .cn 与 .io 端点

onboard 向导默认使用 MiniMax 海外版 API(api.minimax.io)。国内用户需要在完成向导后将 baseUrl 修改为国内端点 https://api.minimaxi.com/anthropic,并确保 authHeader: true 存在。可通过编辑配置文件或 Web UI(Config → models → baseUrl)完成修改。

手动配置方式(国内端点)

json
{
  "env": { "MINIMAX_API_KEY": "xxx" },
  "models": {
    "mode": "merge",
    "providers": {
      "minimax": {
        "baseUrl": "https://api.minimaxi.com/anthropic",
        "apiKey": "${MINIMAX_API_KEY}",
        "api": "anthropic-messages",
        "authHeader": true,
        "models": [
          {
            "id": "MiniMax-M2.1",
            "name": "MiniMax M2.1",
            "reasoning": false,
            "input": ["text"],
            "cost": {
              "input": 15,
              "output": 60,
              "cacheRead": 2,
              "cacheWrite": 10
            },
            "contextWindow": 200000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

海外用户使用 https://api.minimax.io/anthropic 作为 baseUrl。也可以通过 Web UI 修改:启动 Gateway 后访问 http://127.0.0.1:18789,进入 Config → models,修改 baseUrl 并打开 Auth Header 开关,保存并 Update。

国产模型选型速查

快速建议

  • 先用 MiniMax 或通义千问上手,体验够用后按需升级。
  • 日常对话:MiniMax M2.1 或 Qwen 3.5 Plus,性价比高。
  • 代码任务:GLM-4.7-Flash(免费)或 Qwen 3.5 Coder。
  • 复杂推理:DeepSeek R1。
  • 心跳/自检:用最便宜的模型(GLM Flash 免费,或 Doubao Lite)。
  • 长文档理解:Kimi K2.5(256K 上下文)。

成本对比一览

方案月费估算(中等使用量)
Anthropic Claude Opus¥300-1000+
Anthropic Claude Sonnet¥50-200
MiniMax M2.1 Code Plan¥29-119
Kimi K2.5¥49-199
阿里云百炼 Coding Plan固定月费
DeepSeek V3¥5-20
GLM-4.7 Flash免费

多模型路由(进阶)

可以配置不同任务用不同模型,省钱又高效:

  • 主对话:MiniMax M2.1 或 Qwen 3.5 Max
  • 代码任务:GLM-4.7-Flash 或 Qwen 3.5 Coder
  • Heartbeat 自检:最便宜的模型(GLM Flash 免费)
  • 复杂推理:DeepSeek R1

聚合平台:一个API Key调多个模型

硅基流动 SiliconFlow(国内首选)

国内最大的模型聚合平台,一个API调用多个开源模型,延迟低,有免费额度。

json
{
  "env": { "SILICONFLOW_API_KEY": "sk-xxx" },
  "models": {
    "mode": "merge",
    "providers": {
      "siliconflow": {
        "baseUrl": "https://api.siliconflow.cn/v1",
        "apiKey": "${SILICONFLOW_API_KEY}",
        "api": "openai-completions",
        "models": [
          { "id": "Pro/deepseek-ai/DeepSeek-V3.2", "contextWindow": 128000, "maxTokens": 8192 },
          { "id": "Pro/zai-org/GLM-5", "contextWindow": 128000, "maxTokens": 8192 }
        ]
      }
    }
  }
}
bash
# 设置默认模型
openclaw config set agents.defaults.model.primary siliconflow/Pro/zai-org/GLM-5

OpenRouter(国际首选)

290+模型,OpenClaw内置支持,但有5.5%平台费。

bash
openclaw onboard --auth-choice apiKey --token-provider openrouter --token "$OPENROUTER_API_KEY"
# 模型ID格式:openrouter/provider/model
# openrouter/deepseek/deepseek-chat
# openrouter/openrouter/auto(自动选择最优模型)

one-api / new-api(自建方案)

开源API管理工具,自建网关,统一管理多个API Key,支持负载均衡和故障转移。适合团队使用。

注意

中转服务必须支持OpenAI的Responses API(/v1/responses 路径),不仅仅是Chat Completions API。部分旧版中转工具不支持此接口。

Coding Plan 包月套餐对比

2026年,国内主要AI厂商和云平台纷纷推出了面向AI编程工具(OpenClaw、Cursor、Claude Code等)的Coding Plan包月套餐。相比按量付费的API,包月套餐的优势是成本可预期、无需管理API Key余额,尤其适合个人开发者和轻度到中度使用者。

厂商自营 Coding Plan

厂商套餐档位月费模型特色/限制
智谱GLMLite~49元GLM-4.7MCP联网100次/月
智谱GLMPro~80元GLM-4.7速度快40-60%,MCP 1000次/月
智谱GLMMax~160元GLM-4.7 + GLM-5唯一含GLM-5,MCP 4000次/月
KimiAndante49元Kimi K2.5基础档,Token计量
KimiModerato99元Kimi K2.5中档
KimiAllegretto199元Kimi K2.5每5小时100-500次请求
MiniMaxStarter29元M2.5无每周限额,性价比最高
MiniMaxStandard49元M2.5年付省17%
MiniMaxPremium119元M2.5重度用户

云平台聚合 Coding Plan

云平台方案的最大优势是一个套餐包含多家模型,可自由切换。

平台档位原价/月首月优惠包含模型用量
阿里云百炼Lite40元7.9元Qwen + GLM + Kimi + MiniMax~18,000次/月
阿里云百炼Pro200元39.9元同上~90,000次/月
腾讯云Lite40元7.9元混元2.0 + GLM-5 + Kimi K2.5 + M2.5每5h ~1,200次
腾讯云Pro200元39.9元同上每5h ~6,000次
火山引擎Lite40元8.91元豆包Code + GLM-4.7 + DeepSeek-V3.2.2 + Kimi每5h ~1,200次
火山引擎Pro200元44.91元同上每5h ~6,000次

Coding Plan 选型建议

核心建议

  • 首月体验(7.9元起):阿里云百炼或腾讯云 Lite 档,首月仅7.9元,包含4家模型自由切换,是零风险的入门方式。
  • 长期性价比:MiniMax Starter(29元/月)无每周限额,M2.5代码能力强;如果需要多模型切换,云平台续费5折(约20元/月)也很划算。
  • 追求最强单模型:智谱Max(160元/月)是目前唯一包含GLM-5的自营套餐;腾讯云也新增了GLM-5支持。
  • 重度用户:Coding Plan普遍有频率限制(每5小时N次),如果你需要高频调用,建议直接使用API按量付费,搭配Fallback链控制成本。

注意

注意Coding Plan的限制:智谱2026年2月已涨价30%并取消首购优惠,有周限制机制;Kimi仅限个人使用、禁止企业开发;大部分云平台套餐次月续费为5折而非原价。购买前务必确认续费价格。

基于 MIT 许可发布 | OpenClaw 入门到精通 | 内容自动更新