Part 6: 模型配置
国产模型配置
Chinese Models
用不了 Anthropic Claude?或者想省钱?国产模型完全可以驱动 OpenClaw。国产模型是 OpenClaw 用户省钱的核心武器——DeepSeek-V3.2.2 的输入价格仅为 Claude Sonnet 的 1/20。所有国产模型统一通过 OpenAI 兼容 API 接入,配置方法一致。
DeepSeek
性价比之王。DeepSeek-V3.2.2是当前稳定版(2025年12月发布),输入价格仅$0.14/M tokens。2026年3月初DeepSeek V4已发布(万亿参数级,支持100万Token上下文),旗舰版正在逐步放量。
| 模型 | 输入 /1M | 输出 /1M | 定位 |
|---|---|---|---|
| DeepSeek-V4(最新) | 待定 | 待定 | 万亿参数旗舰,100万上下文 |
| DeepSeek-V3.2.2(deepseek-chat) | $0.14 | $0.28 | 当前稳定版,极致低价 |
| DeepSeek-R1(deepseek-reasoner) | $0.55~0.70 | $2.19~2.50 | 深度推理 |
配置方式(自定义Provider)
{
"env": { "DEEPSEEK_API_KEY": "sk-xxx" },
"models": {
"mode": "merge",
"providers": {
"deepseek": {
"baseUrl": "https://api.deepseek.com/v1",
"apiKey": "${DEEPSEEK_API_KEY}",
"api": "openai-completions",
"models": [
{ "id": "deepseek-chat", "contextWindow": 128000, "maxTokens": 8192 },
{ "id": "deepseek-reasoner", "contextWindow": 128000, "maxTokens": 8192 }
]
}
}
}
}注意
DeepSeek高峰期偶有延迟甚至不可用,不建议作为唯一Provider。务必搭配Fallback模型兜底。
智谱GLM
国产模型中代码能力最强的选择。GLM-5在SWE-bench上拿到了开源模型最高分,价格仅$0.80/M输入。更妙的是,OpenClaw内置了zai Provider,配置极为简单。
| 模型 | 输入 /1M | 输出 /1M | 定位 |
|---|---|---|---|
| GLM-5 | $0.80 | $2.56 | 最新旗舰,代码能力强 |
| GLM-4.5 | $0.60 | $2.20 | 上一代主力 |
| GLM-4.7-Flash | 免费 | 免费 | 轻量免费 |
| GLM-4.5-Flash | 免费 | 免费 | 轻量免费 |
配置方式(内置支持)
# CLI快速配置
openclaw onboard --auth-choice zai-api-key{
"env": { "ZAI_API_KEY": "sk-xxx" },
"agents": {
"defaults": {
"model": { "primary": "zai/glm-5" }
}
}
}注意:z.ai/* 和 z-ai/* 前缀会自动转换为 zai/*。
核心建议
GLM Flash系列完全免费,非常适合用于心跳任务和简单对话。把免费模型用在低价值任务上,把预算留给真正需要强模型的场景。
通义千问 Qwen
Qwen 3.5是阿里2026年2月发布的最新版本(397B总参数/17B激活,MoE架构,已开源)。代码专用的Qwen3.5-Coder性价比极高。
| 模型 | 输入 /1M | 输出 /1M | 定位 |
|---|---|---|---|
| Qwen 3.5 Max | $1.20 | $6.00 | 旗舰模型(397B-A17B) |
| Qwen 3.5 Plus | $0.40 | $1.20 | 主力平衡 |
| Qwen 3.5 Coder | $0.22 | $1.00 | 代码专用,性价比极高 |
| Qwen 3.5 8B | $0.05 | $0.40 | 轻量低成本 |
配置方式(插件 + OAuth)
# 通过插件接入,OAuth设备码认证(无需API Key)
openclaw plugins enable qwen-portal-auth
openclaw gateway restart
openclaw models auth login --provider qwen-portal --set-default模型ID:qwen-portal/coder-model、qwen-portal/vision-model。每日2,000次免费请求。
阿里云百炼平台也提供 Coding Plan 月费方案,可搭配阿里云一键部署直接对接。
豆包 Doubao
| 模型 | 输入 /1M | 输出 /1M | 定位 |
|---|---|---|---|
| Seed 2.0 Pro | $0.47 | $2.37 | 旗舰推理,对标GPT-5.2 |
| Doubao 1.5 Pro-32k | $0.11 | — | 通用对话,极致低价 |
| Doubao 1.5 Lite-32k | $0.042 | — | 最便宜的选择之一 |
配置方式(自定义Provider)
{
"env": { "DOUBAO_API_KEY": "xxx" },
"models": {
"mode": "merge",
"providers": {
"doubao": {
"baseUrl": "https://ark.cn-beijing.volces.com/api/v3",
"apiKey": "${DOUBAO_API_KEY}",
"api": "openai-completions",
"models": [
{ "id": "doubao-seed-2.0-pro", "contextWindow": 128000, "maxTokens": 4096 }
]
}
}
}
}Kimi(月之暗面)
Kimi K2.5 是月之暗面最新的旗舰模型,支持 256K 上下文,擅长长文档理解。OpenClaw 从 2026.2.3 版本起全面支持 Kimi K2.5 的原生选择。
| 模型 | 输入 /1M | 输出 /1M | 定位 |
|---|---|---|---|
| Kimi K2.5 | $0.60 | $3.00 | 最新旗舰 |
| Kimi K2 0905 | $0.39 | $1.90 | 性价比版 |
快速连接指南(Onboard 向导)
如果你是新安装 OpenClaw,可以在 onboard 向导中直接选择 Kimi:
- 安装/升级 OpenClaw(强烈建议 2026.2.3 及以上版本):bash
curl -fsSL https://openclaw.ai/install.sh | bash - 运行 onboard 向导,选择 QuickStart 模式。
- 选择 Model/auth provider → 选择
Moonshot AI (Kimi K2.5)。 - 选择 auth method → 选择
Kimi API key (.cn)(国内用户)。 - 输入 API Key → 粘贴你的 Moonshot API Key。
- 确认默认模型 → 保持
moonshot/kimi-k2.5。 - 其余配置保持默认即可,Gateway Port 默认 18789。
获取 API Key
在 Kimi 开放平台注册账号,完成组织认证可获得 15 元免费代金券。建议充值 50 元以上升级到 tier1,获得更流畅的使用体验。
手动配置方式
{
"env": { "MOONSHOT_API_KEY": "sk-xxx" },
"models": {
"mode": "merge",
"providers": {
"moonshot": {
"baseUrl": "https://api.moonshot.cn/v1",
"apiKey": "${MOONSHOT_API_KEY}",
"api": "openai-completions",
"models": [
{ "id": "kimi-k2.5", "contextWindow": 256000, "maxTokens": 8192 }
]
}
}
}
}也可通过OpenRouter接入:openrouter/moonshotai/kimi-k2.5
百度文心
文心5.0于2026年1月22日发布(2.4万亿参数,原生全模态,激活参数比<3%)。
| 模型 | 输入价格 | 输出价格 | 定位 |
|---|---|---|---|
| 文心 5.0 | ~$0.58/M | ~$1.16/M | 最新旗舰(2.4万亿参数) |
| ERNIE Speed | 免费 | 免费 | 轻量 |
| ERNIE Lite | 免费 | 免费 | 最轻量 |
注意
百度API格式与OpenAI不完全兼容,需要通过one-api等中转工具适配。在OpenClaw社区中存在感最低,配置复杂度最高。如果没有特别的百度云生态绑定,建议优先选择其他国产模型。
MiniMax
MiniMax M2.5(230B参数)在SWE-Bench上得分80.2%,代码能力突出。OpenClaw 对 MiniMax 有原生 onboard 支持,也提供 Code Plan 包月套餐(29元/月起)。
| 模型 | 输入 /1M | 输出 /1M | 定位 |
|---|---|---|---|
| MiniMax M2.5 | $0.50 | $2.00 | 旗舰,SWE-bench 80.2% |
| MiniMax M2.1 | — | — | 通用对话、日常任务 |
快速连接指南(Onboard 向导)
- 安装/升级 OpenClaw:bash
curl -fsSL https://openclaw.ai/install.sh | bash - 运行 onboard 向导,选择 QuickStart 模式。
- 选择 Model/auth provider → 选择
MiniMax。 - 选择 MiniMax auth method → 选择
MiniMax。 - 输入 MiniMax API Key → 粘贴你的 API Key。
- 其余配置保持默认,Gateway Port 默认 18789。
国内用户注意 .cn 与 .io 端点
onboard 向导默认使用 MiniMax 海外版 API(api.minimax.io)。国内用户需要在完成向导后将 baseUrl 修改为国内端点 https://api.minimaxi.com/anthropic,并确保 authHeader: true 存在。可通过编辑配置文件或 Web UI(Config → models → baseUrl)完成修改。
手动配置方式(国内端点)
{
"env": { "MINIMAX_API_KEY": "xxx" },
"models": {
"mode": "merge",
"providers": {
"minimax": {
"baseUrl": "https://api.minimaxi.com/anthropic",
"apiKey": "${MINIMAX_API_KEY}",
"api": "anthropic-messages",
"authHeader": true,
"models": [
{
"id": "MiniMax-M2.1",
"name": "MiniMax M2.1",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 15,
"output": 60,
"cacheRead": 2,
"cacheWrite": 10
},
"contextWindow": 200000,
"maxTokens": 8192
}
]
}
}
}
}海外用户使用 https://api.minimax.io/anthropic 作为 baseUrl。也可以通过 Web UI 修改:启动 Gateway 后访问 http://127.0.0.1:18789,进入 Config → models,修改 baseUrl 并打开 Auth Header 开关,保存并 Update。
国产模型选型速查
快速建议
- 先用 MiniMax 或通义千问上手,体验够用后按需升级。
- 日常对话:MiniMax M2.1 或 Qwen 3.5 Plus,性价比高。
- 代码任务:GLM-4.7-Flash(免费)或 Qwen 3.5 Coder。
- 复杂推理:DeepSeek R1。
- 心跳/自检:用最便宜的模型(GLM Flash 免费,或 Doubao Lite)。
- 长文档理解:Kimi K2.5(256K 上下文)。
成本对比一览
| 方案 | 月费估算(中等使用量) |
|---|---|
| Anthropic Claude Opus | ¥300-1000+ |
| Anthropic Claude Sonnet | ¥50-200 |
| MiniMax M2.1 Code Plan | ¥29-119 |
| Kimi K2.5 | ¥49-199 |
| 阿里云百炼 Coding Plan | 固定月费 |
| DeepSeek V3 | ¥5-20 |
| GLM-4.7 Flash | 免费 |
多模型路由(进阶)
可以配置不同任务用不同模型,省钱又高效:
- 主对话:MiniMax M2.1 或 Qwen 3.5 Max
- 代码任务:GLM-4.7-Flash 或 Qwen 3.5 Coder
- Heartbeat 自检:最便宜的模型(GLM Flash 免费)
- 复杂推理:DeepSeek R1
聚合平台:一个API Key调多个模型
硅基流动 SiliconFlow(国内首选)
国内最大的模型聚合平台,一个API调用多个开源模型,延迟低,有免费额度。
{
"env": { "SILICONFLOW_API_KEY": "sk-xxx" },
"models": {
"mode": "merge",
"providers": {
"siliconflow": {
"baseUrl": "https://api.siliconflow.cn/v1",
"apiKey": "${SILICONFLOW_API_KEY}",
"api": "openai-completions",
"models": [
{ "id": "Pro/deepseek-ai/DeepSeek-V3.2", "contextWindow": 128000, "maxTokens": 8192 },
{ "id": "Pro/zai-org/GLM-5", "contextWindow": 128000, "maxTokens": 8192 }
]
}
}
}
}# 设置默认模型
openclaw config set agents.defaults.model.primary siliconflow/Pro/zai-org/GLM-5OpenRouter(国际首选)
290+模型,OpenClaw内置支持,但有5.5%平台费。
openclaw onboard --auth-choice apiKey --token-provider openrouter --token "$OPENROUTER_API_KEY"
# 模型ID格式:openrouter/provider/model
# openrouter/deepseek/deepseek-chat
# openrouter/openrouter/auto(自动选择最优模型)one-api / new-api(自建方案)
开源API管理工具,自建网关,统一管理多个API Key,支持负载均衡和故障转移。适合团队使用。
注意
中转服务必须支持OpenAI的Responses API(/v1/responses 路径),不仅仅是Chat Completions API。部分旧版中转工具不支持此接口。
Coding Plan 包月套餐对比
2026年,国内主要AI厂商和云平台纷纷推出了面向AI编程工具(OpenClaw、Cursor、Claude Code等)的Coding Plan包月套餐。相比按量付费的API,包月套餐的优势是成本可预期、无需管理API Key余额,尤其适合个人开发者和轻度到中度使用者。
厂商自营 Coding Plan
| 厂商 | 套餐档位 | 月费 | 模型 | 特色/限制 |
|---|---|---|---|---|
| 智谱GLM | Lite | ~49元 | GLM-4.7 | MCP联网100次/月 |
| 智谱GLM | Pro | ~80元 | GLM-4.7 | 速度快40-60%,MCP 1000次/月 |
| 智谱GLM | Max | ~160元 | GLM-4.7 + GLM-5 | 唯一含GLM-5,MCP 4000次/月 |
| Kimi | Andante | 49元 | Kimi K2.5 | 基础档,Token计量 |
| Kimi | Moderato | 99元 | Kimi K2.5 | 中档 |
| Kimi | Allegretto | 199元 | Kimi K2.5 | 每5小时100-500次请求 |
| MiniMax | Starter | 29元 | M2.5 | 无每周限额,性价比最高 |
| MiniMax | Standard | 49元 | M2.5 | 年付省17% |
| MiniMax | Premium | 119元 | M2.5 | 重度用户 |
云平台聚合 Coding Plan
云平台方案的最大优势是一个套餐包含多家模型,可自由切换。
| 平台 | 档位 | 原价/月 | 首月优惠 | 包含模型 | 用量 |
|---|---|---|---|---|---|
| 阿里云百炼 | Lite | 40元 | 7.9元 | Qwen + GLM + Kimi + MiniMax | ~18,000次/月 |
| 阿里云百炼 | Pro | 200元 | 39.9元 | 同上 | ~90,000次/月 |
| 腾讯云 | Lite | 40元 | 7.9元 | 混元2.0 + GLM-5 + Kimi K2.5 + M2.5 | 每5h ~1,200次 |
| 腾讯云 | Pro | 200元 | 39.9元 | 同上 | 每5h ~6,000次 |
| 火山引擎 | Lite | 40元 | 8.91元 | 豆包Code + GLM-4.7 + DeepSeek-V3.2.2 + Kimi | 每5h ~1,200次 |
| 火山引擎 | Pro | 200元 | 44.91元 | 同上 | 每5h ~6,000次 |
Coding Plan 选型建议
核心建议
- 首月体验(7.9元起):阿里云百炼或腾讯云 Lite 档,首月仅7.9元,包含4家模型自由切换,是零风险的入门方式。
- 长期性价比:MiniMax Starter(29元/月)无每周限额,M2.5代码能力强;如果需要多模型切换,云平台续费5折(约20元/月)也很划算。
- 追求最强单模型:智谱Max(160元/月)是目前唯一包含GLM-5的自营套餐;腾讯云也新增了GLM-5支持。
- 重度用户:Coding Plan普遍有频率限制(每5小时N次),如果你需要高频调用,建议直接使用API按量付费,搭配Fallback链控制成本。
注意
注意Coding Plan的限制:智谱2026年2月已涨价30%并取消首购优惠,有周限制机制;Kimi仅限个人使用、禁止企业开发;大部分云平台套餐次月续费为5折而非原价。购买前务必确认续费价格。