OpenClaw 是一个开源的个人 AI 助手平台,支持通过多种消息渠道与 AI 交互。通过配置可接入阿里云百炼的千问系列模型。
OpenClaw 原名 Moltbot/Clawdbot,部分命令可能尚未完成迁移。如果在使用新命令(如 openclaw dashboard)时遇到 command not found: openclaw 的错误,请切换回旧命令(如 clawdbot dashboard 或 moltbot dashboard)来执行操作。
模型支持与选型
OpenClaw 通过 OpenAI 兼容接口接入阿里云百炼模型。推荐模型:qwen3.6-plus(支持图片理解)、kimi-k2.5(支持图片理解)、glm-5、MiniMax-M2.5。更多支持的模型,请参见模型列表中的文本生成模型。
glm-5、kimi-k2.5、MiniMax-M2.5 为第三方模型,仅支持北京地域,需使用北京地域的 Base URL 和 API Key,详情请参考3. 配置百炼模型。
配置步骤
1. 开通阿里云百炼
-
注册账号:若无阿里云账号,需首先注册。
如遇问题,请参见注册阿里云账号。
-
开通阿里云百炼:使用阿里云主账号前往阿里云百炼大模型服务平台,阅读并同意协议后,将自动开通阿里云百炼,如果未弹出服务协议,则表示您已经开通。
如果开通服务时提示"您尚未进行实名认证",请先进行实名认证。
首次开通百炼后,您可领取新人免费额度(有效期:百炼开通后90天内),用于模型推理服务。免费额度领取方法和详情,请查看新人免费额度页面。
超出额度或期限将产生费用,开启消费限额功能将避免此情况下产生费用,具体费用请以控制台的实际报价和最终账单为准。
2. 安装 OpenClaw
环境要求
OpenClaw 需要 Node.js 22 或更高版本。可通过以下命令检查 Node.js 版本:
node --version
如果未安装或版本过低,请访问 Node.js 官网下载安装。
安装方式
macOS / Linux
推荐使用官方安装脚本:
curl -fsSL https://openclaw.ai/install.sh | bash
或通过 npm 全局安装:
npm install -g openclaw@latest
Windows
在 PowerShell 中执行:
iwr -useb https://openclaw.ai/install.ps1 | iex
或通过 npm 全局安装:
npm install -g openclaw@latest
完成初始配置向导
首次安装后,OpenClaw 会自动启动配置向导,帮助您快速完成初始设置。您也可以手动执行openclaw onboard命令进行配置。
|
配置项 |
建议配置 |
|
I understand this is powerful and inherently risky. Continue? |
选择 Yes |
|
Onboarding mode |
选择 QuickStart |
|
Model/auth provider |
选择 Skip for now(稍后配置百炼模型) |
|
Filter models by provider |
选择 All providers |
|
Default model |
选择 Keep current |
|
Select channel (QuickStart) |
选择 Skip for now(稍后配置渠道) |
|
Configure skills now? (recommended) |
选择 No |
|
Enable hooks? |
按空格键选中选项,按回车键进入下一步 |
|
How do you want to hatch your bot? |
选择 Do this later |
接下来,需要为 OpenClaw 配置百炼模型以启用 AI 对话能力。
3. 配置百炼模型
在 OpenClaw 接入阿里云百炼模型服务,需要配置以下参数:
请确保 Base URL 、API Key、模型都归属于同一地域下。
|
Base URL |
按地域区分:
|
|
API Key |
百炼访问凭证,用于身份验证和计费,请前往密钥管理(北京)或密钥管理(新加坡)或密钥管理(弗吉尼亚)页面获取。 |
|
模型 ID |
指定接入的模型,如 不同地域支持的模型有所差异,如美国(弗吉尼亚)地域暂不支持
|
配置参数时需要关闭思考模式("reasoning": false),否则会导致回复内容为空。
OpenClaw 提供了两种配置方式,推荐使用 Web 控制台配置。
方式一:Web 控制台配置
OpenClaw 提供了基于 Web 的编辑器来修改 openclaw.json 配置文件。
-
启动 Web 控制台
在终端中运行以下命令:
openclaw dashboard浏览器会自动打开 OpenClaw 的控制台页面(通常是
http://127.0.0.1:18789)。如果浏览器没有自动打开,请手动访问该地址。
-
进入配置页面
在左侧菜单栏中依次选择:配置 > RAW(或Config > RAW)。
-
添加百炼配置
复制以下配置信息,替换原
"agents": {...},部分,并将DASHSCOPE_API_KEY替换为您的百炼 API Key。重要本文档仅适用于按量付费模式,Coding Plan 需要使用专属 Base URL 和 API Key 接入,且仅支持特定的模型,详情请参考OpenClaw Coding Plan说明文档进行配置。
以下配置使用北京地域的
qwen3.6-plus和qwen3-coder-next模型,请确保 Base URL 和 API Key 地域一致。如需使用其他模型,请在
providers.bailian.models中添加模型定义(reasoning参数需设为false),在agents.defaults.models中添加"bailian/模型ID": {}条目。按量付费模式下各地域支持的模型,请参见模型列表。"models": { "mode": "merge", "providers": { "bailian": { "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1", "apiKey": "DASHSCOPE_API_KEY", "api": "openai-completions", "models": [ { "id": "qwen3.6-plus", "name": "qwen3.6-plus", "reasoning": false, "input": ["text", "image"], "contextWindow": 1000000, "maxTokens": 65536 }, { "id": "qwen3-coder-next", "name": "qwen3-coder-next", "reasoning": false, "input": ["text"], "contextWindow": 262144, "maxTokens": 65536 } ] } } }, "agents": { "defaults": { "model": { "primary": "bailian/qwen3.6-plus" }, "models": { "bailian/qwen3.6-plus": {}, "bailian/qwen3-coder-next": {} } } }, -
保存并应用配置
配置完成后,单击右上角 Save 保存配置,单击 Update。
方式二:编辑配置文件
如果您更习惯直接编辑配置文件,可以按以下步骤操作。配置文件位于 ~/.openclaw/openclaw.json,OpenClaw 启动时会自动读取。
-
打开配置文件
使用文本编辑器打开配置文件。如果文件不存在,编辑器会自动创建:
# 您也可以使用其他编辑器,如vim。 # vim ~/.openclaw/openclaw.json nano ~/.openclaw/openclaw.json -
添加百炼配置
复制并粘贴以下配置内容,将
DASHSCOPE_API_KEY替换为百炼 API Key:重要本文档仅适用于按量付费模式,Coding Plan 需要使用专属 Base URL 和 API Key 接入,且仅支持特定的模型,详情请参考OpenClaw Coding Plan说明文档进行配置。
以下配置使用北京地域的
qwen3.6-plus和qwen3-coder-next模型,请确保 Base URL 和 API Key 地域一致。如需使用其他模型,请在
providers.bailian.models中添加模型定义(reasoning参数需设为false),在agents.defaults.models中添加"bailian/模型ID": {}条目。按量付费模式下各地域支持的模型,请参见模型列表。{ "meta": { "lastTouchedVersion": "2026.2.1", "lastTouchedAt": "2026-02-03T08:20:00.000Z" }, "models": { "mode": "merge", "providers": { "bailian": { "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1", "apiKey": "DASHSCOPE_API_KEY", "api": "openai-completions", "models": [ { "id": "qwen3.6-plus", "name": "qwen3.6-plus", "reasoning": false, "input": ["text", "image"], "contextWindow": 1000000, "maxTokens": 65536 }, { "id": "qwen3-coder-next", "name": "qwen3-coder-next", "reasoning": false, "input": ["text"], "contextWindow": 262144, "maxTokens": 65536 } ] } } }, "agents": { "defaults": { "model": { "primary": "bailian/qwen3.6-plus" }, "models": { "bailian/qwen3.6-plus": {}, "bailian/qwen3-coder-next": {} } } }, "gateway": { "mode": "local", "auth": { "mode": "token", "token": "test123" } } } -
保存配置文件
如果使用 nano 编辑器:
-
按
Ctrl+X退出编辑器。 -
提示保存时按
Y确认。 -
按
Enter确认文件名。
如果使用 vim 编辑器:
-
按
Esc确保退出插入模式。 -
输入
:wq并按Enter保存并退出。
-
-
验证配置
可以使用以下命令查看配置文件内容,确认配置正确:
cat ~/.openclaw/openclaw.json
4. 开始对话
命令行
请在云服务器或本地终端中执行以下命令,即可通过命令行的方式开始对话。
openclaw tui

Web 界面
请在云服务器或本地终端中执行以下命令,即可通过 Web 界面的方式开始对话。
openclaw dashboard

连接聊天工具
OpenClaw 支持多渠道交互,能够通过钉钉等聊天工具,让 AI 助手融入您的日常工作,随时随地提供帮助。详情请参考 基于 Clawdbot 4 步构建 AI 员工解决方案。
切换模型
-
在当前会话切换模型(临时有效)
在终端输入
openclaw tui,进入 TUI 界面,使用/model <模型名称>在当前会话中切换模型。/model qwen3-coder-next界面返回提示"model set to qwen3-coder-next" 即表示生效。
-
切换默认模型(永久有效)
如需在每次新会话中使用指定模型,修改
agents.defaults.model.primary字段为目标模型。{ "agents": { "defaults": { "model": { "primary": "bailian/qwen3.6-plus" } } } }
成本优化
本文档仅适用于按量付费模式,Coding Plan 需要使用专属 Base URL 和 API Key 接入,详情请参考OpenClaw Coding Plan说明文档进行配置。
使用 OpenClaw 可能产生较高费用,建议参考以下措施优化成本。按量付费模式的Token消耗和账单请参见查看 Token 消耗和账单查询与成本管理。
购买Coding Plan
采用固定月费模式,有效防范了欠费风险,按实际”模型调用次数”扣除额度,不按 Token 计价,其折算成本远低于常规 API 调用,详情请参见Coding Plan概述。
选择合适的模型
不同任务对模型能力的要求不同,合理搭配可以显著降低成本。复杂推理使用 qwen3.6-plus 等高性能模型,简单任务切换到 qwen3-coder-next 等轻量模型。切换方法请参见切换模型。
优化上下文管理
OpenClaw 每次调用模型时会重新组装完整上下文(系统提示词 + 工具定义 + 记忆文件 + 对话历史 + 工具返回结果)。对话越长,每轮消耗的 Token 越多。以下方法可有效控制上下文体积:
-
压缩与重置:发送
/compact压缩当前会话上下文,或/new完全重置对话。OpenClaw 在接近上下文上限时也会自动触发压缩。 -
缩小上下文窗口与输出长度:qwen3.6-plus 支持的最大 contextWindow 为 1000000,缩小此值可更频繁触发上下文压缩,降低每轮请求的 Token 消耗,并将输入Token数维持在阶梯计费的较低档位。
-
上下文裁剪(Context Pruning):启用
contextPruning后,OpenClaw 会在缓存 TTL 到期后自动剔除过时的工具结果,避免历史调用结果在后续每轮请求中重复发送: -
精简启动文件:OpenClaw 每轮对话会自动注入多个 .md 启动文件到上下文中,文件越大 Token 消耗越高。建议对以下文件进行精简:
-
MEMORY.md:长期记忆文件,通常体积最大。建议只保留结论和规则,临时信息可改用按日记忆文件(memory/YYYY-MM-DD.md)存储。 -
SOUL.md:代理人格与行为边界。只保留个性特征和行为偏好即可。 -
AGENTS.md:代理运行指令。只保留核心操作规则。 -
TOOLS.md:本地环境工具说明。仅保留必要的环境信息,避免与其他文件重复。 -
USER.md:用户信息(称呼、时区、偏好),保持精简即可。
-
-
拆分复杂任务:长时间任务可通过子代理(Subagent)拆分为独立会话并行处理,完成后结果自动返回主会话。使用方式如下:
-
自然语言(推荐):在会话中描述并行任务,AI 自动调用
sessions_spawn启动子代理,如输入"启用两个子代理,分析 src 目录下的代码并同时检查测试覆盖率”。 -
斜杠命令:输入
/subagents spawn <agentId> <任务描述>手动启动子代理,命令立即返回运行 ID,结果完成后自动回传。
-
减少后台消耗
心跳(Heartbeat)会运行完整的 Agent 轮次,默认每 30 分钟触发一次,每次会加载完整对话历史。以下优化方式可按需选用:
降低频率与限定活跃时段
将间隔从 30 分钟延长到 60 分钟,并限定活跃时段,需要重启网关使配置生效。
# 查看当前心跳间隔
openclaw config get agents.defaults.heartbeat.every
# 修改为每小时
openclaw config set agents.defaults.heartbeat.every 1h
openclaw config set agents.defaults.heartbeat.activeHours.start 9:00
openclaw config set agents.defaults.heartbeat.activeHours.end 22:00
# 重启网关使配置生效
openclaw gateway restart
替换心跳模型
通过 model 字段为心跳指定更低成本的模型,避免使用默认模型执行心跳任务:
{
"agents": {
"defaults": {
"heartbeat": {
"model": "bailian/qwen3-coder-next"
}
}
}
}
model 格式为 provider/model-id,可使用 models.providers 中已配置的任意模型。未指定时默认使用 model.primary。
启用轻量心跳模式
在心跳配置中启用隔离会话和轻量上下文,同时精简 HEARTBEAT.md 至最小内容,只包含必要的检查指令,降低每次心跳的 Token 消耗:
{
"agents": {
"defaults": {
"heartbeat": {
"every": "30m",
"isolatedSession": true,
"lightContext": true,
"target": "none"
}
}
}
}
-
isolatedSession: true:每次心跳创建独立会话,不发送完整对话历史,Token 消耗从约 100,000 降至约 2,000~5,000。 -
lightContext: true:仅加载 HEARTBEAT.md,不加载其他启动文件。 -
target: "none":仅执行内部状态更新,不产生外部输出。
关闭心跳
关闭或重新启用心跳:
# 关闭心跳
openclaw system heartbeat disable
# 重新启用心跳
openclaw system heartbeat enable
# 查看上次心跳执行信息
openclaw system heartbeat last
常见问题
问题 1:提示找不到模型或回复为空
请确认:
-
模型 ID 拼写正确。
-
配置中的
provider名称与引用时一致(如配置中是bailian,引用时应为bailian/qwen3.6-plus)。 -
配置中的
reasoning参数必须设置为false。
问题 2:执行 openclaw 命令时提示 "command not found"
可能是以下原因导致的:
-
OpenClaw 安装没有成功。请在云服务器或本地终端执行
openclaw --version,若输出版本号证明安装成功。 -
OpenClaw 更名过程中部分命令尚未完全迁移。可以尝试:
-
使用旧命令
moltbot或clawdbot替代。 -
重新安装最新版本:
npm install -g openclaw@latest。
-