OpenClaw(原 Clawdbot、Moltbot)

更新时间:
复制为 MD 格式

OpenClaw 是一个开源的个人 AI 助手平台,支持通过多种消息渠道与 AI 交互。通过配置可接入阿里云百炼的千问系列模型。

说明

OpenClaw 原名 Moltbot/Clawdbot,部分命令可能尚未完成迁移。如果在使用新命令(如 openclaw dashboard)时遇到 command not found: openclaw 的错误,请切换回旧命令(如 clawdbot dashboardmoltbot dashboard)来执行操作。

模型支持与选型

OpenClaw 通过 OpenAI 兼容接口接入阿里云百炼模型。推荐模型:qwen3.6-plus(支持图片理解)、kimi-k2.5(支持图片理解)、glm-5MiniMax-M2.5。更多支持的模型,请参见模型列表中的文本生成模型。

glm-5、kimi-k2.5、MiniMax-M2.5 为第三方模型,仅支持北京地域,需使用北京地域的 Base URL 和 API Key,详情请参考3. 配置百炼模型

配置步骤

1. 开通阿里云百炼

  1. 注册账号:若无阿里云账号,需首先注册

    如遇问题,请参见注册阿里云账号
  2. 开通阿里云百炼:使用阿里云主账号前往阿里云百炼大模型服务平台,阅读并同意协议后,将自动开通阿里云百炼,如果未弹出服务协议,则表示您已经开通。

    如果开通服务时提示"您尚未进行实名认证",请先进行实名认证
首次开通百炼后,您可领取新人免费额度(有效期:百炼开通后90天内),用于模型推理服务。免费额度领取方法和详情,请查看新人免费额度页面。
说明

超出额度或期限将产生费用,开启消费限额功能将避免此情况下产生费用,具体费用请以控制台的实际报价和最终账单为准。

2. 安装 OpenClaw

环境要求

OpenClaw 需要 Node.js 22 或更高版本。可通过以下命令检查 Node.js 版本:

node --version

如果未安装或版本过低,请访问 Node.js 官网下载安装。

安装方式

macOS / Linux

推荐使用官方安装脚本:

curl -fsSL https://openclaw.ai/install.sh | bash

或通过 npm 全局安装:

npm install -g openclaw@latest

Windows

在 PowerShell 中执行:

iwr -useb https://openclaw.ai/install.ps1 | iex

或通过 npm 全局安装:

npm install -g openclaw@latest

完成初始配置向导

首次安装后,OpenClaw 会自动启动配置向导,帮助您快速完成初始设置。您也可以手动执行openclaw onboard命令进行配置。

配置项

建议配置

I understand this is powerful and inherently risky. Continue?

选择 Yes

Onboarding mode

选择 QuickStart

Model/auth provider

选择 Skip for now(稍后配置百炼模型)

Filter models by provider

选择 All providers

Default model

选择 Keep current

Select channel (QuickStart)

选择 Skip for now(稍后配置渠道)

Configure skills now? (recommended)

选择 No

Enable hooks?

按空格键选中选项,按回车键进入下一步

How do you want to hatch your bot?

选择 Do this later

接下来,需要为 OpenClaw 配置百炼模型以启用 AI 对话能力。

3. 配置百炼模型

在 OpenClaw 接入阿里云百炼模型服务,需要配置以下参数:

请确保 Base URL 、API Key、模型都归属于同一地域下。

Base URL

按地域区分:

  • 华北2(北京):https://dashscope.aliyuncs.com/compatible-mode/v1

  • 新加坡:https://dashscope-intl.aliyuncs.com/compatible-mode/v1

  • 美国(弗吉尼亚):https://dashscope-us.aliyuncs.com/compatible-mode/v1

API Key

百炼访问凭证,用于身份验证和计费,请前往密钥管理(北京)密钥管理(新加坡)密钥管理(弗吉尼亚)页面获取。

模型 ID

指定接入的模型,如qwen3.6-plusqwen3-coder-next。各地域支持的完整列表请参考模型支持与选型

不同地域支持的模型有所差异,如美国(弗吉尼亚)地域暂不支持qwen3-coder-next模型、文本生成-第三方模型仅支持北京地域。
说明

配置参数时需要关闭思考模式("reasoning": false),否则会导致回复内容为空。

OpenClaw 提供了两种配置方式,推荐使用 Web 控制台配置

方式一:Web 控制台配置

OpenClaw 提供了基于 Web 的编辑器来修改 openclaw.json 配置文件。

  1. 启动 Web 控制台

    在终端中运行以下命令:

    openclaw dashboard

    浏览器会自动打开 OpenClaw 的控制台页面(通常是 http://127.0.0.1:18789)。如果浏览器没有自动打开,请手动访问该地址。

    image

  2. 进入配置页面

    在左侧菜单栏中依次选择:配置 > RAW(或Config > RAW)。

  3. 添加百炼配置

    复制以下配置信息,替换原"agents": {...},部分,并将 DASHSCOPE_API_KEY 替换为您的百炼 API Key

    重要

    本文档仅适用于按量付费模式,Coding Plan 需要使用专属 Base URL 和 API Key 接入,且仅支持特定的模型,详情请参考OpenClaw Coding Plan说明文档进行配置。

    以下配置使用北京地域的 qwen3.6-plus 和 qwen3-coder-next 模型,请确保 Base URLAPI Key 地域一致。

    如需使用其他模型,请在 providers.bailian.models 中添加模型定义(reasoning 参数需设为 false),在 agents.defaults.models 中添加 "bailian/模型ID": {} 条目。按量付费模式下各地域支持的模型,请参见模型列表

      "models": {
        "mode": "merge",
        "providers": {
          "bailian": {
            "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
            "apiKey": "DASHSCOPE_API_KEY",
            "api": "openai-completions",
            "models": [
              {
                "id": "qwen3.6-plus",
                "name": "qwen3.6-plus",
                "reasoning": false,
                "input": ["text", "image"],
                "contextWindow": 1000000,
                "maxTokens": 65536
              },
              {
                "id": "qwen3-coder-next",
                "name": "qwen3-coder-next",
                "reasoning": false,
                "input": ["text"],
                "contextWindow": 262144,
                "maxTokens": 65536
              }
            ]
          }
        }
      },
      "agents": {
        "defaults": {
          "model": {
            "primary": "bailian/qwen3.6-plus"
          },
          "models": {
            "bailian/qwen3.6-plus": {},
            "bailian/qwen3-coder-next": {}
          }
        }
      },
  4. 保存并应用配置

    配置完成后,单击右上角 Save 保存配置,单击 Update

方式二:编辑配置文件

如果您更习惯直接编辑配置文件,可以按以下步骤操作。配置文件位于 ~/.openclaw/openclaw.json,OpenClaw 启动时会自动读取。

  1. 打开配置文件

    使用文本编辑器打开配置文件。如果文件不存在,编辑器会自动创建:

    # 您也可以使用其他编辑器,如vim。
    # vim ~/.openclaw/openclaw.json
    nano ~/.openclaw/openclaw.json
  2. 添加百炼配置

    复制并粘贴以下配置内容,将DASHSCOPE_API_KEY替换为百炼 API Key:

    重要

    本文档仅适用于按量付费模式,Coding Plan 需要使用专属 Base URL 和 API Key 接入,且仅支持特定的模型,详情请参考OpenClaw Coding Plan说明文档进行配置。

    以下配置使用北京地域的 qwen3.6-plus 和 qwen3-coder-next 模型,请确保 Base URLAPI Key 地域一致。

    如需使用其他模型,请在 providers.bailian.models 中添加模型定义(reasoning 参数需设为 false),在 agents.defaults.models 中添加 "bailian/模型ID": {} 条目。按量付费模式下各地域支持的模型,请参见模型列表

    {
      "meta": {
        "lastTouchedVersion": "2026.2.1",
        "lastTouchedAt": "2026-02-03T08:20:00.000Z"
      },
      "models": {
        "mode": "merge",
        "providers": {
          "bailian": {
            "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
            "apiKey": "DASHSCOPE_API_KEY",
            "api": "openai-completions",
            "models": [
              {
                "id": "qwen3.6-plus",
                "name": "qwen3.6-plus",
                "reasoning": false,
                "input": ["text", "image"],
                "contextWindow": 1000000,
                "maxTokens": 65536
              },
              {
                "id": "qwen3-coder-next",
                "name": "qwen3-coder-next",
                "reasoning": false,
                "input": ["text"],
                "contextWindow": 262144,
                "maxTokens": 65536
              }
            ]
          }
        }
      },
      "agents": {
        "defaults": {
          "model": {
            "primary": "bailian/qwen3.6-plus"
          },
          "models": {
            "bailian/qwen3.6-plus": {},
            "bailian/qwen3-coder-next": {}
          }
        }
      },
      "gateway": {
        "mode": "local",
        "auth": {
          "mode": "token",
          "token": "test123"
        }
      }
    }
    
  3. 保存配置文件

    如果使用 nano 编辑器:

    1. Ctrl+X 退出编辑器。

    2. 提示保存时按 Y 确认。

    3. Enter 确认文件名。

    如果使用 vim 编辑器:

    1. 按 Esc 确保退出插入模式。

    2. 输入 :wq 并按 Enter 保存并退出。

  4. 验证配置

    可以使用以下命令查看配置文件内容,确认配置正确:

    cat ~/.openclaw/openclaw.json

4. 开始对话

命令行

请在云服务器或本地终端中执行以下命令,即可通过命令行的方式开始对话。

openclaw tui

image

Web 界面

请在云服务器或本地终端中执行以下命令,即可通过 Web 界面的方式开始对话。

openclaw dashboard

image

连接聊天工具

OpenClaw 支持多渠道交互,能够通过钉钉等聊天工具,让 AI 助手融入您的日常工作,随时随地提供帮助。详情请参考 基于 Clawdbot 4 步构建 AI 员工解决方案。

切换模型

  • 在当前会话切换模型(临时有效)

    在终端输入openclaw tui,进入 TUI 界面,使用 /model <模型名称> 在当前会话中切换模型。

    /model qwen3-coder-next
    界面返回提示"model set to qwen3-coder-next" 即表示生效。
  • 切换默认模型(永久有效)

    如需在每次新会话中使用指定模型,修改 agents.defaults.model.primary 字段为目标模型。

    {
        "agents": {
            "defaults": {
                "model": {
                    "primary": "bailian/qwen3.6-plus"
                }
            }
        }
    }

成本优化

重要

本文档仅适用于按量付费模式,Coding Plan 需要使用专属 Base URL 和 API Key 接入,详情请参考OpenClaw Coding Plan说明文档进行配置。

使用 OpenClaw 可能产生较高费用,建议参考以下措施优化成本。按量付费模式的Token消耗和账单请参见查看 Token 消耗账单查询与成本管理

购买Coding Plan

采用固定月费模式,有效防范了欠费风险,按实际”模型调用次数”扣除额度,不按 Token 计价,其折算成本远低于常规 API 调用,详情请参见Coding Plan概述

选择合适的模型

不同任务对模型能力的要求不同,合理搭配可以显著降低成本。复杂推理使用 qwen3.6-plus 等高性能模型,简单任务切换到 qwen3-coder-next 等轻量模型。切换方法请参见切换模型

优化上下文管理

OpenClaw 每次调用模型时会重新组装完整上下文(系统提示词 + 工具定义 + 记忆文件 + 对话历史 + 工具返回结果)。对话越长,每轮消耗的 Token 越多。以下方法可有效控制上下文体积:

  • 压缩与重置:发送 /compact 压缩当前会话上下文,或 /new 完全重置对话。OpenClaw 在接近上下文上限时也会自动触发压缩。

  • 缩小上下文窗口与输出长度:qwen3.6-plus 支持的最大 contextWindow 为 1000000,缩小此值可更频繁触发上下文压缩,降低每轮请求的 Token 消耗,并将输入Token数维持在阶梯计费的较低档位。

    点击查看配置示例

    {
      "models": {
        "mode": "merge",
        "providers": {
          "bailian": {
            "models": [{
              "id": "qwen3.6-plus",
              "name": "qwen3.6-plus",
              "reasoning": false,
              "input": ["text", "image"],
              "contextWindow": 262144,
              "maxTokens": 32768
            }]
          }
        }
      }
    }
  • 上下文裁剪(Context Pruning):启用 contextPruning 后,OpenClaw 会在缓存 TTL 到期后自动剔除过时的工具结果,避免历史调用结果在后续每轮请求中重复发送:

    点击查看配置示例

    {
      "agents": {
        "defaults": {
          "contextPruning": {
            "mode": "cache-ttl",
            "ttl": "1h"
          }
        }
      }
    }
  • 精简启动文件:OpenClaw 每轮对话会自动注入多个 .md 启动文件到上下文中,文件越大 Token 消耗越高。建议对以下文件进行精简:

    • MEMORY.md:长期记忆文件,通常体积最大。建议只保留结论和规则,临时信息可改用按日记忆文件(memory/YYYY-MM-DD.md)存储。

    • SOUL.md:代理人格与行为边界。只保留个性特征和行为偏好即可。

    • AGENTS.md:代理运行指令。只保留核心操作规则。

    • TOOLS.md:本地环境工具说明。仅保留必要的环境信息,避免与其他文件重复。

    • USER.md:用户信息(称呼、时区、偏好),保持精简即可。

  • 拆分复杂任务:长时间任务可通过子代理(Subagent)拆分为独立会话并行处理,完成后结果自动返回主会话。使用方式如下:

    • 自然语言(推荐):在会话中描述并行任务,AI 自动调用 sessions_spawn 启动子代理,如输入"启用两个子代理,分析 src 目录下的代码并同时检查测试覆盖率”。

    • 斜杠命令:输入 /subagents spawn <agentId> <任务描述> 手动启动子代理,命令立即返回运行 ID,结果完成后自动回传。

减少后台消耗

心跳(Heartbeat)会运行完整的 Agent 轮次,默认每 30 分钟触发一次,每次会加载完整对话历史。以下优化方式可按需选用:

降低频率与限定活跃时段

将间隔从 30 分钟延长到 60 分钟,并限定活跃时段,需要重启网关使配置生效。

# 查看当前心跳间隔
openclaw config get agents.defaults.heartbeat.every

# 修改为每小时
openclaw config set agents.defaults.heartbeat.every 1h
openclaw config set agents.defaults.heartbeat.activeHours.start 9:00
openclaw config set agents.defaults.heartbeat.activeHours.end 22:00

# 重启网关使配置生效
openclaw gateway restart

点击查看配置示例

{
  "agents": {
    "defaults": {
      "heartbeat": {
        "every": "60m",
        "activeHours": {
          "start": "09:00",
          "end": "22:00"
        }
      }
    }
  }
}

替换心跳模型

通过 model 字段为心跳指定更低成本的模型,避免使用默认模型执行心跳任务:

{
  "agents": {
    "defaults": {
      "heartbeat": {
        "model": "bailian/qwen3-coder-next"
      }
    }
  }
}

model 格式为 provider/model-id,可使用 models.providers 中已配置的任意模型。未指定时默认使用 model.primary

启用轻量心跳模式

在心跳配置中启用隔离会话和轻量上下文,同时精简 HEARTBEAT.md 至最小内容,只包含必要的检查指令,降低每次心跳的 Token 消耗:

{
  "agents": {
    "defaults": {
      "heartbeat": {
        "every": "30m",
        "isolatedSession": true,
        "lightContext": true,
        "target": "none"
      }
    }
  }
}
  • isolatedSession: true:每次心跳创建独立会话,不发送完整对话历史,Token 消耗从约 100,000 降至约 2,000~5,000。

  • lightContext: true:仅加载 HEARTBEAT.md,不加载其他启动文件。

  • target: "none":仅执行内部状态更新,不产生外部输出。

关闭心跳

关闭或重新启用心跳:

# 关闭心跳
openclaw system heartbeat disable

# 重新启用心跳
openclaw system heartbeat enable

# 查看上次心跳执行信息
openclaw system heartbeat last

点击查看配置示例

设置为"0m"可关闭心跳。

{
  "agents": {
    "defaults": {
      "heartbeat": {
        "every": "0m"
      }
    }
  }
}

常见问题

问题 1:提示找不到模型或回复为空

请确认:

  1. 模型 ID 拼写正确。

  2. 配置中的 provider 名称与引用时一致(如配置中是 bailian,引用时应为 bailian/qwen3.6-plus)。

  3. 配置中的reasoning参数必须设置为false

问题 2:执行 openclaw 命令时提示 "command not found"

可能是以下原因导致的:

  1. OpenClaw 安装没有成功。请在云服务器或本地终端执行openclaw --version,若输出版本号证明安装成功。

  2. OpenClaw 更名过程中部分命令尚未完全迁移。可以尝试:

    1. 使用旧命令 moltbotclawdbot 替代。

    2. 重新安装最新版本:npm install -g openclaw@latest