OpenClaw

更新时间:
复制为 MD 格式

OpenClaw接入阿里云 Coding Plan。OpenClaw (原名Moltbot/Clawdbot )是一个开源的个人 AI 助手平台,支持通过多种消息渠道与 AI 交互。

安装 OpenClaw

手动安装

  1. 安装或更新 Node.js(v22.0 或更高版本)。

  2. 执行以下命令开始安装。

    说明

    如果不熟悉命令行操作,建议参考快速部署OpenClaw,通过轻量应用服务器或无影云电脑的图形化界面完成 OpenClaw 安装和 Coding Plan 配置。

    macOS/Linux

    在终端执行以下命令。

    curl -fsSL https://openclaw.ai/install.sh | bash

    Windows

    PowerShell中执行以下命令。

    iwr -useb https://openclaw.ai/install.ps1 | iex
  3. 安装结束后会自动出现提示信息,请根据提示信息完成 OpenClaw 配置,参考配置如下:

    配置项

    配置内容

    I understand this is powerful and inherently risky. Continue?

    选择 ”Yes”

    Onboarding mode

    选择 “QuickStart”

    Model/auth provider

    选择 “Skip for now”,后续可以配置

    Filter models by provider

    选择 “All providers”

    Default model

    使用默认配置

    Select channel (QuickStart)

    选择 “Skip for now”,后续可以配置

    Configure skills now? (recommended)

    选择 “No”,后续可以配置。

    Enable hooks?

    按空格键选中 “Skip for now”,按回车键进入下一步。

    How do you want to hatch your bot?

    选择 “Hatch in TUI”。

Qwen Code 引导安装

OpenClaw 安装依赖于 Node.js 环境,手动安装可能会遇到环境配置问题。您可以使用 Qwen Code 来完成安装和验证。

  1. 安装并配置Qwen Code

  2. 在终端输入以下命令启动 Qwen Code。

    qwen
  3. 在 Qwen Code 对话框中输入以下指令。

    macOS/Linux

      请帮我安装 OpenClaw,依次执行以下命令完成安装和初始配置:                                                          
      1. 前置条件:需要先安装 Node.js(v22.0 或更高版本),可通过 node --version 检查是否已安装。                        
      2. curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard                                             
      3. openclaw gateway install
      4. openclaw onboard --non-interactive --accept-risk --flow quickstart --auth-choice skip --skip-channels --skip-skills  

    Windows

    说明

    安装目录默认为D:\openclaw-install,可根据需要替换为其他路径。

    请帮我安装 OpenClaw,依次执行以下命令完成安装和初始配置:                                                                                                                                                                          
    1. 前置条件:需要先安装 Node.js(v22 或更高版本),可通过 node --version 检查是否已安装。                     
    2. 下载安装包:                                                                                                    
       mkdir D:\openclaw-install && cd D:\openclaw-install          
       curl.exe -L -o openclaw.tgz https://registry.npmmirror.com/openclaw/-/openclaw-2026.3.11.tgz                                                                                  
    3. 解压并全局安装:
       tar -zxf openclaw.tgz && cd package && npm install && npm install -g .
    4. 验证安装并清理临时文件:
       openclaw --version
       cd D:\ && rmdir /s /q D:\openclaw-install
    5. 安装 Gateway 服务:
       openclaw gateway install
    6. 初始配置(跳过渠道和技能配置):
       openclaw onboard --non-interactive --accept-risk --flow quickstart --auth-choice skip --skip-channels
      --skip-skills
  4. 授权允许 Qwen Code 执行命令,直至完成安装。

  5. 输入/exit退出Qwen Code。

    /exit

在 OpenClaw 中配置 Coding Plan

方式一:通过Web UI修改配置文件

  1. 在终端执行以下命令打开 Web UI。

    openclaw dashboard
  2. Web UI的左侧菜单栏中选择配置 > RAW(或Config > RAW)。

    1. 首次配置:复制以下内容到Raw JSONS输入框,替换已有内容。

      已有配置:若需保留已有配置,请勿直接全量替换,详见已有配置如何安全修改?

    2. YOUR_API_KEY替换为Coding Plan 专属 API Key

    {
      "models": {
        "mode": "merge",
        "providers": {
          "bailian": {
            "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
            "apiKey": "YOUR_API_KEY",
            "api": "openai-completions",
            "models": [
              {
                "id": "qwen3.5-plus",
                "name": "qwen3.5-plus",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-max-2026-01-23",
                "name": "qwen3-max-2026-01-23",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-coder-next",
                "name": "qwen3-coder-next",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536
              },
              {
                "id": "qwen3-coder-plus",
                "name": "qwen3-coder-plus",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536
              },
              {
                "id": "MiniMax-M2.5",
                "name": "MiniMax-M2.5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 196608,
                "maxTokens": 32768
              },
              {
                "id": "glm-5",
                "name": "glm-5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "glm-4.7",
                "name": "glm-4.7",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "kimi-k2.5",
                "name": "kimi-k2.5",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 32768,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              }
            ]
          }
        }
      },
      "agents": {
        "defaults": {
          "model": {
            "primary": "bailian/qwen3.5-plus"
          },
          "models": {
            "bailian/qwen3.5-plus": {},
            "bailian/qwen3-max-2026-01-23": {},
            "bailian/qwen3-coder-next": {},
            "bailian/qwen3-coder-plus": {},
            "bailian/MiniMax-M2.5": {},
            "bailian/glm-5": {},
            "bailian/glm-4.7": {},
            "bailian/kimi-k2.5": {}
          }
        }
      },
      "gateway": {
        "mode": "local"
      }
    }
  3. 单击右上角 Save 保存,然后单击 Update使配置生效。

    保存成功后,apiKey将显示为“__OPENCLAW_REDACTED__”。脱敏保护,仅用于前端界面隐藏,不影响实际调用。

    image

方式二:通过终端修改配置文件

  1. 在终端执行以下命令打开配置文件。

    nano ~/.openclaw/openclaw.json
  2. 首次配置:复制以下内容到配置文件。将YOUR_API_KEY替换为Coding Plan 专属 API Key

    已有配置:若需保留已有配置,请勿直接全量替换,详见已有配置如何安全修改?

    {
      "models": {
        "mode": "merge",
        "providers": {
          "bailian": {
            "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
            "apiKey": "YOUR_API_KEY",
            "api": "openai-completions",
            "models": [
              {
                "id": "qwen3.5-plus",
                "name": "qwen3.5-plus",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-max-2026-01-23",
                "name": "qwen3-max-2026-01-23",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-coder-next",
                "name": "qwen3-coder-next",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536
              },
              {
                "id": "qwen3-coder-plus",
                "name": "qwen3-coder-plus",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536
              },
              {
                "id": "MiniMax-M2.5",
                "name": "MiniMax-M2.5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 196608,
                "maxTokens": 32768
              },
              {
                "id": "glm-5",
                "name": "glm-5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "glm-4.7",
                "name": "glm-4.7",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "kimi-k2.5",
                "name": "kimi-k2.5",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 32768,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              }
            ]
          }
        }
      },
      "agents": {
        "defaults": {
          "model": {
            "primary": "bailian/qwen3.5-plus"
          },
          "models": {
            "bailian/qwen3.5-plus": {},
            "bailian/qwen3-max-2026-01-23": {},
            "bailian/qwen3-coder-next": {},
            "bailian/qwen3-coder-plus": {},
            "bailian/MiniMax-M2.5": {},
            "bailian/glm-5": {},
            "bailian/glm-4.7": {},
            "bailian/kimi-k2.5": {}
          }
        }
      },
      "gateway": {
        "mode": "local"
      }
    }
  3. 保存文件并退出,运行以下命令来使配置生效。

    openclaw gateway restart

使用 OpenClaw

支持通过 Web UI 和 TUI 的方式使用 OpenClaw。

Web UI

  1. 新开一个终端,运行以下命令。

    openclaw dashboard
  2. Web UI中进行对话。

    image

TUI

  1. 新开一个终端,运行以下命令,进入TUI 界面。

    openclaw tui
  2. 开始对话。

    image

切换模型

  • 在当前会话切换模型(临时有效)

    在终端输入openclaw tui,进入 TUI 界面,使用 /model <模型名称> 在当前会话中切换模型。

    /model qwen3-coder-next
    界面返回提示“model set to qwen3-coder-next” 即表示生效。
  • 切换默认模型(永久有效)

    如需在每次新会话中使用指定模型,修改 agents.defaults.model.primary 字段为目标模型。请参考修改配置文件

    {
        "agents": {
            "defaults": {
                "model": {
                    "primary": "bailian/qwen3.5-plus"
                }
            }
        }
    }

接入钉钉机器人

前提条件

安装 OpenClaw在 OpenClaw 中配置 Coding Plan

步骤一:创建钉钉应用并获取凭证

  1. 选择或创建组织

    1. 登录钉钉开放平台,选择您有开发者权限的组织,或者选择某个组织后,获取开发者权限

      image

    2. 如果没有开发者权限,请直接创建一个组织。使用移动端钉钉扫描下方二维码,可快速完成创建。image

  2. 创建钉钉机器人应用

    1. 登录钉钉开放平台,在顶部菜单栏,选择应用开发

    2. 在页面右侧,单击创建应用,填写应用名称(例如"AI 助手")和描述,然后点击保存,系统自动进入应用详情页。

    3. 在应用详情的添加应用能力页面,选择添加机器人

    4. 配置机器人:

      • 开启机器人配置开关。

      • 填写机器人名称等必填项。

      • 消息接收模式 采用默认的 Stream 模式

      • 单击发布

  3. 获取应用凭证

    在左侧导航栏,单击凭证与基础信息,获取Client IDClient Secret。后续部署时使用。

    image

  4. 发布应用

    1. 在应用详情的左侧导航栏,单击版本管理与发布

    2. 在页面右侧,单击创建新版本,填写版本号(例如 1.0.0)。

    3. 设置可见范围,例如仅我可见

    4. 单击保存,然后确认发布。

步骤二:安装钉钉渠道插件

说明

如果使用轻量应用服务器部署方案无影云电脑部署方案部署 OpenClaw,通常已经内置插件,无需手动安装。

  1. 在终端执行以下命令安装钉钉渠道插件

    openclaw plugins install @soimy/dingtalk
  2. 安装完成后,执行以下命令确认插件已加载:

    openclaw plugins list

    输出中应该包含dingtalk插件且状态为 loaded

步骤三:配置钉钉渠道

说明

如果使用轻量应用服务器部署方案无影云电脑部署方案部署 OpenClaw,通常可以通过图形化界面进行配置,无需手动修改配置文件。

在 ~/.openclaw/openclaw.json 中添加 channels 和 plugins.allow 配置。将 YOUR_DINGTALK_APPKEY 和 YOUR_DINGTALK_APPSECRET 替换为步骤一:创建钉钉应用并获取凭证中获取的凭证。请将 channels 和 plugins 添加到已有配置文件的对应位置,不要覆盖已有的 modelsagents 等配置。

如果使用轻量应用服务器或无影云电脑部署 OpenClaw,通常可以通过图形化界面进行配置,无需手动修改配置文件,具体请参见对应产品的文档。
{
  "channels": {
    "dingtalk": {
      "enabled": true,
      "clientId": "YOUR_DINGTALK_APPKEY",
      "clientSecret": "YOUR_DINGTALK_APPSECRET",
      "robotCode": "YOUR_DINGTALK_APPKEY",
      "dmPolicy": "open",
      "groupPolicy": "open",
      "messageType": "markdown"
    }
  },
  "plugins": {
    "allow": ["dingtalk"],
    "entries": {
      "dingtalk": {
        "enabled": true
      }
    }
  }
}

以上配置中 dmPolicy 和 groupPolicy 均设为 open,适用于测试或个人使用场景。生产环境中建议设为 allowlist,通过白名单限制可访问的用户和群组,降低安全风险。

步骤四:测试

  1. 执行以下命令重启网关。

    openclaw gateway restart
  2. 执行以下命令检查钉钉渠道状态

    openclaw status

    在 Channels 部分,DingTalk 应显示为 ON 且状态为 OK - configured

  3. 在钉钉群聊中找到机器人,发送消息进行测试。

    image

使用案例

需要先完成安装 OpenClaw在 OpenClaw 中配置 Coding Plan以及接入钉钉机器人

案例一:定时推送 AI 新闻

通过 OpenClaw 的 Cron 定时任务功能,可以让 AI 每天定时抓取指定网站的新闻并通过钉钉推送给您,无需额外安装任何 Skill 或插件。

image

配置步骤

  1. 添加联网搜索MCP

  2. 在终端执行以下命令:

    openclaw cron add \
      --name "ai-daily-news" \
      --cron "0 9 * * *" \
      --tz "Asia/Shanghai" \
      --message "请访问 https://www.aibase.com/zh/daily 获取今天的AI日报,总结前10条最重要的AI新闻,用简洁的中文列表形式输出,每条包含标题和一句话摘要" \
      --channel dingtalk \
      --announce \
      --timeout-seconds 120

    参数说明如下:

    参数

    说明

    --name

    任务名称

    --cron

    Cron 表达式,"0 9 * * *" 表示每天 9:00 执行

    --tz

    时区,设为 "Asia/Shanghai" 即北京时间

    --message

    发送给 Agent 的提示词,告诉 AI 要抓取什么内容、如何总结

    --channel

    推送通道,设为 dingtalk

    --announce

    将结果推送到钉钉对话中

    --timeout-seconds

    任务超时时间(秒),网页抓取建议设为 120

    创建成功后将返回 JSON 格式的任务信息,包含任务 ID 和下次执行时间。

  3. 创建任务后,可以立即手动触发一次以验证效果。

    1. 查看任务列表,获取任务 ID。

      openclaw cron list
    2. 手动触发执行。

      openclaw cron run <任务ID> --timeout 120000
    3. 查看执行结果。

      openclaw cron runs --id <任务ID>

      当输出中 "status": "ok" 且 "delivered": true 时,表示新闻已成功推送到钉钉。

案例二:定时推送 arXiv 最新论文

通过 Cron 定时任务结合 arXiv API,按关键词检索最新论文并自动生成中文摘要推送到钉钉。

image

配置步骤

  1. 在终端中执行以下命令,创建每周一早上 9 点自动推送的定时任务。您可以将关键词llm+as+a+judge替换为任意感兴趣的研究方向(例如retrieval+augmented+generation)。

    openclaw cron add \
      --name "paper-digest" \
      --cron "0 9 * * 1" \
      --tz "Asia/Shanghai" \
      --message '请使用 curl 命令执行以下请求获取论文数据:
    curl -s "http://export.arxiv.org/api/query?search_query=all:%22llm+as+a+judge%22&start=0&max_results=5&sortBy=submittedDate&sortOrder=descending"
    解析返回的 XML 数据,列出前5篇论文,每篇包含:
    1. 标题
    2. 发布日期
    3. 摘要总结(用中文,2-3句话概括核心贡献)
    4. arXiv链接
    5. 如果XML中包含GitHub代码链接也列出
    按发布时间从新到旧排列。' \
      --channel dingtalk \
      --announce \
      --timeout-seconds 120
  2. 创建成功后,可以手动触发一次验证效果:

    1. 查看任务列表,获取任务 ID。

      openclaw cron list
    2. 手动触发执行。

      openclaw cron run <任务ID> --timeout 120000
    3. 查看执行结果。

      openclaw cron runs --id <任务ID>

      当输出中 "status": "ok" 且 "delivered": true 时,表示已成功推送到钉钉。

案例三:定时推送 HuggingFace 热门模型

每周一自动获取 HuggingFace 上最新最热门的大语言模型,包含模型名称、下载量、点赞数等信息,自动推送到钉钉。

image

配置步骤

  1. 在终端中执行以下命令,创建每周一早上 9 点自动推送的定时任务。

    openclaw cron add \
      --name "hf-trending-models" \
      --cron "0 9 * * 1" \
      --tz "Asia/Shanghai" \
      --message '请使用 curl 命令执行以下请求获取 HuggingFace 上最近热门的大语言模型:
    curl -s "https://hf-mirror.com/api/models?sort=trendingScore&direction=-1&limit=10&pipeline_tag=text-generation"
    解析返回的 JSON 数据,列出前10个模型,每个包含:
    1. 模型名称
    2. 发布日期
    3. 下载量和点赞数
    4. 模型页面链接(格式为 https://huggingface.co/<模型id>)
    重点标注最近一个月内新发布的模型,并用中文简要说明每个模型的特点(如参数量、所属机构等)。' \
      --channel dingtalk \
      --announce \
      --timeout-seconds 120
  2. 创建成功后,可以手动触发一次验证效果:

    1. 查看任务列表,获取任务 ID。

      openclaw cron list
    2. 手动触发执行。

      openclaw cron run <任务ID> --timeout 120000
    3. 查看执行结果。

      openclaw cron runs --id <任务ID>

      当输出中 "status": "ok" 且 "delivered": true 时,表示已成功推送到钉钉。

案例四:定时推送 GitHub 热门项目

每周自动获取 GitHub 上新创建且 Star 数最多的热门项目,包含项目简介、编程语言、Star 数等信息,自动推送到钉钉。

image

配置步骤

  1. 在终端中执行以下命令,创建每周一早上 9 点自动推送的定时任务。

    openclaw cron add \
        --name "github-trending" \
        --cron "0 9 * * 1" \
        --tz "Asia/Shanghai" \
        --message '请获取过去一周内 GitHub 上新创建的热门项目(按 Star
      数排序前10),每个项目列出名称、Star
      数、简介(中文翻译)、编程语言和链接,重点标注 Star 数超过 1000
      的项目。请先用 date 命令计算7天前的日期,然后通过 GitHub Search API 的
      created 参数筛选。' \
        --channel dingtalk \
        --announce \
        --timeout-seconds 120
  2. 创建成功后,可以手动触发一次验证效果:

    1. 查看任务列表,获取任务 ID。

      openclaw cron list
    2. 手动触发执行。

      openclaw cron run <任务ID> --timeout 120000
    3. 查看执行结果。

      openclaw cron runs --id <任务ID>

      当输出中 "status": "ok" 且 "delivered": true 时,表示已成功推送到钉钉。

了解更多

使用与创建 Skill

Skill 是模块化的知识包,每个 Skill 以 SKILL.md 文件定义,Agent 根据用户请求自动匹配并加载对应 Skill 执行任务。OpenClaw 内置了find-skills Skill,您可以直接向 Agent 提问来发现和安装新 Skill,例如“帮我找一个可以查天气的 Skill”。

也可以通过命令行从 ClawHub 搜索和安装 Skill:

clawhub install <skill-slug>   

如需创建自定义 Skill,请参考 OpenClaw 官方文档

接入 MCP 服务

OpenClaw 支持通过 MCP(Model Context Protocol)插件扩展 Agent 的工具调用能力,例如联网搜索、网页抓取等。具体案例可以参考添加联网搜索MCP

常见问题

如何查看coding plan已配置的模型?

在终端输入openclaw tui,进入TUI 界面,接着输入/model查看模型列表。按回车键选中模型,按Esc键退出模型列表。

image

为什么报错"HTTP 401: Incorrect API key provided."?

可能原因:

  1. API Key 无效、过期、为空、格式错误,或与端点环境不匹配,请检查 API Key 是否为 Coding Plan 套餐专属 Key,复制完整且无空格;确认订阅状态有效。

  2. OpenClaw的历史配置缓存导致配置错误,请删除~/.openclaw/agents/main/agent/models.json文件中的providers.bailian配置项,并重启OpenClaw。

我已经配置过钉钉等其他渠道,如何安全地添加 Coding Plan 模型(防止原有配置丢失)?

  • 请勿直接全量覆盖。直接“全部替换”会覆盖掉你的自定义配置,请进行局部修改

  • 您可以通过以下两种方式完成配置:

    • OpenClaw 可正常对话:直接在 OpenClaw 对话中输入以下指令完成配置合并。

    • OpenClaw 未配置模型或无法对话:在 OpenClaw 所在的设备上安装Qwen Code并启动,在对话框中输入以下指令完成配置合并。

    指令内容(请将 YOUR_API_KEY 替换为实际的 API Key):

    请帮我配置 OpenClaw 接入 Coding Plan。在 ~/.openclaw/openclaw.json中合并以下配置(保留原有配置不变,若字段不存在则新增):                                                                                                               
    1. models.providers 下添加 "bailian":                          
       - baseUrl: https://coding.dashscope.aliyuncs.com/v1
       - apiKey: YOUR_API_KEY(替换为实际值)
       - api: openai-completions
       - models.mode: merge
       - 模型列表(每个模型的 id 和 name 相同,reasoning 均为 false,cost 均为 0):
         - qwen3.5-plus: input ["text","image"], contextWindow 1000000, maxTokens 65536
         - qwen3-max-2026-01-23: input ["text"], contextWindow 262144, maxTokens 65536
         - qwen3-coder-next: input ["text"], contextWindow 262144, maxTokens 65536
         - qwen3-coder-plus: input ["text"], contextWindow 1000000, maxTokens 65536
         - MiniMax-M2.5: input ["text"], contextWindow 204800, maxTokens 131072
         - glm-5: input ["text"], contextWindow 202752, maxTokens 16384
         - glm-4.7: input ["text"], contextWindow 202752, maxTokens 16384
         - kimi-k2.5: input ["text","image"], contextWindow 262144, maxTokens 32768
    
    2. agents.defaults 下设置:
       - model.primary: "bailian/qwen3.5-plus"
       - models: 上述所有模型(格式为 "bailian/模型id": {})
    
    3. API Key: YOUR_API_KEY
    4. baseUrl: https://coding.dashscope.aliyuncs.com/v1
    
    配置完成后执行openclaw gateway restart使配置生效。
    配置完成后,新开一个 OpenClaw 或 Qwen Code 会话,输入以下指令验证配置是否生效:openclaw models status

    重启网关后,已有会话可能无法正常对话,请重启会话。

说明

如果通过轻量应用服务器或无影云电脑安装的OpenClaw,可直接使用图形化界面添加 Coding Plan 模型。

更多问题请参考常见问题