为AI智能体、聊天机器人、文档处理等场景选择合适的文本生成模型。
使用 OpenClaw、Claude Code或 Hermes?
qwen3.6-plus -- 能力与成本均衡,完整工具调用支持,100万上下文窗口,适用于大型代码库。 Token Plan用户还可选择 glm-5、kimi-k2.5 或 MiniMax-M2.5,均针对智能体工作流进行了优化。
应用场景
聊天机器人、内容生成、摘要总结、文档处理等场景,推荐使用 qwen3.6-plus,能力与成本均衡,拥有100万上下文窗口和完整的内置工具。确认效果满足需求后,可以尝试 qwen3.6-flash 来降低成本,效果接近旗舰模型,且拥有相同的上下文长度和功能支持。如需最强推理能力,可选择 qwen3.6-max-preview,但成本较高。
上下文窗口
100万Token约相当于约70万个汉字或10本小说。
-
长文档或大型代码库:
qwen3.6-plus/qwen3.6-flash(100万)。 -
常规任务:128k-256k已足够。
模型的上下文信息请前往模型广场查看。
思考模式
逐步推理,适用于多步数学计算、代码调试、架构规划或法律交叉引用等场景。
通过 enable_thinking 参数开启(Responses API 通过reasoning.effort参数控制思考模式开关与深度)。所有Qwen3及以上模型均支持,大多数为混合模式,可按请求灵活切换。
详情参见深度思考。
Function Calling与内置工具
让模型执行操作:查询天气、查询数据库、预订会议等。
-
Function Calling(自定义工具,模型调用):所有通用模型均支持。
-
内置工具(联网搜索、代码解释器、网页抓取等,无需复杂配置)。
详情参见工具调用。
结构化输出
获取有效的JSON返回,例如从文本中提取姓名和地址。
详情参见结构化输出。
批量推理
适用于大量请求且对延迟要求不高的场景,可降低请求成本。
详情参见批量推理。
推荐模型
中国内地
|
模型 |
上下文 |
思考模式 |
Function Calling |
内置工具 |
结构化输出 |
批量调用 |
|
|
256k |
|
|
|
|
|
|
|
1M |
|
|
|
|
|
|
|
1M |
|
|
|
|
|
|
|
1M |
|
|
|
|
|
|
|
1M |
|
|
|
|
|
|
|
198k |
|
|
|
|
|
|
|
256k |
|
|
|
|
|
|
|
192k |
|
|
|
|
|
全球
|
模型 |
上下文 |
思考模式 |
Function Calling |
内置工具 |
结构化输出 |
批量调用 |
|
|
256k |
|
|
|
|
|
|
|
1M |
|
|
|
|
|
|
|
1M |
|
|
|
|
|
国际
|
模型 |
上下文 |
思考模式 |
Function Calling |
内置工具 |
结构化输出 |
批量调用 |
|
|
256k |
|
|
|
|
|
|
|
1M |
|
|
|
|
|
|
|
1M |
|
|
|
|
|
美国
|
模型 |
上下文 |
思考模式 |
Function Calling |
内置工具 |
结构化输出 |
批量调用 |
|
|
1M |
|
|
|
|
|
|
|
1M |
|
|
|
|
|
所有模型
Qwen3.6
|
模型ID |
上下文 |
最大输出 |
思考预算 |
Function Calling |
内置工具 |
结构化输出 |
批量调用 |
Token Plan |
Coding Plan |
|
|
256k |
64k |
128k |
|
|
|
|
|
|
|
|
1M |
64k |
80k |
|
|
|
|
|
(仅pro) |
|
|
1M |
64k |
80k |
|
|
|
|
|
|
|
|
1M |
64k |
128k |
|
|
|
|
|
|
|
|
1M |
64k |
128k |
|
|
|
|
|
|
Qwen3.5
|
模型ID |
上下文 |
最大输出 |
思考预算 |
Function Calling |
内置工具 |
结构化输出 |
批量调用 |
Token Plan |
Coding Plan |
|
|
1M |
64k |
80k |
|
|
|
|
|
|
|
|
1M |
64k |
80k |
|
|
|
|
|
|
|
|
1M |
64k |
80k |
|
|
|
|
|
|
|
|
1M |
64k |
80k |
|
|
|
|
|
|
|
|
256k |
64k |
80k |
|
|
|
|
|
|
|
|
256k |
64k |
80k |
|
|
|
|
|
|
|
|
256k |
64k |
80k |
|
|
|
|
|
|
|
|
256k |
64k |
80k |
|
|
|
|
|
|
第三方模型
|
模型ID |
上下文 |
最大输出 |
思考预算 |
Function Calling |
内置工具 |
结构化输出 |
批量调用 |
Token Plan |
Coding Plan |
|
|
1M |
共384k |
|
|
|
|
|
|
|
|
|
1M |
共384k |
|
|
|
|
|
|
|
|
|
198k |
128k |
128k |
|
|
|
|
|
|
|
|
256k |
96k |
80k |
|
|
|
|
|
|
|
|
192k |
共32k |
|
|
|
|
|
|
|
旧版及其他模型
以下模型不再作为首选推荐。新项目建议使用Qwen3.6或Qwen3.5系列。如需查看模型详细参数(上下文窗口、计费等),请前往模型广场。