通义千问是由阿里云自主研发的大模型,用于理解和分析用户输入的自然语言,以及图片、音频、视频等多模态数据。在不同领域和任务为用户提供服务和帮助。您可以通过提供尽可能清晰详细的指令,来获取符合您预期的结果。
更多通义系列模型请参见通义大模型。
模型体验
您可以在模型体验中心试用通义千问模型。
应用场景
通义千问凭借其强大的语言及多模态数据处理能力,为用户带来高效、智能的语言服务体验,其能力包括但不限于文字创作、翻译服务和对话模拟等,具体应用场景如下:
文字创作:撰写故事、公文、邮件、剧本和诗歌等。
文本处理:润色文本和提取文本摘要等。
编程辅助:编写和优化代码等。
翻译服务:提供各类语言的翻译服务,如英语、日语、法语或西班牙语等。
对话模拟:扮演不同角色进行交互式对话。
数据可视化:图表制作和数据呈现等。
文本生成-通义千问
以下是通义千问模型的商业版。相较于开源版,商业版具有最新的能力和改进。
各模型会不定期更新升级。如需使用固定版本,请选择快照版本。快照版本通常维护至下个快照版本发布时间的后一个月。
建议优先使用稳定版或最新版,限流条件更宽松。
通义千问Max
通义千问系列效果最好的模型,适合复杂、多步骤的任务。使用方法 | API参考 | 在线体验
公共云
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-max 当前与qwen-max-2024-09-19能力相同 Batch调用半价 | 稳定版 | 32,768 | 30,720 | 8,192 | 0.0024元 | 0.0096元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-max-latest 始终与最新快照版能力相同 Batch调用半价 | 最新版 | 131,072 | 129,024 | ||||
qwen-max-2025-01-25 又称qwen-max-0125、Qwen2.5-Max | 快照版 | ||||||
qwen-max-2024-09-19 又称qwen-max-0919 | 32,768 | 30,720 | 0.02元 | 0.06元 | |||
qwen-max-2024-04-28 又称qwen-max-0428 | 8,000 | 6,000 | 2,000 | 0.04元 | 0.12元 | ||
qwen-max-2024-04-03 又称qwen-max-0403 |
最新的qwen-max-0125模型:通义千问系列效果最好的模型,代码编写与理解能力、逻辑能力、多语言能力显著提升,回复风格面向人类偏好进行大幅调整,模型回复详实程度和格式清晰度明显改善,内容创作、JSON格式遵循、角色扮演能力定向提升。
金融云
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-max | 稳定版 | 8,000 | 6,000 | 2,000 | 0.038元 Batch调用:0.019元 | 0.114元 Batch调用:0.057元 | 100万Token 有效期:百炼开通后180天内 |
通义千问Plus
能力均衡,推理效果、成本和速度介于通义千问-Max和通义千问-Flash之间,适合中等复杂任务。
公共云
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-plus 当前与qwen-plus-2025-04-28能力相同 属于Qwen3系列 Batch调用半价 | 稳定版 | 131,072 | 思考模式 98,304 非思考模式 129,024 | 16,384 思维链最长38,912 | 0.0008元 | 思考模式 0.008元 非思考模式 0.002元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-plus-latest 始终与最新快照版能力相同 属于Qwen3系列 Batch调用半价 | 最新版 | 1,000,000 | 思考模式 995,904 非思考模式 997,952 默认129,024,可通过max_input_tokens 参数调整 | 32,768 思维链最长81,920 | 阶梯计价,请参见表格下方说明。 | ||
qwen-plus-2025-07-28 又称qwen-plus-0728 属于Qwen3系列 | 快照版 | 1,000,000 | 思考模式 995,904 非思考模式 997,952 | ||||
qwen-plus-2025-07-14 又称qwen-plus-0714 属于Qwen3系列 | 131,072 | 思考模式 98,304 非思考模式 129,024 | 16,384 思维链最长38,912 | 0.0008元 | 思考模式 0.008元 非思考模式 0.002元 | ||
qwen-plus-2025-04-28 又称qwen-plus-0428 属于Qwen3系列 |
qwen-plus-latest和qwen-plus-2025-07-28 根据本次请求输入的 Token数,采取阶梯计费。
输入Token数 | 输入价格(每千Token) | 模式 | 输出价格(每千Token) |
0-128K | 0.0008元 | 非思考模式 | 0.002元 |
思考模式 | 0.008元 | ||
128K-256K | 0.0024元 | 非思考模式 | 0.02元 |
思考模式 | 0.024元 | ||
256K-1M | 0.0048元 | 非思考模式 | 0.048元 |
思考模式 | 0.064元 |
上述模型支持思考模式和非思考模式,您可以通过 enable_thinking
参数实现两种模式的切换。除此之外,模型的能力得到了大幅提升:
推理能力:在数学、代码和逻辑推理等评测中,显著超过 QwQ 和同尺寸的非推理模型,达到同规模业界顶尖水平。
人类偏好能力:创意写作、角色扮演、多轮对话、指令遵循能力均大幅提升,通用能力显著超过同尺寸模型。
Agent 能力:在思考、非思考两种模式下都达到业界领先水平,能精准调用外部工具。
多语言能力:支持100多种语言和方言,多语言翻译、指令理解、常识推理能力都明显提升。
回复格式:修复了之前版本存在的回复格式的问题,如异常 Markdown、中间截断、错误输出 boxed 等问题。
对于上述模型,开启思考模式时如果没有输出思考过程,按非思考模式价格进行收费。
金融云
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-plus | 稳定版 | 131,072 | 128,000 | 8,192 | 0.00152元 Batch调用:0.00076元 | 0.0038元 Batch调用:0.0019元 | 100万Token 有效期:百炼开通后180天内 |
通义千问Flash
通义千问系列速度最快、成本极低的模型,适合简单任务。通义千问Flash采用灵活的阶梯定价,计费更合理。使用方法 | API参考 | 在线体验 | 思考模式
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-flash 当前与 qwen-flash-2025-07-28能力相同 属于Qwen3系列 Batch调用半价 | 稳定版 | 1,000,000 | 思考模式 995,904 非思考模式 997,952 | 32,768 思维链最长81,920 | 阶梯计价,请参见表格下方说明。 | 各100万Token 有效期:百炼开通后180天内 | |
qwen-flash-2025-07-28 属于Qwen3系列 | 快照版 |
qwen-flash 和 qwen-flash-2025-07-28根据本次请求输入的 Token数,采取阶梯计费,其中qwen-flash支持缓存和 Batch调用。
上下文长度 | 输入价格(每千Token) | 输出价格(每千Token) |
0-128K | 0.00015元 | 0.0015元 |
128K-256K | 0.0006元 | 0.006元 |
256K-1M | 0.0012元 | 0.012元 |
通义千问Turbo
通义千问Turbo 后续不再更新,建议替换为通义千问Flash。通义千问Flash采用灵活的阶梯定价,计费更合理。使用方法 | API参考 | 在线体验|思考模式
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-turbo 当前与 qwen-turbo-2025-04-28能力相同 属于Qwen3系列 Batch调用半价 | 稳定版 | 思考模式 131,072 非思考模式 1,000,000 | 思考模式 98,304 非思考模式 1,000,000 | 16,384 思维链最长38,912 | 0.0003元 | 思考模式 0.003元 非思考模式 0.0006元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-turbo-latest 始终与最新快照版能力相同 属于Qwen3系列 Batch调用半价 | 最新版 | ||||||
qwen-turbo-2025-07-15 又称qwen-turbo-0715 属于Qwen3系列 | 快照版 | ||||||
qwen-turbo-2025-04-28 又称qwen-turbo-0428 属于Qwen3系列 | |||||||
qwen-turbo-2025-02-11 又称qwen-turbo-0211 | 1,000,000 | 1,000,000 | 8,192 | 0.0006元 | |||
qwen-turbo-2024-11-01 又称qwen-turbo-1101 | 1000万Token 有效期:百炼开通后180天内 | ||||||
qwen-turbo-2024-09-19 又称qwen-turbo-0919 | 131,072 | 129,024 | 各100万Token 有效期:百炼开通后180天内 | ||||
qwen-turbo-2024-06-24 又称qwen-turbo-0624 | 8,000 | 6,000 | 2,000 | 0.002元 | 0.006元 |
最新的qwen-turbo-2025-07-15、qwen-turbo-2025-04-28、qwen-turbo-latest 与 qwen-turbo 模型支持思考模式和非思考模式,您可以通过 enable_thinking
参数实现两种模式的切换。除此之外,模型的能力得到了大幅提升:
推理能力:在数学、代码和逻辑推理等评测中,显著超过 QwQ 和同尺寸的非推理模型,达到同规模业界顶尖水平。
人类偏好能力:创意写作、角色扮演、多轮对话、指令遵循能力均大幅提升,通用能力显著超过同尺寸模型。
Agent 能力:在思考、非思考模式下都达到业界领先水平,能精准调用外部工具。
多语言能力:支持100多种语言和方言,多语言翻译、指令理解、常识推理能力都明显提升。
回复格式:修复了之前版本存在的回复格式的问题,如异常 Markdown、中间截断、错误输出 boxed 等问题。
对于 qwen-turbo-2025-07-15、qwen-turbo-2025-04-28、qwen-turbo-latest 与 qwen-turbo模型,开启思考模式时如果没有输出思考过程,按非思考模式价格进行收费。
QwQ
基于 Qwen2.5 模型训练的 QwQ 推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平。使用方法
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大思维链长度 | 最大回复长度 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||||
qwq-plus 当前与qwq-plus-2025-03-05能力相同 | 稳定版 | 131,072 | 98,304 | 32,768 | 8,192 | 0.0016元 Batch调用:0.0008元 | 0.004元 Batch调用:0.002元 | 各100万 Token 有效期:百炼开通后180天内 |
qwq-plus-latest 始终与最新快照版能力相同 | 最新版 | 0.0016元 | 0.004元 | |||||
qwq-plus-2025-03-05 又称qwq-plus-0305 | 快照版 |
通义千问Long
通义千问系列上下文窗口最长,能力均衡且成本较低的模型,适合长文本分析、信息抽取、总结摘要和分类打标等任务。使用方法 | 在线体验
公共云
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-long | 稳定版 | 10,000,000 | 10,000,000 | 8,192 | 0.0005元 Batch调用半价 | 0.002元 Batch调用半价 | 100万Token 有效期:百炼开通后180天内 |
qwen-long-latest 始终与最新快照版能力相同 | 最新版 | ||||||
qwen-long-2025-01-25 又称qwen-long-0125 | 快照版 | 0.0005元 | 0.002元 |
金融云
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen-long | 10,000,000 | 10,000,000 | 8,192 | 0.0005元 Batch调用:0.00025元 | 0.002元 Batch调用:0.001元 | 100万Token 有效期:百炼开通后180天内 |
通义千问Omni
通义千问全新多模态理解生成大模型,支持文本、图像、语音与视频输入,并输出文本与音频,提供了4种自然对话音色。使用方法|API 参考
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 免费额度 |
(Token数) | |||||
qwen-omni-turbo 当前与qwen-omni-turbo-2025-03-26能力相同 | 稳定版 | 32,768 | 30,720 | 2,048 | 各100万Token(不区分模态) 有效期:百炼开通后180天内 |
qwen-omni-turbo-latest 始终与最新快照版 能力相同 | 最新版 | ||||
qwen-omni-turbo-2025-03-26 又称qwen-omni-turbo-0326 | 快照版 | ||||
qwen-omni-turbo-2025-01-19 又称qwen-omni-turbo-0119 |
免费额度用完后,输入与输出的计费规则如下:
稳定版模型qwen-omni-turbo支持Batch调用,费用为以下价格的50%。注:Batch调用不支持抵扣免费额度。
|
| ||||||||||||||
计费示例:某次请求输入了1000 Token 的文本和1000 Token 的图片,输出了1000 Token 的文本和1000 Token 的音频,则该请求花费:0.0004元(文本输入)+ 0.0015元(图片输入)+ 0.05元(音频输出)= 0.0519元。在Batch调用模式下,该请求花费按50%计收,为0.02595元。 |
通义千问Omni-Realtime
相比于通义千问Omni,支持音频的流式输入,且内置 VAD(Voice Activity Detection,语音活动检测)功能,可自动检测用户语音的开始和结束。使用方法|客户端事件|服务端事件|在线体验
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 免费额度 |
(Token数) | |||||
qwen-omni-turbo-realtime 当前与qwen-omni-turbo-2025-05-08能力相同 | 稳定版 | 32,768 | 30,720 | 2,048 | 各100万Token(不区分模态) 有效期:百炼开通后180天内 |
qwen-omni-turbo-realtime-latest 始终与最新快照版能力相同 | 最新版 | ||||
qwen-omni-turbo-realtime-2025-05-08 | 快照版 |
免费额度用完后,输入与输出的计费规则如下:
|
|
QVQ
QVQ是视觉推理模型,支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现了更强的能力。使用方法|在线体验
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大思维链长度 | 最大回复长度 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||||
qvq-max 相比 qvq-plus 具有更强的视觉推理和指令遵循能力,在更多复杂任务中提供最佳性能。 当前与qvq-max-2025-03-25能力相同 | 稳定版 | 131,072 | 106,496 单图最大16384 | 16,384 | 8,192 | 0.008元 | 0.032元 | 各100万 Token 有效期:百炼开通后180天内 |
qvq-max-latest 始终与最新快照版能力相同 | 最新版 | |||||||
qvq-max-2025-05-15 又称qvq-max-0515 | 快照版 | |||||||
qvq-max-2025-03-25 又称qvq-max-0325 | ||||||||
qvq-plus 当前与qvq-plus-2025-05-15能力相同 | 稳定版 | 0.002元 | 0.005元 | |||||
qvq-plus-latest 始终与最新快照版能力相同 | 最新版 | |||||||
qvq-plus-2025-05-15 又称qvq-plus-0515 | 快照版 |
通义千问VL
通义千问VL是具有视觉(图像)理解能力的文本生成模型,不仅能进行OCR(图片文字识别),还能进一步总结和推理,例如从商品照片中提取属性,根据习题图进行解题等。使用方法 | API参考 | 在线体验
通义千问VL模型按输入和输出的总Token数进行计费。
图像Token的计算规则:每28x28像素对应一个Token,一张图最少需要4个Token。详细计算规则请参见视觉理解(Qwen-VL)。
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-vl-max 相比qwen-vl-plus再次提升视觉推理和指令遵循能力,在更多复杂任务中提供最佳性能。 当前与qwen-vl-max-2025-04-08能力相同 | 稳定版 | 131,072 | 129,024 单图最大16384 | 8,192 | 0.003元 Batch调用半价 | 0.009元 Batch调用半价 | 各100万Token 有效期:百炼开通后180天内 |
qwen-vl-max-latest 始终与最新快照版能力相同 | 最新版 | ||||||
qwen-vl-max-2025-04-08 又称qwen-vl-max-0408 增强数学和推理能力 | 快照版 | 0.003元 | 0.009元 | ||||
qwen-vl-max-2025-04-02 又称qwen-vl-max-0402 显著提高解决复杂数学问题的准确性 | |||||||
qwen-vl-max-2025-01-25 又称qwen-vl-max-0125 升级至Qwen2.5-VL系列,扩展上下文至128k,显著增强图像和视频的理解能力 | |||||||
qwen-vl-max-2024-12-30 又称qwen-vl-max-1230 | 32,768 | 30,720 单图最大16384 | 2,048 | ||||
qwen-vl-max-2024-11-19 又称qwen-vl-max-1119 | |||||||
qwen-vl-max-2024-10-30 又称qwen-vl-max-1030 | 0.02元 | ||||||
qwen-vl-max-2024-08-09 又称qwen-vl-max-0809 | |||||||
qwen-vl-plus 当前与qwen-vl-plus-2025-05-07能力相同 | 稳定版 | 131,072 | 129,024 单图最大16384 | 8,192 | 0.0015元 Batch调用半价 | 0.0045元 Batch调用半价 | |
qwen-vl-plus-latest 当前与 qwen-vl-plus-2025-05-07 能力相同 | 最新版 | 0.0015元 | 0.0045元 | ||||
qwen-vl-plus-2025-07-10 又称qwen-vl-plus-0710 进一步提升监控视频内容的理解能力 | 快照版 | 32,768 | 30,720 单图最大16384 | 0.00015元 | 0.0015元 | ||
qwen-vl-plus-2025-05-07 又称qwen-vl-plus-0507 显著提升数学、推理、监控视频内容的理解能力 | 131,072 | 129,024 单图最大16384 | 0.0015元 | 0.0045元 | |||
qwen-vl-plus-2025-01-25 又称qwen-vl-plus-0125 升级至Qwen2.5-VL系列,扩展上下文至128k,显著增强图像和视频理解能力 | |||||||
qwen-vl-plus-2025-01-02 又称qwen-vl-plus-0102 | 32,768 | 30,720 单图最大16384 | 2,048 | ||||
qwen-vl-plus-2024-08-09 又称qwen-vl-plus-0809 |
当前qwen-vl-plus-latest 模型的能力与 qwen-vl-plus-2025-05-07 相同,并不等同于最新快照版 qwen-vl-plus-2025-07-10。
通义千问OCR
通义千问OCR模型是专用于文字提取的模型。相较于通义千问VL模型,它更专注于文档、表格、试题、手写体文字等类型图像的文字提取能力。它能够识别多种语言,包括英语、法语、日语、韩语、德语、俄语和意大利语等。使用方法 | API参考|在线体验
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入输出单价 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen-vl-ocr 当前与qwen-vl-ocr-2025-04-13能力相同 | 稳定版 | 34,096 | 30,000 单图最大30000 | 4,096 | 0.005元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-vl-ocr-latest 始终与最新快照版能力相同 | 最新版 | |||||
qwen-vl-ocr-2025-04-13 又称qwen-vl-ocr-0413 大幅提升文字识别能力,新增六种内置的OCR任务,增加了自定义Prompt、图像旋转矫正等功能。 | 快照版 | |||||
qwen-vl-ocr-2024-10-28 又称qwen-vl-ocr-1028 | 快照版 |
qwen-vl-ocr、qwen-vl-ocr-latest、qwen-vl-ocr-2025-04-13模型的max_tokens
参数(最大输出长度)默认为 4096,如需提高该参数值(4097~8192范围),请发送邮件至 modelstudio@service.aliyun.com 进行申请,并提供以下信息:主账号ID、图像类型(如文档图、电商图、合同等)、模型名称、预计 QPS 和每日请求总数,以及模型输出长度超过4096的请求占比。
通义千问Audio
通义千问Audio是音频理解模型,支持输入多种音频(人类语音、自然音、音乐、歌声)和文本,并输出文本。该模型不仅能对输入的音频进行转录,还具备更深层次的语义理解、情感分析、音频事件检测、语音聊天等能力。使用方法
通义千问Audio模型按输入和输出的总Token数进行计费。
音频转换为Token的规则:每一秒钟的音频对应25个Token。若音频时长不足1秒,则按25个Token计算。
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-audio-turbo 当前与qwen-audio-turbo-2024-08-07 能力相同 | 稳定版 | 8,000 | 6,000 | 1,500 | 目前仅供免费体验。 免费额度用完后不可调用,敬请关注后续动态。 | 各10万Token 有效期:百炼开通后180天内 | |
qwen-audio-turbo-latest 始终与最新快照版能力相同 | 最新版 | 8,192 | 6,144 | 2,048 | |||
qwen-audio-turbo-2024-12-04 又称qwen-audio-turbo-1204 大幅提升语音识别准确率,且新增了语音聊天能力。 | 快照版 | ||||||
qwen-audio-turbo-2024-08-07 又称qwen-audio-turbo-0807 | 8,000 | 6,000 | 1,500 |
通义千问ASR(Beta版本)
通义千问ASR是基于Qwen-Audio训练,专用于语音识别的模型。目前支持的语言有:中文和英文。使用方法
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-audio-asr 当前与qwen-audio-asr-2024-12-04能力相同 | 稳定版 | 8,192 | 6,144 | 2,048 | 目前仅供免费体验。 免费额度用完后不可调用,敬请关注后续动态。 | 各10万Token 有效期:百炼开通后180天内 | |
qwen-audio-asr-latest 始终与最新快照版能力相同 | 最新版 | ||||||
qwen-audio-asr-2024-12-04 又称qwen-audio-asr-1204 | 快照版 |
通义千问数学模型
通义千问数学模型是专门用于数学解题的语言模型。使用方法 | API参考 | 在线体验
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-math-plus 当前与qwen-math-plus-2024-09-19能力相同 | 稳定版 | 4,096 | 3,072 | 3,072 | 0.004元 | 0.012元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-math-plus-latest 始终与最新快照版能力相同 | 最新版 | ||||||
qwen-math-plus-2024-09-19 又称qwen-math-plus-0919 | 快照版 | ||||||
qwen-math-plus-2024-08-16 又称qwen-math-plus-0816 | |||||||
qwen-math-turbo 当前与qwen-math-turbo-2024-09-19能力相同 | 稳定版 | 0.002元 | 0.006元 | ||||
qwen-math-turbo-latest 始终与最新快照版能力相同 | 最新版 | ||||||
qwen-math-turbo-2024-09-19 又称qwen-math-turbo-0919 | 快照版 |
通义千问Coder
通义千问代码模型。最新的 Qwen3-Coder-Plus 系列模型是基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,能够实现自主编程,代码能力卓越的同时兼具通用能力。使用方法 | API参考 | 在线体验
Qwen3-Coder
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen3-coder-plus 当前与qwen3-coder-plus-2025-07-22能力相同 | 稳定版 | 1,000,000 | 997,952 | 65,536 | 阶梯计价,请参见表格下方说明。 | 各100万Token 有效期:百炼开通后180天内 | |
qwen3-coder-plus-2025-07-22 | 快照版 | ||||||
qwen3-coder-flash 当前与qwen3-coder-flash-2025-07-28能力相同 | 稳定版 | ||||||
qwen3-coder-flash-2025-07-28 | 快照版 |
上述模型根据本次请求输入的Token数,采取阶梯计费。
qwen3-coder-plus
qwen3-coder-plus 模型将于2025年7月23日20:00起开启限时折扣,最高可享5折优惠;同时 qwen3-coder-plus 命中缓存的输入Token价格享受2.5折,相当于输入Token标准价格的10%,详情参见:Qwen3-Coder-Plus 限时优惠。qwen3-coder-plus 优惠后的价格为:
输入Token数 | 输入价格(每千Token) | 输出价格(每千Token) | 命中缓存的输入Token价格(每千Token) |
0-32K | 0.004元 | 0.016元 | 0.0004元(0.0016元的2.5折) |
32K-128K | 0.0042元(0.006元的7折) | 0.0168元(0.024元的7折) | 0.0006元(0.0024元的2.5折) |
128K-256K | 0.005元(0.01元的5折) | 0.02元(0.04元的5折) | 0.001元(0.004元的2.5折) |
256K-1M | 0.01元(0.02元的5折) | 0.1元(0.2元的5折) | 0.002元(0.008元的2.5折) |
qwen3-coder-plus-2025-07-22
qwen3-coder-plus-2025-07-22不支持上下文缓存,其价格为:
输入Token数 | 输入成本(每千Token) | 输出成本(每千Token) |
0-32K | 0.004元 | 0.016元 |
32K-128K | 0.006元 | 0.024元 |
128K-256K | 0.01元 | 0.04元 |
256K-1M | 0.02元 | 0.2元 |
qwen3-coder-flash
qwen3-coder-flash的价格为:
输入Token数 | 输入价格(每千Token) | 输出价格(每千Token) | 命中缓存的输入Token价格(每千Token) |
0-32K | 0.001元 | 0.004元 | 0.0004元 |
32K-128K | 0.0015元 | 0.006元 | 0.0006元 |
128K-256K | 0.0025元 | 0.01元 | 0.001元 |
256K-1M | 0.005元 | 0.025元 | 0.002元 |
qwen3-coder-flash-2025-07-28
qwen3-coder-flash-2025-07-28不支持上下文缓存,其价格为:
输入Token数 | 输入价格(每千Token) | 输出价格(每千Token) |
0-32K | 0.001元 | 0.004元 |
32K-128K | 0.0015元 | 0.006元 |
128K-256K | 0.0025元 | 0.01元 |
256K-1M | 0.005元 | 0.025元 |
Qwen-Coder (早期版本)
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-coder-plus 当前与qwen-coder-plus-2024-11-06能力相同 | 稳定版 | 131,072 | 129,024 | 8,192 | 0.0035元 | 0.007元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-coder-plus-latest 与qwen-coder-plus的最新快照版能力相同 | 最新版 | ||||||
qwen-coder-plus-2024-11-06 又称qwen-coder-plus-1106 | 快照版 | ||||||
qwen-coder-turbo 当前与qwen-coder-turbo-2024-09-19能力相同 | 稳定版 | 131,072 | 129,024 | 8,192 | 0.002元 | 0.006元 | |
qwen-coder-turbo-latest 与qwen-coder-turbo的最新快照版能力相同 | 最新版 | ||||||
qwen-coder-turbo-2024-09-19 又称qwen-coder-turbo-0919 | 快照版 |
通义千问翻译模型
基于 Qwen 3全面升级的旗舰级翻译大模型,支持92个语种(包括中、英、日、韩、法、西、德、泰、印尼、越、阿等)互译,模型性能和翻译效果全面升级,提供更稳定的术语定制、格式还原度、领域提示能力,让译文更精准、自然。使用方法 | 在线体验
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 |
(Token数) | (每千Token) | ||||
qwen-mt-plus 属于Qwen3-MT | 4,096 | 2,048 | 2,048 | 0.0018 | 0.0054 |
qwen-mt-turbo 属于Qwen3-MT | 0.0007 | 0.00195 |
通义千问数据挖掘模型
通义千问数据挖掘模型可以提取文档中的结构化信息并用于数据标注和内容审核等领域。使用方法 | API参考
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen-doc-turbo | 131,072 | 129,024 | 8,192 | 0.0006元 | 0.001元 | 限时免费试用 有效期:免费试用至2025年7月31日 试用期结束后按标准价格计费。 |
文本生成-通义千问-开源版
模型名称中,xxb表示参数规模,例如qwen2-72b-instruct表示参数规模为72B,即720亿。
百炼支持调用通义千问的开源版,您无需本地部署模型。对于开源版,建议使用Qwen3模型。
Qwen3
2025 年 7月发布的 qwen3-235b-a22b-thinking-2507 模型仅支持思考模式,是qwen3-235b-a22b(思考模式)的升级版。
2025 年 7月发布的 qwen3-235b-a22b-instruct-2507 模型仅支持非思考模式,是qwen3-235b-a22b(非思考模式)的升级版。
2025 年 7月发布的 qwen3-30b-a3b-thinking-2507 模型仅支持思考模式,是qwen3-30b-a3b (思考模式)的升级版。
2025 年 7月发布的 qwen3-30b-a3b-instruct-2507模型仅支持非思考模式,是qwen3-30b-a3b (非思考模式)的升级版。
2025 年 4月发布的 Qwen3 模型支持思考模式和非思考模式,您可以通过 enable_thinking
参数实现两种模式的切换。除此之外,Qwen3 模型的能力得到了大幅提升:
推理能力:在数学、代码和逻辑推理等评测中,显著超过 QwQ 和同尺寸的非推理模型,达到同规模业界顶尖水平。
人类偏好能力:创意写作、角色扮演、多轮对话、指令遵循能力均大幅提升,通用能力显著超过同尺寸模型。
Agent 能力:在推理、非推理两种模式下都达到业界领先水平,能精准调用外部工具。
多语言能力:支持100多种语言和方言,多语言翻译、指令理解、常识推理能力都明显提升。
回复格式:修复了之前版本存在的回复格式的问题,如异常 Markdown、中间截断、错误输出 boxed 等问题。
2025 年 4月发布的Qwen3 开源模型在思考模式下不支持非流式输出方式。
模型名称 | 模式 | 上下文长度 | 最大输入 | 最大思维链长度 | 最大回复长度 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||||
qwen3-235b-a22b-thinking-2507 | 仅思考模式 | 131,072 | 126,976 | 81,920 | 32,768 | 0.002元 | 0.02元 | 各100万 Token 有效期:百炼开通后180天内 |
qwen3-235b-a22b-instruct-2507 | 仅非思考模式 | 129,024 | - | 0.008元 | ||||
qwen3-30b-a3b-thinking-2507 | 仅思考模式 | 126,976 | 81,920 | 0.00075元 | 0.0075元 | |||
qwen3-30b-a3b-instruct-2507 | 仅非思考模式 | 129,024 | - | 0.003元 | ||||
qwen3-235b-a22b 本模型与以下模型均于2025 年 4月发布 | 非思考 | 129,024 | - | 16,384 | 0.002元 | 0.008元 | ||
思考 | 98,304 | 38,912 | 0.02元 | |||||
qwen3-32b | 非思考 | 129,024 | - | 0.002元 | 0.008元 | |||
思考 | 98,304 | 38,912 | 0.02元 | |||||
qwen3-30b-a3b | 非思考 | 129,024 | - | 0.00075元 | 0.003元 | |||
思考 | 98,304 | 38,912 | 0.0075元 | |||||
qwen3-14b | 非思考 | 129,024 | - | 8,192 | 0.001元 | 0.004元 | ||
思考 | 98,304 | 38,912 | 0.01元 | |||||
qwen3-8b | 非思考 | 129,024 | - | 0.0005元 | 0.002元 | |||
思考 | 98,304 | 38,912 | 0.005元 | |||||
qwen3-4b | 非思考 | 129,024 | - | 0.0003元 | 0.0012元 | |||
思考 | 98,304 | 38,912 | 0.003元 | |||||
qwen3-1.7b | 非思考 | 32,768 | 30,720 | - | 0.0012元 | |||
思考 | 28,672 | 与输入相加不超过30,720 | 0.003元 | |||||
qwen3-0.6b | 非思考 | 30,720 | - | 0.0012元 | ||||
思考 | 28,672 | 与输入相加不超过30,720 | 0.003元 |
对于 Qwen3 模型,开启思考模式时如果没有输出思考过程,按非思考模式价格进行收费。
QwQ-开源版
基于 Qwen2.5-32B 模型训练的 QwQ 推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平,各指标均显著超过同样基于 Qwen2.5-32B 的 DeepSeek-R1-Distill-Qwen-32B。使用方法|API 参考
模型名称 | 上下文长度 | 最大输入 | 最大思维链长度 | 最大回复长度 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwq-32b | 131,072 | 98,304 | 32,768 | 8,192 | 0.002元 | 0.006元 | 100万 Token 有效期:百炼开通后180天内 |
QwQ-Preview
qwq-32b-preview 模型是由 Qwen 团队于2024年开发的实验性研究模型,专注于增强 AI 推理能力,尤其是数学和编程领域。qwq-32b-preview 模型的局限性请参见QwQ官方博客。使用方法 | API参考|在线体验
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwq-32b-preview | 32,768 | 30,720 | 16,384 | 0.002元 Batch调用半价 | 0.006元 Batch调用半价 | 100万Token 有效期:百炼开通后180天内 |
Qwen2.5
Qwen2
Qwen1.5
QVQ
qvq-72b-preview模型是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力,尤其在数学推理领域。qvq-72b-preview模型的局限性请参见QVQ官方博客。使用方法 | API参考
如果希望模型先输出思考过程再输出回答内容,请使用商业版模型QVQ。
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qvq-72b-preview | 32,768 | 16,384 单图最大16384 | 16,384 | 0.012元 | 0.036元 | 10万Token 有效期:百炼开通后180天内 |
Qwen-Omni
基于Qwen2.5训练的全新多模态理解生成大模型,支持文本、图像、语音、视频输入理解,具备文本和语音同时流式生成的能力,多模态内容理解速度显著提升。使用方法|API 参考
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 免费额度 |
(Token数) | ||||
qwen2.5-omni-7b | 32,768 | 30,720 | 2,048 | 100万Token(不区分模态) 有效期:百炼开通后180天内 |
开源版模型的免费额度用完后,输入与输出的计费规则如下:
|
| ||||||||||||||
计费示例:某次请求输入了1000 Token 的文本和1000 Token 的图片,输出了1000 Token 的文本和1000 Token 的音频,则该请求花费:0.0006元(文本输入)+ 0.002元(图片输入)+ 0.076元(音频输出)= 0.0786元。 |
Qwen-VL
其中,Qwen2.5-VL在Qwen2-VL的基础上做了如下改进:
感知更丰富的世界:Qwen2.5-VL不仅擅长识别常见物体,如花、鸟、鱼和昆虫等,还能分析图像中的文本、图表、图标、图形和布局等。
长视频理解能力:支持对长视频文件(最长10分钟)进行理解,具备通过精准定位相关视频片段来捕捉事件的新能力
视觉定位:Qwen2.5-VL可通过生成bounding box(矩形框的左上角和右下角坐标)或者point(矩形框的中心点坐标)来准确定位图像中的物体,并能够为坐标和属性提供稳定的JSON输出。
结构化输出:可支持对发票、表单、表格等数据进行结构化输出,惠及金融、商业等领域的应用。
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen2.5-vl-72b-instruct | 131,072 | 129,024 单图最大16384 | 8,192 | 0.016元 | 0.048元 | 各100万Token 有效期:百炼开通后180天内 |
qwen2.5-vl-32b-instruct | 0.008元 | 0.024元 | ||||
qwen2.5-vl-7b-instruct | 0.002元 | 0.005元 | ||||
qwen2.5-vl-3b-instruct | 0.0012元 | 0.0036元 | ||||
qwen2-vl-72b-instruct | 32,768 | 30,720 单图最大16384 | 2,048 | 0.016元 | 0.048元 | |
qwen2-vl-7b-instruct | 32,000 | 30,000 单图最大16384 | 2,000 | 目前仅供免费体验。 免费额度用完后不可调用,敬请关注后续动态。 | 各10万Token 有效期:百炼开通后180天内 | |
qwen2-vl-2b-instruct | 限时免费 | |||||
qwen-vl-v1 | 8,000 | 6,000 单图最大1280 | 1,500 | 目前仅供免费体验。 免费额度用完后不可调用,敬请关注后续动态。 | ||
qwen-vl-chat-v1 |
Qwen-Audio
阿里云的通义千问Audio开源版。使用方法
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen2-audio-instruct 相比qwen-audio-chat提升了音频理解能力,且新增了语音聊天能力。 | 8,000 | 6,000 | 1,500 | 目前仅供免费体验。 免费额度用完后不可调用,敬请关注后续动态。 | 各10万Token 有效期:百炼开通后180天内 | |
qwen-audio-chat |
Qwen-Math
基于Qwen模型构建的专门用于数学解题的语言模型。Qwen2.5-Math支持中文和英文,并整合了多种推理方法,包括CoT(Chain of Thought)、PoT(Program of Thought)和 TIR(Tool-Integrated Reasoning)。使用方法 | API参考 | 在线体验
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen2.5-math-72b-instruct | 4,096 | 3,072 | 3,072 | 0.004元 | 0.012元 | 各100万Token 有效期:百炼开通后180天内 |
qwen2.5-math-7b-instruct | 0.001元 | 0.002元 | ||||
qwen2.5-math-1.5b-instruct | 限时免费 |
Qwen-Coder
通义千问代码模型开源版。最新的 qwen3-coder-480b-a35b-instruct 是基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,能够实现自主编程、代码能力卓越的同时兼具通用能力。使用方法 | API参考 | 在线体验
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen3-coder-480b-a35b-instruct | 262,144 | 204,800 | 65,536 | 阶梯计价,请参见表格下方说明。 | 各100万Token 有效期:百炼开通后180天内 | |
qwen3-coder-30b-a3b-instruct | ||||||
qwen2.5-coder-32b-instruct | 131,072 | 129,024 | 8,192 | 0.002元 | 0.006元 | |
qwen2.5-coder-14b-instruct | ||||||
qwen2.5-coder-7b-instruct | 0.001元 | 0.002元 | ||||
qwen2.5-coder-3b-instruct | 32,768 | 30,720 | 限时免费体验 | |||
qwen2.5-coder-1.5b-instruct | ||||||
qwen2.5-coder-0.5b-instruct |
qwen3-coder-480b-a35b-instruct 与 qwen3-coder-30b-a3b-instruct 根据本次请求输入的 Token数,采取阶梯计费。
模型名称 | 输入 Token 数 | 输入成本(每千Token) | 输出成本(每千Token) |
qwen3-coder-480b-a35b-instruct | 0-32K | 0.006元 | 0.024元 |
32K-128K | 0.009元 | 0.036元 | |
128K-200K | 0.015元 | 0.06元 | |
qwen3-coder-30b-a3b-instruct | 0-32K | 0.0015元 | 0.006元 |
32K-128K | 0.00225元 | 0.009元 | |
128K-200K | 0.0075元 | 0.0375元 |
基础限流
关于模型的限流条件,请参见限流。