通义千问是由阿里云自主研发的大模型,用于理解和分析用户输入的自然语言,以及图片、音频、视频等多模态数据。在不同领域和任务为用户提供服务和帮助。您可以通过提供尽可能清晰详细的指令,来获取符合您预期的结果。
模型体验
您可以在模型体验中心试用通义千问模型。
应用场景
通义千问凭借其强大的语言及多模态数据处理能力,为用户带来高效、智能的语言服务体验,其能力包括但不限于文字创作、翻译服务和对话模拟等,具体应用场景如下:
文字创作:撰写故事、公文、邮件、剧本和诗歌等。
文本处理:润色文本和提取文本摘要等。
编程辅助:编写和优化代码等。
翻译服务:提供各类语言的翻译服务,如英语、日语、法语或西班牙语等。
对话模拟:扮演不同角色进行交互式对话。
数据可视化:图表制作和数据呈现等。
文本生成-通义千问
以下是通义千问模型的商业版。相较于开源版,商业版具有最新的能力和改进。
各模型会不定期更新升级。如需使用固定版本,请选择快照版本。快照版本通常维护至下个快照版本发布时间的后一个月。
QwQ
基于 Qwen2.5 模型训练的 QwQ 推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平。使用方法
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大思维链长度 | 最大回复长度 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大思维链长度 | 最大回复长度 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||||
qwq-plus 当前等同 qwq-plus-2025-03-05 | 稳定版 | 131,072 | 98,304 | 32,768 | 8,192 | 0.0016元 Batch调用:0.0008元 | 0.004元 Batch调用:0.002元 | 各100万 Token 有效期:百炼开通后180天内 |
qwq-plus-latest 始终等同最新快照版 | 最新版 | 0.0016元 | 0.004元 | |||||
qwq-plus-2025-03-05 又称qwq-plus-0305 | 快照版 |
通义千问-Max
通义千问系列效果最好的模型,适合复杂、多步骤的任务。使用方法 | API参考 | 在线体验
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-max 当前等同qwen-max-2024-09-19 | 稳定版 | 32,768 | 30,720 | 8,192 | 0.0024元 Batch调用:0.0012元 | 0.0096元 Batch调用:0.0048元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-max-latest 始终等同最新快照版 | 最新版 | ||||||
qwen-max-2025-01-25 又称qwen-max-0125、Qwen2.5-Max | 快照版 | 0.0024元 | 0.0096元 | ||||
qwen-max-2024-09-19 又称qwen-max-0919 | 0.02元 | 0.06元 | |||||
qwen-max-2024-04-28 又称qwen-max-0428 | 8,000 | 6,000 | 2,000 | 0.04元 | 0.12元 | ||
qwen-max-2024-04-03 又称qwen-max-0403 | |||||||
qwen-max-2024-01-07 又称qwen-max-0107 |
最新的qwen-max-0125模型:通义千问系列效果最好的模型,代码编写与理解能力、逻辑能力、多语言能力显著提升,回复风格面向人类偏好进行大幅调整,模型回复详实程度和格式清晰度明显改善,内容创作、JSON格式遵循、角色扮演能力定向提升。
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-max | 稳定版 | 8,000 | 6,000 | 2,000 | 0.038元 Batch调用:0.019元 | 0.114元 Batch调用:0.057元 | 100万Token 有效期:百炼开通后180天内 |
通义千问-Plus
能力均衡,推理效果、成本和速度介于通义千问-Max和通义千问-Turbo之间,适合中等复杂任务。使用方法 | API参考 | 在线体验
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-plus 当前等同qwen-plus-2025-01-25 | 稳定版 | 131,072 | 129,024 | 8,192 | 0.0008元 Batch调用:0.0004元 | 0.002元 Batch调用:0.001元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-plus-latest 始终等同最新快照版 | 最新版 | ||||||
qwen-plus-2025-01-25 又称qwen-plus-0125 | 快照版 | 0.0008元 | 0.002元 | ||||
qwen-plus-2025-01-12 又称qwen-plus-0112 | |||||||
qwen-plus-2024-12-20 又称qwen-plus-1220 | |||||||
qwen-plus-2024-11-27 又称qwen-plus-1127 | |||||||
qwen-plus-2024-11-25 又称qwen-plus-1125 | |||||||
qwen-plus-2024-09-19 又称qwen-plus-0919 | |||||||
qwen-plus-2024-08-06 又称qwen-plus-0806 | 128,000 | 0.004元 | 0.012元 | ||||
qwen-plus-2024-07-23 又称qwen-plus-0723 | 32,000 | 30,000 | 8,000 | ||||
qwen-plus-2024-06-24 又称qwen-plus-0624 | |||||||
qwen-plus-2024-02-06 又称qwen-plus-0206 |
最新的qwen-plus-2025-01-25模型:相对于qwen-plus-2025-01-12版本,整体中英文能力都有综合能力升级,中英文code能力、逻辑能力、多语言能力显著提升,回复风格面向人类偏好进行大幅调整,尤其是数学、逻辑推理、知识问答等客观类query,模型回复详实程度和格式清晰度明显改善,创作类专项、JSON格式遵循专项、角色扮演专项能力均定向提升。
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-plus | 稳定版 | 131,072 | 128,000 | 8,192 | 0.00152元 Batch调用:0.00076元 | 0.0038元 Batch调用:0.0019元 | 100万Token 有效期:百炼开通后180天内 |
通义千问-Turbo
通义千问系列速度最快、成本极低的模型,适合简单任务。使用方法 | API参考 | 在线体验
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-turbo 当前等同 qwen-turbo-2025-02-11 | 稳定版 | 1,000,000 | 1,000,000 | 8,192 | 0.0003元 Batch调用:0.00015元 | 0.0006元 Batch调用:0.0003元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-turbo-latest 始终等同最新快照版 | 最新版 | ||||||
qwen-turbo-2025-02-11 又称qwen-turbo-0211 | 快照版 | 0.0003元 | 0.0006元 | ||||
qwen-turbo-2024-11-01 又称qwen-turbo-1101 | 1000万Token 有效期:百炼开通后180天内 | ||||||
qwen-turbo-2024-09-19 又称qwen-turbo-0919 | 131,072 | 129,024 | 各100万Token 有效期:百炼开通后180天内 | ||||
qwen-turbo-2024-06-24 又称qwen-turbo-0624 | 8,000 | 6,000 | 2,000 | 0.002元 | 0.006元 | ||
qwen-turbo-2024-02-06 又称qwen-turbo-0206 |
最新的qwen-turbo-2024-11-01模型:在qwen-turbo-2024-09-19模型的能力之上扩展了上下文长度,模型支持的最大上下文长度从128k扩展到1M。
通义千问-Long
通义千问系列上下文窗口最长,能力均衡且成本较低的模型,适合长文本分析、信息抽取、总结摘要和分类打标等任务。使用方法 | 在线体验
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-long | 稳定版 | 10,000,000 | 10,000,000 | 8,192 | 0.0005元 Batch调用:0.00025元 | 0.002元 Batch调用:0.001元 | 100万Token 有效期:百炼开通后180天内 |
qwen-long-latest | 最新版 | ||||||
qwen-long-2025-01-25 | 快照版 | 0.0005元 | 0.002元 |
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen-long | 10,000,000 | 10,000,000 | 8,192 | 0.0005元 Batch调用:0.00025元 | 0.002元 Batch调用:0.001元 | 100万Token 有效期:百炼开通后180天内 |
通义千问Omni
通义千问全新多模态理解生成大模型,支持文本、图像、语音与视频输入,并输出文本,提供了4种自然对话音色。使用方法|API 参考
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 免费额度 |
(Token数) |
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 免费额度 |
(Token数) | |||||
qwen-omni-turbo 当前等同qwen-omni-turbo-2025-01-19 | 稳定版 | 32,768 | 30,720 | 2,048 | 各100万Token(不区分模态) 有效期:百炼开通后180天内 |
qwen-omni-turbo-latest 始终等同最新快照版 | 最新版 | ||||
qwen-omni-turbo-2025-01-19 又称qwen-omni-turbo-0119 | 快照版 |
当免费额度用完后,输入与输出的计费规则如下:
其中,稳定版模型qwen-omni-turbo支持Batch调用,费用为以下价格的50%。注:Batch调用不支持抵扣免费额度。
|
| ||||||||||||
计费示例:某次请求输入了1000 Token 的文本和1000 Token 的图片,输出了1000 Token 的文本,则该请求花费:0.0004元(文本输入)+ 0.0015元(图片输入)+ 0.0045元(文本输出)= 0.0064元。在Batch调用模式下,该请求花费按50%计收,为0.0032元。 |
通义千问VL
通义千问VL是具有视觉(图像)理解能力的文本生成模型,不仅能进行OCR(图片文字识别),还能进一步总结和推理,例如从商品照片中提取属性,根据习题图进行解题等。使用方法 | API参考 | 在线体验
通义千问VL模型按输入和输出的总Token数进行计费。
图像Token的计算规则:每28x28像素对应一个Token,一张图最少需要4个Token。详细计算规则请参见图像Token的计算规则。
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-vl-max 相比qwen-vl-plus再次提升视觉推理和指令遵循能力,在更多复杂任务中提供最佳性能。 当前等同qwen-vl-max-2024-11-19 | 稳定版 | 32,768 | 30,720 单图最大16384 | 2,048 | 0.003元 Batch调用:0.0015元 | 0.009元 Batch调用:0.0045元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-vl-max-latest 始终等同最新快照版 | 最新版 | 131,072 | 129,024 单图最大16384 | 8,192 | |||
qwen-vl-max-2025-01-25 又称qwen-vl-max-0125 此版本属于Qwen2.5-VL系列模型,扩展上下文至128k,显著增强图像和视频的理解能力。 | 快照版 | 0.003元 | 0.009元 | ||||
qwen-vl-max-2024-12-30 又称qwen-vl-max-1230 | 32,768 | 30,720 单图最大16384 | 2,048 | ||||
qwen-vl-max-2024-11-19 又称qwen-vl-max-1119 | |||||||
qwen-vl-max-2024-10-30 又称qwen-vl-max-1030 | 0.02元 | ||||||
qwen-vl-max-2024-08-09 又称qwen-vl-max-0809 此版本扩展上下文至32k,增强图像理解能力,能更好地识别图片中的多语种和手写体。 | |||||||
qwen-vl-max-2024-02-01 又称qwen-vl-max-0201 | 8,000 | 6,000 单图最大1280 | 2,000 | ||||
qwen-vl-plus 大幅提升细节识别和文字识别能力,支持超百万像素分辨率和任意宽高比的图像。在广泛的视觉任务中提供卓越性能。 | 稳定版 | 8,000 | 6,000 单图最大1280 | 0.0015元 Batch调用:0.00075元 | 0.0045元 Batch调用:0.00225元 | ||
qwen-vl-plus-latest 始终等同最新快照版 | 最新版 | 131,072 | 129,024 单图最大16384 | 8,192 | 0.0015元 | 0.0045元 | |
qwen-vl-plus-2025-01-25 又称qwen-vl-plus-0125 此版本属于Qwen2.5-VL系列模型,扩展上下文至128k,显著增强图像和视频的理解能力。 | 快照版 | ||||||
qwen-vl-plus-2025-01-02 又称qwen-vl-plus-0102 | 32,768 | 30,720 单图最大16384 | 2,048 | ||||
qwen-vl-plus-2024-08-09 又称qwen-vl-plus-0809 | |||||||
qwen-vl-plus-2023-12-01 | 8,000 | 6,000 | 2,000 | 0.008元 |
通义千问OCR
通义千问OCR模型是专用于文字提取的模型。相较于通义千问VL模型,它更专注于文档、表格、试题、手写体文字等类型图像的文字提取能力。它能够识别多种语言,包括英语、法语、日语、韩语、德语、俄语和意大利语等。使用方法 | API参考|在线体验
通义千问Audio
通义千问Audio是音频理解模型,支持输入多种音频(人类语音、自然音、音乐、歌声)和文本,并输出文本。该模型不仅能对输入的音频进行转录,还具备更深层次的语义理解、情感分析、音频事件检测、语音聊天等能力。使用方法
通义千问Audio模型按输入和输出的总Token数进行计费。
音频转换为Token的规则:每一秒钟的音频对应25个Token。若音频时长不足1秒,则按25个Token计算。
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-audio-turbo 当前等同qwen-audio-turbo-2024-08-07 | 稳定版 | 8,000 | 6,000 | 1,500 | 目前仅供免费体验。 免费额度用完后不可调用,敬请关注后续动态。 | 各10万Token 有效期:百炼开通后180天内 | |
qwen-audio-turbo-latest 始终等同最新快照版 | 最新版 | 8,192 | 6,144 | 2,048 | |||
qwen-audio-turbo-2024-12-04 又称qwen-audio-turbo-1204 较上个快照版本大幅提升语音识别准确率,且新增了语音聊天能力。 | 快照版 | ||||||
qwen-audio-turbo-2024-08-07 又称qwen-audio-turbo-0807 | 8,000 | 6,000 | 1,500 |
通义千问ASR(Beta版本)
通义千问ASR是基于Qwen-Audio训练,专用于语音识别的模型。目前支持的语言有:中文和英文。使用方法
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-audio-asr 当前等同qwen-audio-asr-2024-12-04 | 稳定版 | 8,192 | 6,144 | 2,048 | 目前仅供免费体验。 免费额度用完后不可调用,敬请关注后续动态。 | 各10万Token 有效期:百炼开通后180天内 | |
qwen-audio-asr-latest 始终等同最新快照版 | 最新版 | ||||||
qwen-audio-asr-2024-12-04 又称qwen-audio-asr-1204 | 快照版 |
通义千问数学模型
通义千问数学模型是专门用于数学解题的语言模型。使用方法 | API参考 | 在线体验
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-math-plus 当前等同qwen-math-plus-2024-09-19 | 稳定版 | 4,096 | 3,072 | 3,072 | 0.004元 | 0.012元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-math-plus-latest 始终等同最新快照版 | 最新版 | ||||||
qwen-math-plus-2024-09-19 又称qwen-math-plus-0919 | 快照版 | ||||||
qwen-math-plus-2024-08-16 又称qwen-math-plus-0816 | |||||||
qwen-math-turbo 当前等同qwen-math-turbo-2024-09-19 | 稳定版 | 0.002元 | 0.006元 | ||||
qwen-math-turbo-latest 始终等同最新快照版 | 最新版 | ||||||
qwen-math-turbo-2024-09-19 又称qwen-math-turbo-0919 | 快照版 |
通义千问Coder
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 版本 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | ||||||
qwen-coder-plus 当前等同qwen-coder-plus-2024-11-06 | 稳定版 | 131,072 | 129,024 | 8,192 | 0.0035元 | 0.007元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-coder-plus-latest 等同qwen-coder-plus最新的快照版本 | 最新版 | ||||||
qwen-coder-plus-2024-11-06 又称qwen-coder-plus-1106 | 快照版 | ||||||
qwen-coder-turbo 当前等同qwen-coder-turbo-2024-09-19 | 稳定版 | 131,072 | 129,024 | 8,192 | 0.002元 | 0.006元 | |
qwen-coder-turbo-latest 等同qwen-coder-turbo最新的快照版本 | 最新版 | ||||||
qwen-coder-turbo-2024-09-19 又称qwen-coder-turbo-0919 | 快照版 |
通义千问翻译模型
基于通义千问模型优化的机器翻译大语言模型,擅长中英互译、中文与小语种互译、英文与小语种互译,小语种包括日、韩、法、西、德、葡(巴西)、泰、印尼、越、阿等26种。在多语言互译的基础上,提供术语干预、领域提示、记忆库等能力,提升模型在复杂应用场景下的翻译效果。使用方法
文本生成-通义千问-开源版
模型名称中,xxb表示参数规模,例如qwen2-72b-instruct表示参数规模为72B,即720亿。
百炼支持调用通义千问的开源版,您无需本地部署模型。对于开源版,建议使用Qwen2.5或Qwen2模型。
QwQ-开源版
基于 Qwen2.5-32B 模型训练的 QwQ 推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平,各指标均显著超过同样基于 Qwen2.5-32B 的 DeepSeek-R1-Distill-Qwen-32B。使用方法
QwQ-Preview
qwq-32b-preview 模型是由 Qwen 团队于2024年开发的实验性研究模型,专注于增强 AI 推理能力,尤其是数学和编程领域。qwq-32b-preview 模型的局限性请参见QwQ官方博客。使用方法 | API参考|在线体验
Qwen2.5
Qwen2.5是Qwen大型语言模型的最新系列。针对Qwen2.5,我们发布了一系列基础语言模型和指令调优语言模型,参数规模从5亿到720亿不等。Qwen2.5在Qwen2基础上进行了以下改进:
在我们最新的大规模数据集上进行预训练,包含多达18万亿个Token。
由于我们在这些领域的专业专家模型,模型的知识显著增多,编码和数学能力也大幅提高。
在遵循指令、生成长文本(超过8K个标记)、理解结构化数据(例如表格)和生成结构化输出(尤其是JSON)方面有显著改进。对系统提示的多样性更具弹性,增强了聊天机器人的角色扮演实现和条件设置。
支持超过29种语言,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen2.5-14b-instruct-1m | 1,000,000 | 1,000,000 | 8,192 | 0.001元 | 0.003元 | 各100万Token 有效期:百炼开通后180天内 |
qwen2.5-7b-instruct-1m | 0.0005元 | 0.001元 | ||||
qwen2.5-72b-instruct | 131,072 | 129,024 | 0.004元 | 0.012元 | ||
qwen2.5-32b-instruct | 0.002元 | 0.006元 | ||||
qwen2.5-14b-instruct | 0.001元 | 0.003元 | ||||
qwen2.5-7b-instruct | 0.0005元 | 0.001元 | ||||
qwen2.5-3b-instruct | 32,768 | 30,720 | 0.0003元 | 0.0009元 | ||
qwen2.5-1.5b-instruct | 限时免费 | |||||
qwen2.5-0.5b-instruct |
Qwen2
阿里云的通义千问2-开源版。使用方法 | API参考 | 在线体验
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen2-72b-instruct | 131,072 | 128,000 | 6,144 | 0.004元 | 0.012元 | 各100万Token 有效期:百炼开通后180天内 |
qwen2-57b-a14b-instruct | 65,536 | 63,488 | 0.0035元 | 0.007元 | ||
qwen2-7b-instruct | 131,072 | 128,000 | 0.001元 | 0.002元 | ||
qwen2-1.5b-instruct | 32,768 | 30,720 | 限时免费 | |||
qwen2-0.5b-instruct |
Qwen1.5
阿里云的通义千问1.5-开源版。使用方法 | API参考 | 在线体验
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen1.5-110b-chat | 32,000 | 30,000 | 8,000 | 0.007元 | 0.014元 | 各100万Token 有效期:百炼开通后180天内 |
qwen1.5-72b-chat | 2,000 | 0.005元 | 0.01元 | |||
qwen1.5-32b-chat | 0.0035元 | 0.007元 | ||||
qwen1.5-14b-chat | 8,000 | 6,000 | 0.002元 | 0.004元 | ||
qwen1.5-7b-chat | 0.001元 | 0.002元 | ||||
qwen1.5-1.8b-chat | 32,000 | 30,000 | 限时免费 | |||
qwen1.5-0.5b-chat |
Qwen
阿里云的通义千问-开源版。使用方法 | API参考 | 在线体验
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen-72b-chat | 32,000 | 30,000 | 2,000 | 0.02元 | 0.02元 | 各100万Token 有效期:百炼开通后180天内 |
qwen-14b-chat | 8,000 | 6,000 | 0.008元 | 0.008元 | ||
qwen-7b-chat | 7,500 | 1,500 | 0.006元 | 0.006元 | ||
qwen-1.8b-chat | 8,000 | 2,000 | 限时免费 | |||
qwen-1.8b-longcontext-chat | 32,000 | 30,000 | 限时免费(需申请) |
QVQ
QVQ模型是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力,尤其在数学推理领域。QVQ模型的局限性请参见QVQ官方博客。使用方法 | API参考
Qwen-VL
其中,Qwen2.5-VL在Qwen2-VL的基础上做了如下改进:
感知更丰富的世界:Qwen2.5-VL不仅擅长识别常见物体,如花、鸟、鱼和昆虫等,还能分析图像中的文本、图表、图标、图形和布局等。
长视频理解能力:支持对长视频文件(最长10分钟)进行理解,具备通过精准定位相关视频片段来捕捉事件的新能力
视觉定位:Qwen2.5-VL可通过生成bounding box(矩形框的左上角和右下角坐标)或者point(矩形框的中心点坐标)来准确定位图像中的物体,并能够为坐标和属性提供稳定的JSON输出。
结构化输出:可支持对发票、表单、表格等数据进行结构化输出,惠及金融、商业等领域的应用。
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen2.5-vl-72b-instruct | 131,072 | 129,024 单图最大16384 | 8,192 | 0.016元 | 0.048元 | 各100万Token 有效期:百炼开通后180天内 |
qwen2.5-vl-7b-instruct | 0.002元 | 0.005元 | ||||
qwen2.5-vl-3b-instruct | 0.0012元 | 0.0036元 | ||||
qwen2-vl-72b-instruct | 32,768 | 30,720 单图最大16384 | 2,048 | 0.016元 | 0.048元 | |
qwen2-vl-7b-instruct | 32,000 | 30,000 单图最大16384 | 2,000 | 目前仅供免费体验。 免费额度用完后不可调用,敬请关注后续动态。 | 各10万Token 有效期:百炼开通后180天内 | |
qwen2-vl-2b-instruct | 限时免费 | |||||
qwen-vl-v1 | 8,000 | 6,000 单图最大1280 | 1,500 | 目前仅供免费体验。 免费额度用完后不可调用,敬请关注后续动态。 | ||
qwen-vl-chat-v1 |
Qwen-Audio
阿里云的通义千问Audio开源版。使用方法
Qwen-Math
基于Qwen模型构建的专门用于数学解题的语言模型。Qwen2.5-Math相比Qwen2-Math有了实质性的改进。Qwen2.5-Math支持中文和英文,并整合了多种推理方法,包括CoT(Chain of Thought)、PoT(Program of Thought)和 TIR(Tool-Integrated Reasoning)。使用方法 | API参考| 在线体验
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen2.5-math-72b-instruct | 4,096 | 3,072 | 3,072 | 0.004元 | 0.012元 | 各100万Token 有效期:百炼开通后180天内 |
qwen2.5-math-7b-instruct | 0.001元 | 0.002元 | ||||
qwen2.5-math-1.5b-instruct | 限时免费体验 | |||||
qwen2-math-72b-instruct | 0.004元 | 0.012元 | 各100万Token 有效期:百炼开通后180天内 | |||
qwen2-math-7b-instruct | 0.001元 | 0.002元 | ||||
qwen2-math-1.5b-instruct | 限时免费体验 |
Qwen-Coder
通义千问代码模型开源版。Qwen2.5-Coder相比CodeQwen1.5有了实质性的改进。Qwen2.5-Coder在包含5.5万亿Token的编程相关数据上进行了训练,使即使较小的编程专用模型也能在编程评估基准测试中表现出媲美大型语言模型的竞争力。API参考 | 在线体验
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) |
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen2.5-coder-32b-instruct | 131,072 | 129,024 | 8,192 | 0.002元 | 0.006元 | 各100万Token 有效期:百炼开通后180天内 |
qwen2.5-coder-14b-instruct | ||||||
qwen2.5-coder-7b-instruct | 0.001元 | 0.002元 | ||||
qwen2.5-coder-3b-instruct | 32,768 | 30,720 | 限时免费体验 | |||
qwen2.5-coder-1.5b-instruct | ||||||
qwen2.5-coder-0.5b-instruct |
基础限流
关于模型的限流条件,请参见限流。
- 本页导读 (1)
- 模型体验
- 应用场景
- 文本生成-通义千问
- QwQ
- 通义千问-Max
- 通义千问-Plus
- 通义千问-Turbo
- 通义千问-Long
- 通义千问Omni
- 通义千问VL
- 通义千问OCR
- 通义千问Audio
- 通义千问ASR(Beta版本)
- 通义千问数学模型
- 通义千问Coder
- 通义千问翻译模型
- 文本生成-通义千问-开源版
- QwQ-开源版
- QwQ-Preview
- Qwen2.5
- Qwen2
- Qwen1.5
- Qwen
- QVQ
- Qwen-VL
- Qwen-Audio
- Qwen-Math
- Qwen-Coder
- 基础限流