文档

通义千问

更新时间:
一键部署

模型简介

通义千问是由阿里云自主研发的大语言模型,用于理解和分析用户输入的自然语言,在不同领域、任务内为用户提供服务和帮助。您可以通过提供尽可能清晰详细的指令来获取符合您预期的结果。

通义千问VL是阿里云研发的大规模视觉语言模型(Large Vision Language Model, LVLM),可以以图像、文本、检测框作为输入,并以文本和检测框作为输出,支持中文多模态对话及多图对话,并具有更好的性能,是首个支持中文开放域的通用定位模型和首个开源448分辨率的大规模视觉语言模型。

模型概览

模型服务

模型名称

模型描述

应用场景

通义千问

qwen-turbo

通义千问超大规模语言模型,支持中文、英文等不同语言输入。

  • 文字创作:撰写故事、公文、邮件、剧本和诗歌等。

  • 文本处理:润色文本和提取文本摘要等。

  • 编程辅助:编写和优化代码等。

  • 翻译服务:提供各类语言的翻译服务,如英语、日语、法语或西班牙语等。

  • 对话模拟:扮演不同角色进行交互式对话。

  • 数据可视化:图表制作和数据呈现等。

qwen-plus

通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。

qwen-max

通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。

qwen-max-0403

通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年4月3号的历史快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。

qwen-max-0107

通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年1月7号的历史快照稳定版本,仅推荐特定需求客户访问。

qwen-max-1201

将于2024年4月22日下线

通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。

qwen-max-longcontext

通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。

通义千问VL

qwen-vl-plus

通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能。

  • 看图做题;

  • 图文识别;

  • 增强分辨率;

qwen-vl-max

通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。在更多复杂任务上提供最佳的性能。

计费和限流信息

为了保证用户调用模型的公平性,通义千问对于普通用户设置了基础限流。限流是基于模型维度的,并且和调用用户的阿里云主账号相关联,按照该账号下所有API-KEY调用该模型的总和计算限流。如果超出调用限制,用户的API请求将会因为限流控制而失败,用户需要等待一段时间待满足限流条件后方能再次调用。

模型名称

计费单价

免费额度

基础限流

qwen-turbo

0.008元/1,000 tokens

200万tokens

领取方式:新用户开通后自动发放到账户中。点击计费管理开通阿里云百炼服务。

有效期:180天

以下条件任何一个超出都会触发限流:

  • 调用频次 ≤ 500 QPM,每分钟不超过500次API调用;

  • Token消耗 ≤ 500,000 TPM,每分钟消耗的Token数目不超过500,000。

qwen-plus

¥0.02/1,000 tokens

100万tokens

领取方式:新用户开通后自动发放到账户中。点击计费管理开通阿里云百炼服务。

有效期:180天

以下条件任何一个超出都会触发限流:

  • 调用频次 ≤ 200 QPM,每分钟不超过200次API调用;

  • Token消耗 ≤ 200,000 TPM,每分钟消耗的Token数目不超过200,000。

qwen-max

¥0.12/1,000 tokens

100万tokens

领取方式:新用户开通后自动发放到账户中,点击计费管理开通阿里云百炼服务。

有效期:30天

以下条件任何一个超出都会触发限流:

  • 调用频次 ≤ 60 QPM,每分钟不超过60次API调用;

  • Token消耗 ≤ 100,000 TPM,每分钟消耗的Token数目不超过100,000。

qwen-max-0403

以下条件任何一个超出都会触发限流(限时免费开放中,限流策略可能随时变化):

  • 调用频次 ≤ 60 QPM,每分钟不超过60次API调用;

  • Token消耗 ≤ 100,000 TPM,每分钟消耗的Token数目不超过100,000。

qwen-max-1017

qwen-max-1201

将于2024年4月22日下线

关闭,qwen-max-1201的维护时间已经到期,4月22日即将下线,请及时迁移到更新版本模型。(4月8日开始模型限流也会逐步调低直至下线)

qwen-max-longcontext

以下条件任何一个超出都会触发限流:

  • 调用频次 ≤ 5 QPM,每分钟不超过5次API调用;

  • Token消耗 ≤ 1500,000 TPM,每分钟消耗的Token数目不超过1,500,000。

qwen-vl-plus

0.008元/1,000 tokens

100万tokens

领取方式:新用户开通后自动发放到账户中。点击计费管理开通阿里云百炼服务。

有效期:30天

以下条件任何一个超出都会触发限流:

  • 流量 ≤ 60 QPM,每分钟处理不超过60个完整的请求;

  • Token消耗 ≤ 100,000 TPM,每分钟消耗的Token数目不超过100,000。

qwen-vl-max

0.02元/1,000 tokens

以下条件任何一个超出都会触发限流:

  • 流量 ≤ 15 QPM,每分钟处理不超过15个完整的请求;

  • Token消耗 ≤ 25,000 TPM,每分钟消耗的Token数目不超过25,000。

如果您熟悉编程语言,推荐您使用SDK或API调用通义千问模型,实现灵活定制和开发。SDK或API调用请参考开发指南

说明

超出基础限流配额申请

将以下信息补充完整并发送到邮箱:modelstudio@service.aliyun.com,会有专员进行评估。

UID:

需调整的模型名称:

每分钟请求数:

每分钟使用量(token):

联系电话:

申请原因(需要尽可能的详细):

  • 本页导读 (1)
文档反馈