文档

模型介绍

更新时间:

百炼支持调用通义千问的开源版,您无需本地部署模型。

模型简介

Qwen2

Qwen2是Qwen开源大语言模型的新系列。与最先进的开源语言模型(包括之前发布的 Qwen1.5)相比,Qwen2在一系列针对语言理解、语言生成、多语言能力、编码、数学、推理等的基准测试中总体上超越了大多数开源模型,并表现出与专有模型的竞争力。Qwen2增⼤了上下⽂⻓度⽀持,最⾼达到128K tokens(Qwen2-72B-Instruct),能够处理大量输入。

灵积平台上基于Qwen2开源的0.5B、1.5B、7B、72B和57B-A14B MoE模型的instruct版本,并进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。各个版本均对应魔搭社区开源的各个模型版本,详细参考ModelScope魔搭社区

Qwen1.5

Qwen1.5是Qwen开源系列的下一个版本。与之前的版本相比,Qwen1.5显著提升了聊天模型与人类偏好的一致性,改善了它们的多语言能力,并具备了强大的链接外部系统能力。灵积上提供API服务的是新版本qwen模型的chat版本,在chat能力上大幅提升,即便在英文的MT-Bench上,Qwen1.5-Chat系列也取得了优秀的性能。

阿里云百炼平台上提供的模型基于千问开源版本,进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。各个版本均对应魔搭社区开源的各个尺寸的模型版本,详细参考链接

Qwen

通义千问为阿里云研发的大语言系列开源模型。基于Transformer架构,在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在预训练模型的基础之上,使用对齐机制打造了模型的chat版本。其中千问-1.8B是18亿参数规模的模型,千问-7B是70亿参数规模的模型,千问-14B是140亿参数规模的模型,千问-72B是720亿参数规模的模型。

阿里云百炼平台上提供了基于千问开源版本的模型,并对模型进行了针对性的推理性能优化,为广大开发者提供了便捷的API服务。

应用场景

通义千问开源模型是一款强大的大语言模型,能够在多种应用场景下有出色表现。以下是其主要的应用场景:

  • 文字创作:撰写故事、公文、邮件、剧本和诗歌等。

  • 文本处理:润色文本和提取文本摘要等。

  • 编程辅助:编写和优化代码等。

  • 推理服务:语言编程。

模型概览

Qwen2

阿里云的通义千问2-开源版。API参考 | 在线体验

模型名称

上下文长度

最大输入

最大输出

输入成本

输出成本

免费额度

(Token数)

(每千Token)

qwen2-72b-instruct

131,072

128,000

6,144

0.005元

0.01

100万Token

有效期:百炼开通后30天内

qwen2-57b-a14b-instruct

32,768

30,720

0.0035

0.007

qwen2-7b-instruct

131,072

128,000

0.001

0.002

qwen2-1.5b-instruct

32,768

30,720

限时免费

qwen2-0.5b-instruct

Qwen1.5

阿里云的通义千问1.5-开源版。API参考 | 在线体验

模型名称

上下文长度

最大输入

最大输出

输入成本

输出成本

免费额度

(Token数)

(每千Token)

qwen1.5-110b-chat

32k

30k

8k

0.007元

0.014元

100万Token

有效期:百炼开通后30天内

qwen1.5-72b-chat

2k

0.005元

0.01元

qwen1.5-32b-chat

0.0035元

0.007元

qwen1.5-14b-chat

8k

6k

0.002元

0.004元

qwen1.5-7b-chat

0.001元

0.002元

qwen1.5-1.8b-chat

32k

30k

限时免费

qwen1.5-0.5b-chat

Qwen

阿里云的通义千问-开源版。API参考 | 在线体验

模型名称

上下文长度

最大输入

最大输出

输入成本

输出成本

免费额度

(Token数)

(每千Token)

qwen-72b-chat

32k

30k

2k

0.02元

0.02元

100万Token

有效期:百炼开通后30天内

qwen-14b-chat

8k

6k

0.008元

0.008元

qwen-7b-chat

1.5k

0.006元

0.006元

qwen-1.8b-chat

2k

限时免费

qwen-1.8b-longcontext-chat

32k

30k

限时免费(需申请)

基础限流

关于模型的限流条件,请参见限流