文档

模型介绍

更新时间:
一键部署

说明

2024年5月21日至2024年5月28日(不含5月28日)期间,qwen1.5-32b-chat 和 qwen1.5-110b-chat 模型提供免费试用。计费逻辑如下:

用户组

5月21日-5月28日前

5月28日起

新用户*

  • 优先消耗400万免费额度

  • 免费额度耗尽后,仍可免费使用

  • 优先消耗400万免费额度

  • 免费额度耗尽后,开始计费

老用户*

免费使用

开始计费

*新用户指限2024年5月21日0点-2024年6月21日24点首次开通阿里云百炼或灵积的用户,其他用户均为老用户。有关限时免费额度的详细信息,请以新用户限时免费福利为准。

模型简介

Qwen2

Qwen2是Qwen开源大语言模型的新系列。参数范围包括0.5B到72B,包括Mixture-of-Experts模型。与最先进的开源语言模型(包括之前发布的 Qwen1.5)相比,Qwen2在一系列针对语言理解、语言生成、多语言能力、编码、数学、推理等的基准测试中总体上超越了大多数开源模型,并表现出与专有模型的竞争力。Qwen2增⼤了上下⽂⻓度⽀持,最⾼达到128K tokens(Qwen2-72B-Instruct),能够处理大量输入。

灵积平台上基于Qwen2开源的0.5B、1.5B、7B、72B和57B-A14B MoE模型的instruct版本,并进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。各个版本均对应魔搭社区开源的各个模型版本,详细参考ModelScope魔搭社区

Qwen1.5

Qwen1.5是Qwen开源系列的下一个版本。与之前的版本相比,Qwen1.5显著提升了聊天模型与人类偏好的一致性,改善了它们的多语言能力,并具备了强大的链接外部系统能力。灵积上提供API服务的是新版本qwen模型的chat版本,在chat能力上大幅提升,即便在英文的MT-Bench上,Qwen1.5-Chat系列也取得了优秀的性能。

阿里云百炼平台上提供的模型基于千问开源版本,进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。各个版本均对应魔搭社区开源的各个尺寸的模型版本,详细参考链接

Qwen

通义千问为阿里云研发的大语言系列开源模型。基于Transformer架构,在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在预训练模型的基础之上,使用对齐机制打造了模型的chat版本。其中千问-1.8B是18亿参数规模的模型,千问-7B是70亿参数规模的模型,千问-14B是140亿参数规模的模型,千问-72B是720亿参数规模的模型。

阿里云百炼平台上提供模型基于千问开源版本,进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。

应用场景

通义千问开源模型是一款强大的大语言模型,能够在多种应用场景下有出色表现。以下是其主要的应用场景:

  • 文字创作:撰写故事、公文、邮件、剧本和诗歌等。

  • 文本处理:润色文本和提取文本摘要等。

  • 编程辅助:编写和优化代码等。

  • 推理服务:语言编程。

模型概览

模型名

模型简介

模型输入输出限制

qwen2-57b-a14b-instruct

通义千问2对外开源的57B规模14B激活参数的MOE模型

模型支持 32,768 tokens上下文,为了保障正常使用和正常输出,API限定用户输入为 30,720 ,输出最大 6,144。

qwen2-72b-instruct

通义千问2对外开源的0.5~72B规模的模型

模型支持 131,072 tokens上下文,为了保障正常使用和正常输出,API限定用户输入为 128,000 ,输出最大 6,144。

qwen2-7b-instruct

qwen2-1.5b-instruct

模型支持 32,768 tokens上下文,为了保障正常使用和正常输出,API限定用户输入为 30,720 ,输出最大 6,144。

qwen2-0.5b-instruct

qwen1.5-110b-chat

通义千问1.5对外开源的110B规模参数量的经过人类指令对齐的chat模型

支持 32k tokens上下文,为了保障正常使用和正常输出,API限定用户输入为30k,输出最大8k。

qwen1.5-72b-chat

通义千问1.5对外开源的72B规模参数量的经过人类指令对齐的chat模型

支持32k tokens上下文,输入最大30k,输出最大2k tokens。

qwen1.5-32b-chat

通义千问1.5对外开源的32B规模参数量的经过人类指令对齐的chat模型

qwen1.5-14b-chat

通义千问1.5对外开源的14B规模参数量的经过人类指令对齐的chat模型

模型支持 8k tokens上下文,为了保障正常使用和正常输出,API限定用户输入为6k Tokens。

qwen1.5-7b-chat

通义千问1.5对外开源的7B规模参数量是经过人类指令对齐的chat模型

qwen1.5-1.8b-chat

通义千问1.5对外开源的1.8B规模参数量的经过人类指令对齐的chat模型

支持32k tokens上下文,输入最大30k,输出最大2k tokens。

qwen1.5-0.5b-chat

通义千问1.5对外开源的0.5B规模参数量的经过人类指令对齐的chat模型

qwen-72b-chat

通义千问对外开源的72B规模参数量的经过人类指令对齐的chat模型

支持32k tokens上下文,输入最大30k,输出最大2k tokens。

qwen-14b-chat

通义千问对外开源的14B规模参数量的经过人类指令对齐的chat模型

模型支持 8k tokens上下文,为了保障正常使用和正常输出,API限定用户输入为6k Tokens。

qwen-7b-chat

通义千问对外开源的7B规模参数量的经过人类指令对齐的chat模型

qwen-1.8b-longcontext-chat

通义千问对外开源的1.8B规模参数量的经过人类指令对齐的chat模型

支持32k tokens上下文,输入最大30k,输出最大2k tokens。

qwen-1.8b-chat

通义千问对外开源的1.8B规模参数量的经过人类指令对齐的chat模型

模型支持 8k tokens上下文,为了保障正常使用和正常输出,API限定用户输入为6k Tokens。

  • 本页导读 (1)