百炼支持调用通义千问的开源版,您无需本地部署模型。
模型简介
Qwen2
Qwen2是Qwen开源大语言模型的新系列。与最先进的开源语言模型(包括之前发布的 Qwen1.5)相比,Qwen2在一系列针对语言理解、语言生成、多语言能力、编码、数学、推理等的基准测试中总体上超越了大多数开源模型,并表现出与专有模型的竞争力。Qwen2增⼤了上下⽂⻓度⽀持,最⾼达到128K tokens(Qwen2-72B-Instruct),能够处理大量输入。
灵积平台上基于Qwen2开源的0.5B、1.5B、7B、72B和57B-A14B MoE模型的instruct版本,并进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。各个版本均对应魔搭社区开源的各个模型版本,详细参考ModelScope魔搭社区。
Qwen1.5
Qwen1.5是Qwen开源系列的下一个版本。与之前的版本相比,Qwen1.5显著提升了聊天模型与人类偏好的一致性,改善了它们的多语言能力,并具备了强大的链接外部系统能力。灵积上提供API服务的是新版本qwen模型的chat版本,在chat能力上大幅提升,即便在英文的MT-Bench上,Qwen1.5-Chat系列也取得了优秀的性能。
阿里云百炼平台上提供的模型基于千问开源版本,进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。各个版本均对应魔搭社区开源的各个尺寸的模型版本,详细参考链接。
Qwen
通义千问为阿里云研发的大语言系列开源模型。基于Transformer架构,在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在预训练模型的基础之上,使用对齐机制打造了模型的chat版本。其中千问-1.8B是18亿参数规模的模型,千问-7B是70亿参数规模的模型,千问-14B是140亿参数规模的模型,千问-72B是720亿参数规模的模型。
阿里云百炼平台上提供了基于千问开源版本的模型,并对模型进行了针对性的推理性能优化,为广大开发者提供了便捷的API服务。
应用场景
通义千问开源模型是一款强大的大语言模型,能够在多种应用场景下有出色表现。以下是其主要的应用场景:
文字创作:撰写故事、公文、邮件、剧本和诗歌等。
文本处理:润色文本和提取文本摘要等。
编程辅助:编写和优化代码等。
推理服务:语言编程。
模型概览
Qwen2
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen2-72b-instruct | 131,072 | 128,000 | 6,144 | 0.005元 | 0.01 | 100万Token 有效期:百炼开通后30天内 |
qwen2-57b-a14b-instruct | 32,768 | 30,720 | 0.0035 | 0.007 | ||
qwen2-7b-instruct | 131,072 | 128,000 | 0.001 | 0.002 | ||
qwen2-1.5b-instruct | 32,768 | 30,720 | 限时免费 | |||
qwen2-0.5b-instruct |
Qwen1.5
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen1.5-110b-chat | 32k | 30k | 8k | 0.007元 | 0.014元 | 100万Token 有效期:百炼开通后30天内 |
qwen1.5-72b-chat | 2k | 0.005元 | 0.01元 | |||
qwen1.5-32b-chat | 0.0035元 | 0.007元 | ||||
qwen1.5-14b-chat | 8k | 6k | 0.002元 | 0.004元 | ||
qwen1.5-7b-chat | 0.001元 | 0.002元 | ||||
qwen1.5-1.8b-chat | 32k | 30k | 限时免费 | |||
qwen1.5-0.5b-chat |
Qwen
模型名称 | 上下文长度 | 最大输入 | 最大输出 | 输入成本 | 输出成本 | 免费额度 |
(Token数) | (每千Token) | |||||
qwen-72b-chat | 32k | 30k | 2k | 0.02元 | 0.02元 | 100万Token 有效期:百炼开通后30天内 |
qwen-14b-chat | 8k | 6k | 0.008元 | 0.008元 | ||
qwen-7b-chat | 1.5k | 0.006元 | 0.006元 | |||
qwen-1.8b-chat | 2k | 限时免费 | ||||
qwen-1.8b-longcontext-chat | 32k | 30k | 限时免费(需申请) |
基础限流
关于模型的限流条件,请参见限流。