文档

部署及微调Qwen1.5系列模型

更新时间:

通义千问1.5(qwen1.5)是阿里云研发的通义千问系列开源大模型。该系列包括Base和Chat等多版本、多规模的开源模型,从而满足不同的计算需求。PAI已对该系列模型进行全面支持,本文以qwen1.5-7b-chat模型为例为您介绍如何在PAI-快速开始(PAI-QuickStart)中部署和微调该系列模型。

模型介绍

作为qwen1.0系列的进阶版,qwen1.5进行了大幅更新,主要体现在如下三个方面:

  • 多语言能力提升:qwen1.5在多语言处理能力上进行了显著优化,支持更广泛的语言类型和更复杂的语言场景。

  • 人类偏好对齐:通过采用直接策略优化(DPO)和近端策略优化(PPO)等技术,增强了模型与人类偏好的对齐度。

  • 长序列支持:所有规模的qwen1.5模型均支持高达32768个tokens的上下文长度,大幅提升了处理长文本的能力。

在性能评测方面,qwen1.5在多项基准测试中均展现出优异的性能。无论是在语言理解、代码生成、推理能力,还是在多语言处理和人类偏好对齐等方面,qwen1.5系列模型均表现出了强大的竞争力。

运行环境要求

  • 本示例目前仅支持在华北2(北京)、华东2(上海)、华南1(深圳)、华东1(杭州)地域使用PAI-快速开始(PAI-QuickStart)模块运行。

  • 资源配置要求:

    模型规模

    要求

    qwen1.5-0.5b/1.8b/4b/7b

    使用V100/P100/T4(16 GB显存)及以上卡型运行训练任务(QLoRA轻量化微调)。

    qwen1.5-14b

    使用V100(32 GB显存)/A10及以上卡型运行训练任务(QLoRA轻量化微调)。

通过PAI控制台使用模型

模型部署和调用

  1. 进入快速开始页面。

    1. 登录PAI控制台

    2. 在顶部左上角根据实际情况选择地域。

    3. 在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间内。

    4. 在左侧导航栏选择快速开始

  2. 在快速开始页面右侧的模型列表中,单击qwen1.5-7b-chat模型卡片,进入模型详情页面。

  3. 单击右上角模型部署,配置推理服务名称以及部署使用的资源信息,即可将模型部署到EAS推理服务平台。

    当前模型需要使用公共资源组进行部署。

    image

  4. 使用推理服务。

    任务管理中单击已部署的服务名称,在服务详情页面单击查看WEB应用,即可通过ChatLLM WebUI进行实时交互。

    image

模型微调训练

PAI-QuickStart为qwen1.5-7b-chat模型配置了微调算法,您可以通过开箱即用的方式对该模型进行微调。

训练算法支持使用JSON格式输入,每条数据由问题、答案组成,分别用"instruction""output"字段表示,例如:

[
    {
        "instruction": "写一首以“寓居夜感”为题的诗:",
        "output": "独坐晚凉侵,客窗秋意深。风沙疑化雾,夜气欲成霖。家务劳人倦,浓茶代酒斟。哀鸿鸣四野,一并助长吟。"    
     },
    {
        "instruction": "写一首以“次答友人思乡诗”为题的诗:",
        "output": "阅尽沧桑万事空,何如归卧夕阳中。并州最是伤心地,四十馀年噩梦同。"    
     }
]
  1. 模型详情页单击右上角微调训练。关键配置如下:

    • 数据集配置:当完成数据的准备,您可以将数据上传到对象存储OSS Bucket中,或是通过指定一个数据集对象,选择NAS或CPFS存储上的数据集。您也可以使用PAI预置的公共数据集,直接提交任务测试算法。

    • 计算资源配置:算法需要使用V100/P100/T4(16GB显存)的GPU资源,请确保选择使用的资源配额内有充足的计算资源。

    • 超参数配置:训练算法支持的超参信息如下,您可以根据使用的数据,计算资源等调整超参,或是使用算法默认配置的超参。

      超参数

      类型

      默认值

      是否必须

      描述

      learning_rate

      float

      5e-5

      学习率,用于控制模型权重,调整幅度。

      num_train_epochs

      int

      1

      训练数据集被重复使用的次数。

      per_device_train_batch_size

      int

      1

      每个GPU在一次训练迭代中处理的样本数量。较大的批次大小可以提高效率,也会增加显存的需求。

      seq_length

      int

      128

      序列长度,指模型在一次训练中处理的输入数据的长度。

      lora_dim

      int

      32

      LoRA维度,当lora_dim>0时,使用LoRA/QLoRA轻量化训练。

      lora_alpha

      int

      32

      LoRA权重,当lora_dim>0时,使用LoRA/QLoRA轻量化训练,该参数生效。

      load_in_4bit

      bool

      true

      模型是否以4 bit加载。

      当lora_dim>0、load_in_4bit为true且load_in_8bit为false时,使用4 bit QLoRA轻量化训练。

      load_in_8bit

      bool

      false

      模型是否以8比特加载。

      当lora_dim>0、load_in_4bit为false且load_in_8bit为true时,使用8 bit QLoRA轻量化训练。

      gradient_accumulation_steps

      int

      8

      梯度累积步骤数。

  2. 单击训练,PAI-QuickStart自动跳转到模型训练页面,并开始进行训练,您可以查看训练任务状态和训练日志。image

    如果需要将微调训练完的模型部署为在线服务,可以在同一页面的模型部署卡片中选择资源组,然后单击部署实现一键部署。模型调用方式和上文直接部署模型的调用方式相同。

通过PAI Python SDK使用模型

PAI-QuickStart提供的预训练模型也支持通过PAI Python SDK进行调用,首先需要安装和配置PAI Python SDK,您可以在命令行执行以下代码:

# 安装PAI Python SDK
python -m pip install alipai --upgrade

# 交互式的配置访问凭证、PAI工作空间等信息
python -m pai.toolkit.config

如何获取SDK配置所需的访问凭证(AccessKey)、PAI工作空间等信息请参考安装和配置

模型部署和调用

通过PAI-QuickStart在模型上预置的推理服务配置,您可轻松地将qwen1.5-7b-chat模型部署到PAI-EAS推理平台。

from pai.model import RegisteredModel

# 获取PAI提供的模型
model = RegisteredModel(
    model_name="qwen1.5-7b-chat",
    model_provider="pai"
)

# 直接部署模型
predictor = model.deploy(
    service="qwen7b_chat_example"
)

# 用户可以通过推理服务的详情页,打开部署的Web应用服务
print(predictor.console_uri)

模型的微调训练

通过SDK获取PAI-QuickStart提供的预训练模型后,您可以对模型进行微调。

# 获取模型的微调训练算法
est = model.get_estimator()

# 获取PAI提供的公共读数据和预训练模型
training_inputs = model.get_estimator_inputs()

# 使用用户自定义数据
# training_inputs.update(
#     {
#         "train": "<训练数据集OSS或是本地路径>",
#         "validation": "<验证数据集的OSS或是本地路径>"
#     }
# )

# 使用默认数据提交训练任务
est.fit(
    inputs=training_inputs
)

# 查看训练产出模型的OSS路径
print(est.model_data())

如果需要将微调训练完的模型部署为在线服务,可以在同一页面的模型部署卡片中选择资源组,然后单击部署实现一键部署。模型调用方式和上文直接部署模型的调用方式相同。

更多关于如何通过SDK使用PAI-QuickStart提供的预训练模型,请参见使用预训练模型 — PAI Python SDK

相关参考