本方案旨在帮助大模型开发者快速上手灵骏智算平台,实现大语言模型(Qwen-7B、Qwen-14B和Qwen-72B)的高效分布式训练、三阶段指令微调、模型离线推理和在线服务部署等完整的开发流程。以Qwen-7B模型为例,为您详细介绍该方案的开发流程。
前提条件
本方案以Qwen-7B v1.1.4版本的模型为例,在开始执行操作前,请确认您已经完成以下准备工作:
已开通PAI(DSW、DLC、EAS)并创建了默认的工作空间。具体操作,请参见开通PAI并创建默认工作空间。
已购买灵骏智算资源并创建资源配额。不同的模型参数量支持的资源规格列表如下,请根据您实际使用的模型参数量选择合适的资源,关于灵骏智算资源的节点规格详情,请参见灵骏Serverless版机型定价详情。具体操作,请参见新建资源组并购买灵骏智算资源和灵骏智算资源配额。
模型参数量
全参数训练资源
推理资源(最低)
Megatron训练模型切片
7B
8卡*gu7xf、8卡*gu7ef
1*V100(32 GB显存)、1*A10(24 GB显存)
TP1、PP1
14B
8卡*gu7xf、8卡*gu7ef
2*V100(32 GB显存)、2*A10(24 GB显存)
TP2、PP1
72B
4*8卡*gu7xf、4*8卡*gu7ef
6*V100(32 GB显存)、2卡*gu7xf
TP8、PP2
已创建阿里云文件存储(通用型NAS)类型的数据集,用于存储训练所需的文件和结果文件。默认挂载路径配置为
/mnt/data/nas
。具体操作,请参见创建及管理数据集。已创建DSW实例,其中关键参数配置如下。具体操作,请参见创建DSW实例。
资源配额:选择已创建的灵骏智算资源的资源配额。
资源规格:配置以下资源规格。
CPU(核数):90。
内存(GiB):1024。
共享内存(GiB):1024。
GPU(卡数):至少为8。
数据集挂载:单击自定义数据集,选择已创建的数据集,并使用默认挂载路径。
镜像:在镜像地址页签,配置镜像为
pai-image-manage-registry.cn-wulanchabu.cr.aliyuncs.com/pai/pytorch-training:1.12-ubuntu20.04-py3.10-cuda11.3-megatron-patch-llm
。
如果使用RAM用户完成以下相关操作,需要为RAM用户授予DSW、DLC或EAS的操作权限。具体操作,请参见云产品依赖与授权:DSW、云产品依赖与授权:DLC或云产品依赖与授权:EAS。
使用限制
仅支持在华北6(乌兰察布)地域使用该最佳实践。
步骤一:准备通义千问模型
本案例提供了以下三种下载模型的方式,您可以根据需要选择其中一种。具体操作步骤如下:
进入PAI-DSW开发环境。
登录PAI控制台。
在页面左上方,选择使用服务的地域:华北6(乌兰察布)。
在左侧导航栏单击工作空间列表,在工作空间列表页面中单击待操作的工作空间名称,进入对应工作空间内。
在左侧导航栏,选择 。
单击目标实例操作列下的打开。
在顶部菜单栏单击Terminal,在该页签中单击创建terminal。
下载通义千问模型。
从ModelScope社区下载模型
在Terminal中执行以下命令安装ModelScope。
执行以下命令进入Python环境。
以Qwen-7B模型为例,下载模型文件的代码示例如下。如果您需要下载Qwen-14B或Qwen-72B模型文件,请单击下述表格中相应的模型链接,并查看相应的代码。
按
Ctrl+D
,退出Python环境。执行以下命令将已下载的通义千问模型移动到对应文件夹中。
pip install modelscope
python
# ### Loading Model and Tokenizer from modelscope.hub.snapshot_download import snapshot_download model_dir = snapshot_download('qwen/Qwen-7B', 'v1.1.4') # model_dir = snapshot_download('qwen/Qwen-14B', 'v1.0.4') # model_dir = snapshot_download('qwen/Qwen-72B') # 获取下载路径 print(model_dir) # /root/.cache/modelscope/hub/qwen/Qwen-7B
模型类型
模型链接
模型名称
版本
Qwen-7B
qwen/Qwen-7B
v1.1.4
Qwen-7B-chat
qwen/Qwen-7B-Chat
Qwen-14B
qwen/Qwen-14B
v1.0.4
Qwen-14B-chat
qwen/Qwen-14B-Chat
Qwen-72B
qwen/Qwen-72B
master
Qwen-72B-chat
qwen/Qwen-72B-Chat
# mkdir -p /mnt/workspace/qwen-ckpts/${后缀为hf的ckpt文件夹} mkdir -p /mnt/workspace/qwen-ckpts/qwen-7b-hf # cp -r ${在此处填写已下载的模型路径}/* /mnt/workspace/qwen-ckpts/${后缀为hf的ckpt文件夹} cp -r /root/.cache/modelscope/hub/qwen/Qwen-7B/* /mnt/workspace/qwen-ckpts/qwen-7b-hf
从HuggingFace社区下载模型
在DSW的Terminal中执行以下命令下载模型文件。本方案以下载Qwen-7B模型为例,如果您需要下载Qwen-14B或Qwen-72B的模型文件,请参照下方代码进行修改。
mkdir /mnt/workspace/qwen-ckpts cd /mnt/workspace/qwen-ckpts git clone https://huggingface.co/Qwen/Qwen-7B # git clone https://huggingface.co/Qwen/Qwen-7B-Chat # git clone https://huggingface.co/Qwen/Qwen-14B # git clone https://huggingface.co/Qwen/Qwen-14B-Chat # git clone https://huggingface.co/Qwen/Qwen-72B # git clone https://huggingface.co/Qwen/Qwen-72B-Chat
步骤二:准备预训练数据
建议您在DSW实例中准备预训练数据。本案例以WuDaoCorpora2.0数据集(该数据集仅供研究使用)为例,介绍Megatron训练数据的预处理流程。您可以直接下载PAI已准备好的小规模样本数据,也可以按照以下操作步骤自行准备预训练数据。
使用PAI处理好的小规模样本数据
为了方便您试用该案例,PAI也提供了已经处理好的小规模样本数据,您可以在DSW的Terminal中执行以下命令下载样本数据。
mkdir /mnt/workspace/qwen-datasets/
cd /mnt/workspace/qwen-datasets
wget https://atp-modelzoo-wlcb-pai.oss-cn-wulanchabu.aliyuncs.com/release/models/pai-megatron-patch/qwen-datasets/alpaca_zh-qwen-train.json
wget https://atp-modelzoo-wlcb-pai.oss-cn-wulanchabu.aliyuncs.com/release/models/pai-megatron-patch/qwen-datasets/alpaca_zh-qwen-valid.json
mkdir -p /mnt/workspace/qwen-datasets/wudao
cd /mnt/workspace/qwen-datasets/wudao
wget https://atp-modelzoo-wlcb-pai.oss-cn-wulanchabu.aliyuncs.com/release/models/pai-megatron-patch/qwen-datasets/wudao_qwenbpe_content_document.bin
wget https://atp-modelzoo-wlcb-pai.oss-cn-wulanchabu.aliyuncs.com/release/models/pai-megatron-patch/qwen-datasets/wudao_qwenbpe_content_document.idx
自行处理数据
下载WuDaoCorpora2.0开源数据集到
/mnt/workspace/qwen-datasets
工作目录下。本案例将解压后的文件夹命名为wudao_200g。PAI提供了部分样例数据作为示例,您可以在DSW的Terminal中执行以下命令下载并解压数据集。
mkdir /mnt/workspace/qwen-datasets cd /mnt/workspace/qwen-datasets wget https://atp-modelzoo.oss-cn-hangzhou.aliyuncs.com/release/datasets/WuDaoCorpus2.0_base_sample.tgz tar zxvf WuDaoCorpus2.0_base_sample.tgz mv WuDaoCorpus2.0_base_sample wudao_200g
在Terminal中执行以下命令,对Wudao数据执行数据集清洗并进行文件格式转换,最终生成汇总的merged_wudao_cleaned.json文件。
#! /bin/bash set -ex # 请在此处设置原始数据所在路径。 data_dir=/mnt/workspace/qwen-datasets/wudao_200g # 开始数据清洗流程。 dataset_dir=$(dirname $data_dir) mkdir -p ${dataset_dir}/cleaned_wudao_dataset cd ${dataset_dir}/cleaned_wudao_dataset wget https://atp-modelzoo-wlcb-pai.oss-cn-wulanchabu.aliyuncs.com/release/models/pai-megatron-patch/llama2-codes/preprocess_wudao2.py # 此处与上一节不同,增加了key参数设为text。 python preprocess_wudao2.py -i ${data_dir} -o ${dataset_dir}/cleaned_wudao_dataset -k text -p 32 # 合并清洗后的数据。 mkdir ${dataset_dir}/wudao cd ${dataset_dir}/wudao find ${dataset_dir}/cleaned_wudao_dataset -name "*.json" -exec cat {} + > ${dataset_dir}/wudao/merged_wudao_cleaned.json rm -rf ${dataset_dir}/cleaned_wudao_dataset
命令执行完成后,
qwen-datasets
目录的文件结构如下,新增了一个wudao文件夹。qwen-datasets ├── wudao_200g └── wudao └── merged_wudao_cleaned.json
在Terminal中执行以下命令,利用生成的merged_wudao_cleaned.json文件将数据拆分成若干组并进行压缩,以便于后续实现多线程处理。
apt-get update apt-get install zstd # 此处设置分块数为10,如数据处理慢可设置稍大。 NUM_PIECE=10 # 对merged_wudao_cleaned.json文件进行处理。 mkdir -p ${dataset_dir}/cleaned_zst/ # 查询数据总长度,对数据进行拆分。 NUM=$(sed -n '$=' ${dataset_dir}/wudao/merged_wudao_cleaned.json) echo "total line of dataset is $NUM, data will be split into $NUM_PIECE pieces for processing" NUM=`expr $NUM / $NUM_PIECE` echo "each group is processing $NUM sample" split_dir=${dataset_dir}/split mkdir $split_dir split -l $NUM --numeric-suffixes --additional-suffix=.jsonl ${dataset_dir}/wudao/merged_wudao_cleaned.json $split_dir/ # 数据压缩。 o_path=${dataset_dir}/cleaned_zst/ mkdir -p $o_path files=$(ls $split_dir/*.jsonl) for filename in $files do f=$(basename $filename) zstd -z $filename -o $o_path/$f.zst & done rm -rf $split_dir rm ${dataset_dir}/wudao/merged_wudao_cleaned.json
命令执行完成后,
qwen-datasets
目录的文件结构如下。新增了一个cleaned_zst
文件夹,该文件夹中有10个压缩文件。qwen-datasets ├── wudao_200g ├── wudao └── cleaned_zst ├── 00.jsonl.zst │ ... └── 09.jsonl.zst
制作MMAP格式的预训练数据集。
MMAP数据是一种预先执行tokenize的数据格式,可以减少训练微调过程中等待数据读入的时间,尤其在处理大规模数据时优势更为突出。具体操作步骤如下:
在DSW的Terminal中执行以下命令,将Megatron格式的模型训练工具源代码PAI-Megatron-Patch拷贝至DSW的工作目录
/mnt/workspace/
下。cd /mnt/workspace/ # 方式一:通过开源网站获取训练代码。 git clone --recurse-submodules https://github.com/alibaba/Pai-Megatron-Patch.git # 方式二:通过wget方式获取训练代码,需要执行tar zxvf Pai-Megatron-Patch.tgz进行解压。 wget https://atp-modelzoo.oss-cn-hangzhou.aliyuncs.com/release/models/Pai-Megatron-Patch.tgz
在Terminal中执行以下命令将数据转换成MMAP格式。
命令执行成功后,在
/mnt/workspace/qwen-datasets/wudao
目录下生成.bin
和.idx
文件。# 安装Qwen依赖的tokenizer库包。 pip install tiktoken # 请在此处设置数据集路径和工作路径。 export dataset_dir=/mnt/workspace/qwen-datasets export WORK_DIR=/mnt/workspace # 分别为训练集、验证集生成mmap格式预训练数据集。 cd ${WORK_DIR}/Pai-Megatron-Patch/toolkits/pretrain_data_preprocessing bash run_make_pretraining_dataset.sh \ ../../Megatron-LM-23.04 \ ${WORK_DIR}/Pai-Megatron-Patch/ \ ${dataset_dir}/cleaned_zst/ \ qwenbpe \ ${dataset_dir}/wudao/ \ ${WORK_DIR}/qwen-ckpts/qwen-7b-hf rm -rf ${dataset_dir}/cleaned_zst
其中运行run_make_pretraining_dataset.sh输入的六个启动参数说明如下:
参数
描述
MEGATRON_PATH=$1
设置开源Megatron的代码路径。
MEGATRON_PATCH_PATH=$2
设置Megatron Patch的代码路径。
input_data_dir=$3
打包后的Wudao数据集的文件夹路径。
tokenizer=$4
指定分词器的类型为qwenbpe。
output_data_dir=$5
指定输出的
.bin
和.idx
文件的保存路径。load_dir=$6
生成的tokenizer_config.json文件的路径。
脚本执行完成后,
qwen-datasets
目录的文件结构如下。qwen-datasets ├── wudao_200g └── wudao ├── wudao_qwenbpe_content_document.bin └── wudao_qwenbpe_content_document.idx
步骤三:Megatron训练
您可以按照以下流程进行Megatron训练。
模型格式转换
将HuggingFace格式的模型文件转换为Megatron格式。
下载转换好的Megatron模型
为方便您试用该案例,PAI提供了已经转换好格式的模型。您可以在Terminal中执行以下命令下载模型。
cd /mnt/workspace/
mkdir qwen-ckpts
cd qwen-ckpts
wget https://atp-modelzoo-wlcb-pai.oss-cn-wulanchabu.aliyuncs.com/release/models/pai-megatron-patch/qwen-ckpts/qwen-7b-hf-to-mg-tp1-pp1.tgz
tar -zxf qwen-7b-hf-to-mg-tp1-pp1.tgz
mv qwen-7b-hf-to-mg-tp1-pp1 qwen-7b-hf-to-megatron-tp1-pp1
自行将HuggingFace格式的模型转换成Megatron格式
在Terminal中执行以下命令,使用PAI提供的模型转换工具,将HuggingFace格式的模型文件转换为Megatron格式:
# 转换模型。
cd /mnt/workspace/Pai-Megatron-Patch/toolkits/model_checkpoints_convertor/qwen
sh model_convertor.sh \
../../../Megatron-LM-main \
/mnt/workspace/qwen-ckpts/qwen-7b-hf \
/mnt/workspace/qwen-ckpts/qwen-7b-hf-to-megatron-tp1-pp1 \
1 \
1 \
qwen-7b \
0 \
false
其中运行model_convertor.sh需要传入的参数说明如下:
参数 | 描述 |
MEGATRON_PATH=$1 | 设置开源Megatron的代码路径。 |
SOURCE_CKPT_PATH=$2 | HuggingFace格式的模型文件路径。 |
TARGET_CKPT_PATH=$3 | 转换为Megatron格式模型后保存的路径。 |
TP=$4 | 张量切片数量,与训练保持一致。不同参数量下的切片数量不同,在转换模型时需进行针对性修改:
|
PP=$5 | 流水切片数量,与训练保持一致。不同参数量下的切片数量不同,在转换模型时需进行针对性修改:
|
MN=$6 | 模型名称:qwen-7b、qwen-14b或qwen-72b。 |
EXTRA_VOCAB_SIZE=$7 | 额外词表大小。 |
mg2hf=$8 | 是否为Megatron格式转HuggingFace格式。 |
预训练模型
您可以在DSW单机环境中训练模型,也可以在DLC环境中提交多机多卡分布式训练任务,训练过程大约持续2个小时。任务执行成功后,模型文件将输出到/mnt/workspace/output_megatron_qwen/
目录下。
DSW单机预训练模型
以Qwen-7B模型为例,在Terminal中运行的代码示例如下:
export WORK_DIR=/mnt/workspace
cd ${WORK_DIR}/Pai-Megatron-Patch/examples/qwen
sh run_pretrain_megatron_qwen.sh \
dsw \
${WORK_DIR}/Pai-Megatron-Patch \
7B \
1 \
8 \
1e-5 \
1e-6 \
2048 \
2048 \
85 \
fp16 \
1 \
1 \
sel \
true \
false \
false \
false \
100000 \
${WORK_DIR}/qwen-datasets/wudao/wudao_qwenbpe_content_document \
${WORK_DIR}/qwen-ckpts/qwen-7b-hf-to-megatron-tp1-pp1 \
100000000 \
10000 \
${WORK_DIR}/output_megatron_qwen/
其中运行run_pretrain_megatron_qwen.sh需要传入的参数说明如下:
参数 | 描述 |
ENV=$1 | 配置运行环境:
|
MEGATRON_PATH=$2 | 设置开源Megatron的代码路径。 |
MODEL_SIZE=$3 | 模型结构参数量级:7B、14B或72B。 |
BATCH_SIZE=$4 | 每卡训练一次迭代样本数:4或8。 |
GLOBAL_BATCH_SIZE=$5 | 训练总迭代样本数。 |
LR=$6 | 学习率:1e-5或5e-5。 |
MIN_LR=$7 | 最小学习率:1e-6或5e-6。 |
SEQ_LEN=$8 | 序列长度。 |
PAD_LEN=${9} | Padding长度。 |
EXTRA_VOCAB_SIZE=${10} | 词表扩充大小:
|
PR=${11} | 训练精度:fp16或bf16。 |
TP=${12} | 模型并行度。 |
PP=${13} | 流水并行度。 |
AC=${14} | 激活检查点模式:
|
DO=${15} | 是否使用Megatron版Zero-1降显存优化器:
|
FL=${16} | 是否打开Flash Attention:
|
SP=${17} | 是否使用序列并行:
|
TE=${18} | 是否开启Transformer-engine加速技术,需gu8xf显卡。 |
SAVE_INTERVAL=${19} | 保存CheckPoint文件的间隔。 |
DATASET_PATH=${20} | 训练数据集路径。 |
PRETRAIN_CHECKPOINT_PATH=${21} | 预训练模型路径。 |
TRAIN_TOKENS=${22} | 训练Tokens。 |
WARMUP_TOKENS=${23} | 预热Token数。 |
OUTPUT_BASEPATH=${24} | 训练输出模型文件的路径。 |
DLC分布式预训练模型
在单机开发调试完成后,您可以在DLC环境中配置多机多卡的分布式任务。具体操作步骤如下:
进入新建任务页面。
登录PAI控制台,在页面上方选择目标地域,并在右侧选择目标工作空间,然后单击进入DLC。
在分布式训练(DLC)页面,单击新建任务。
在新建任务页面,配置以下关键参数,其他参数取默认配置即可。更多详细内容,请参见创建训练任务。
参数
描述
基本信息
任务名称
自定义任务名称。本方案配置为:test_qwen_dlc。
环境信息
节点镜像
选中镜像地址并在文本框中输入
pai-image-manage-registry.cn-wulanchabu.cr.aliyuncs.com/pai/pytorch-training:1.12-ubuntu20.04-py3.10-cuda11.3-megatron-patch-llm
。数据集
单击自定义数据集,并配置以下参数:
自定义数据集:选择已创建的NAS类型的数据集。
挂载路径:配置为
/mnt/workspace/
。
启动命令
配置以下命令,其中run_pretrain_megatron_qwen.sh脚本输入的启动参数与DSW单机预训练模型一致。
export WORK_DIR=/mnt/workspace cd ${WORK_DIR}/Pai-Megatron-Patch/examples/qwen sh run_pretrain_megatron_qwen.sh \ dlc \ ${WORK_DIR}/PAI-Megatron-Patch \ 7B \ 1 \ 8 \ 1e-5 \ 1e-6 \ 2048 \ 2048 \ 85 \ fp16 \ 1 \ 1 \ sel \ true \ false \ false \ false \ 100000 \ ${WORK_DIR}/qwen-datasets/wudao/wudao_qwenbpe_content_document \ ${WORK_DIR}/qwen-ckpts/qwen-7b-hf-to-megatron-tp1-pp1 \ 100000000 \ 10000 \ ${WORK_DIR}/output_megatron_qwen/
资源信息
资源类型
选择灵骏智算。
资源来源
选择资源配额。
资源配额
本方案选择已创建的灵骏智算资源的资源配额。
框架
选择PyTorch。
任务资源
在Worker节点配置以下参数:
节点数量:2,如果需要多机训练,配置节点数量为需要的机器数即可。
GPU(卡数):8
CPU(核数):90
说明CPU核数不能大于96。
内存(GiB):1024
共享内存(GiB):1024
单击确定,页面自动跳转到分布式训练(DLC)页面。当状态变为已成功时,表明训练任务执行成功。
有监督微调模型
您可以在DSW单机环境中微调模型,也可以在DLC环境中提交多机多卡分布式任务,训练过程大约持续2个小时。任务执行成功后,模型文件将输出到/mnt/workspace/output_megatron_qwen/
目录下。
在微调模型前,请前往步骤二:准备预训练数据章节,在使用PAI处理好的小规模样本数据页签中,按照代码下载JSON文件。
微调模型。
DSW单机微调模型
以Qwen-7B模型为例,在Terminal中运行的代码示例如下:
export WORK_DIR=/mnt/workspace cd ${WORK_DIR}/Pai-Megatron-Patch/examples/qwen sh run_finetune_megatron_qwen_withGA.sh \ dsw \ ${WORK_DIR}/Pai-Megatron-Patch \ 7B \ 1 \ 96 \ 1e-5 \ 1e-6 \ 2048 \ 2048 \ 85 \ bf16 \ 1 \ 1 \ sel \ true \ false \ false \ false \ 1000 \ ${WORK_DIR}/qwen-datasets/alpaca_zh-qwen-train.json \ ${WORK_DIR}/qwen-datasets/alpaca_zh-qwen-valid.json \ ${WORK_DIR}/qwen-ckpts/qwen-7b-hf-to-megatron-tp1-pp1 \ 2000 \ 10 \ ${WORK_DIR}/output_megatron_qwen/
其中运行run_finetune_megatron_qwen_withGA.sh需要传入的参数说明如下:
参数
描述
ENV=$1
运行环境:
dlc
dsw
MEGATRON_PATH=$2
设置开源Megatron的代码路径。
MODEL_SIZE=$3
模型结构参数量级:7B、14B或72B。
BATCH_SIZE=$4
每卡训练一次迭代样本数:1、2、4、8。
GLOBAL_BATCH_SIZE=$5
微调总迭代样本数:64、96、128。
LR=$6
学习率:1e-5、5e-5。
MIN_LR=$7
最小学习率:1e-6、5e-6。
SEQ_LEN=$8
序列长度。
PAD_LEN=$9
Padding序列长度。
EXTRA_VOCAB_SIZE=${10}
词表扩充大小:
Qwen-7B:85。
Qwen-14B:213。
Qwen-72B:213。
PR=${11}
训练精度:fp16、bf16。
TP=${12}
模型并行度。
PP=${13}
流水并行度。
AC=${14}
激活检查点模式:full或sel。
DO=${15}
是否使用Megatron版Zero-1降显存优化器:
true
false
FL=${16}
是否打开Flash Attention:
true
false
SP=${17}
是否使用序列并行:
true
false
TE=${18}
是否开启Transformer-engine加速技术,需gu8xf显卡。
SAVE_INTERVAL=${19}
保存模型的步数。
DATASET_PATH=${20}
训练数据集路径。
VALID_DATASET_PATH=${21}
验证数据集路径。
PRETRAIN_CHECKPOINT_PATH=${22}
预训练模型路径。
TRAIN_ITERS=${23}
训练迭代轮次。
LR_WARMUP_ITERS=${24}
学习率增加值最大的步数。
OUTPUT_BASEPATH=${25}
训练输出模型文件的路径。
DLC分布式微调模型
在DSW单机环境调试完成后,您可以在DLC环境中配置多机多卡分布式任务。提交DLC训练任务时,启动命令配置如下,其他参数配置详情,请参见步骤2:预训练模型。
export WORK_DIR=/mnt/workspace cd ${WORK_DIR}/Pai-Megatron-Patch/examples/qwen sh run_finetune_megatron_qwen_withGA.sh \ dlc \ ${WORK_DIR}/Pai-Megatron-Patch \ 7B \ 1 \ 96 \ 1e-5 \ 1e-6 \ 2048 \ 2048 \ 85 \ bf16 \ 1 \ 1 \ sel \ true \ false \ false \ false \ 1000 \ ${WORK_DIR}/qwen-datasets/alpaca_zh-qwen-train.json \ ${WORK_DIR}/qwen-datasets/alpaca_zh-qwen-valid.json \ ${WORK_DIR}/qwen-ckpts/qwen-7b-hf-to-megatron-tp1-pp1 \ 2000 \ 10 \ ${WORK_DIR}/output_megatron_qwen/
其中运行run_finetune_megatron_qwen_withGA.sh需要传入的参数与DSW单机微调模型相同。
步骤四:离线推理模型
在模型训练完成后,您可以使用Megatron推理链路进行离线推理,以评估模型效果。具体操作步骤如下:
下载测试样本pred_input.jsonl,并上传到DSW的
/mnt/workspace
目录下。具体操作,请参见上传与下载数据文件。说明推理的数据组织形式需要与微调时保持一致。
将训练前模型路径下的所有JSON文件和tokenizer.model文件拷贝到训练生成的模型路径(位于
{OUTPUT_BASEPATH }/checkpoint
的下一级目录下,与latest_checkpointed_iteration.txt同级)。说明命令中的路径需替换为您的实际路径。
cd /mnt/workspace/qwen-ckpts/qwen-7b-hf-to-megatron-tp1-pp1 cp *.json /mnt/workspace/output_megatron_qwen/checkpoint/dswXXX/ cp tokenizer.model /mnt/workspace/output_megatron_qwen/checkpoint/dswXXX/
在Terminal中执行以下命令完成模型离线推理,推理结果输出到
/mnt/workspace/qwen_pred.txt
文件,您可以根据推理结果来评估模型效果。说明执行命令前,您需要将run_text_generation_megatron_qwen.sh脚本中的参数CUDA_VISIBLE_DEVICES设置为0;参数GPUS_PER_NODE设置为1。
export WORK_DIR=/mnt/workspace cd ${WORK_DIR}/Pai-Megatron-Patch/examples/qwen bash run_text_generation_megatron_qwen.sh \ dsw \ ${WORK_DIR}/PAI-Megatron-Patch \ /mnt/workspace/output_megatron_qwen/checkpoint/dswXXX \ 7B \ 1 \ 1 \ 1024 \ 1024 \ 85 \ fp16 \ 10 \ 512 \ 512 \ ${WORK_DIR}/pred_input.jsonl \ ${WORK_DIR}/qwen_pred.txt \ 0 \ 1.0 \ 1.2
其中运行run_text_generation_megatron_qwen.sh脚本输入的启动参数说明如下:
参数
描述
ENV=$1
运行环境:
dlc
dsw
MEGATRON_PATCH_PATH=$2
设置Megatron Patch的代码路径。
CHECKPOINT_PATH=$3
模型训练阶段的模型保存路径。
重要该路径需要替换为您自己的模型路径。
MODEL_SIZE=$4
模型结构参数量级:7B、14B或72B。
TP=$5
模型并行度。
重要该参数配置为1,可以使用单卡进行推理。
该参数值大于1,则需要使用相应的卡数进行推理。
BS=$6
每卡推理一次迭代样本数:1、4、8。
SEQ_LEN=$7
序列长度:256、512、1024。
PAD_LEN=$8
PAD长度:需要将文本拼接的长度。
EXTRA_VOCAB_SIZE=${9}
模型转换时增加的token数量:
Qwen-7B:85。
Qwen-14B:213。
Qwen-72B:213。
PR=${10}
推理采用的精度:fp16、bf16。
TOP_K=${11}
采样策略中选择排在前面的候选词数量(0-n): 0、5、10、20。
INPUT_SEQ_LEN=${12}
输入序列长度:512。
OUTPUT_SEQ_LEN=${13}
输出序列长度:256。
INPUT_FILE=${14}
需要推理的文本文件:pred_input.jsonl,每行为一个样本。
OUTPUT_FILE=${15}
推理输出的文件:qwen_pred.txt。
TOP_P=${16}
采样策略中选择排在前面的候选词百分比(0,1):0、0.85、0.95。
说明TOP_K和TOP_P必须有一个为0。
TEMPERATURE=${17}
采样策略中温度惩罚:1-n。
REPETITION_PENALTY=${18}
避免生成时产生大量重复,可以设置为(1-2)。默认为1.2。
步骤五:模型格式转换
离线推理完成后,如果模型效果符合您的预期,您可以将训练获得的Megatron格式的模型转换为HuggingFace格式,具体操作步骤如下。后续您可以使用转换后的HuggingFace格式的模型进行服务在线部署。
在Terminal中执行以下命令,将训练生成的Megatron格式的模型转换为HuggingFace格式的模型。
export WORK_DIR=/mnt/workspace cd /mnt/workspace/Pai-Megatron-Patch/toolkits/model_checkpoints_convertor/qwen sh model_convertor.sh \ ../../../Megatron-LM-main \ ${WORK_DIR}/output_megatron_qwen/checkpoint/${路径}/iter_******* \ /mnt/workspace/qwen-ckpts/qwen-7b-mg-to-hf-tp1-pp1/ \ 1 \ 1 \ qwen-7b \ 0 \ true
其中运行model_convertor.sh脚本需要传入的参数说明如下:
参数
描述
MEGATRON_PATH=$1
设置开源Megatron的代码路径。
SOURCE_CKPT_PATH=$2
配置为训练获得的Megatron格式的模型路径,具体到
iter_*
。例如:${WORK_DIR}/output_megatron_qwen/checkpoint/dsw-pretrain-megatron-qwen-7B-lr-1e-5-bs-1-seqlen-2048-pr-bf16-tp-1-pp-1-ac-sel-do-true-sp-false-tt--wt-/iter_*******
。重要请替换为您自己的模型路径。
如果使用预训练模型进行转换,需要删除模型路径下所有的distrib_optim.pt文件。
TARGET_CKPT_PATH=$3
转换为HuggingFace格式的模型后保存的路径。
TP=$4
张量切片数量,与训练保持一致。
PP=$5
流水切片数量,与训练保持一致。
MN=$6
模型名称:qwen-7b、qwen-14b或qwen-72b。
EXTRA_VOCAB_SIZE=$7
额外词表大小。
mg2hf=$8
是否为Megatron格式转HuggingFace格式。
将开源HuggingFace模型文件夹路径
/mnt/workspace/qwen-ckpts/qwen-7b-hf
下的.json
、.py
和.tiktoken
类型的文件,拷贝至/mnt/workspace/qwen-ckpts/qwen-7b-mg-to-hf-tp1-pp1
目录下,以保证模型可以正常使用。重要请注意,无需复制pytorch_model.bin.index.json文件。
步骤六:部署及调用模型服务
完成离线推理并评估完成模型效果后,您可以将转换为HuggingFace格式的模型部署为在线服务,并在实际的生产环境中调用,从而进行推理实践。具体操作步骤如下:
部署模型服务
登录PAI控制台,在页面上方选择目标地域,并在右侧选择目标工作空间,然后单击进入EAS。
单击部署服务,然后在自定义模型部署区域,单击自定义部署。
在自定义部署页面配置以下关键参数,其他参数取默认配置即可。
参数
描述
基本信息
服务名称
自定义模型服务名称,同地域内唯一。本方案配置为:test_qwen。
环境信息
部署方式
本方案选择镜像部署,并选中开启Web应用。
镜像配置
选择镜像地址,在本文框中配置镜像地址
pai-image-manage-registry.cn-wulanchabu.cr.aliyuncs.com/pai/llm-inference:vllm-0.2.1-v4
。模型配置
选择NAS类型的挂载方式,并配置以下参数:
选择文件系统:选择创建数据集使用的NAS文件系统。
文件系统挂载点:选择创建数据集使用的挂载点。
文件系统路径:配置为存放在NAS中的转换后的HuggingFace格式模型的路径。本方案配置为
/qwen-ckpts/qwen-7b-mg-to-hf-tp1-pp1
。挂载路径:指定挂载后的路径,本方案配置为:
/qwen-7b
。
运行命令
配置为
nohup python -m fastchat.serve.controller > tmp1.log 2>&1 & python -m fastchat.serve.gradio_web_server_pai --model-list-mode reload > tmp2.log 2>&1 & python -m fastchat.serve.vllm_worker --model-path /qwen-7b --tensor-parallel-size 1 --trust-remote-code
。其中:
--model-path:需要与模型配置中的挂载路径一致。
--tensor-parallel-size:模型张量切分的数量,需要根据GPU的卡数进行调整。7B模型配置为1;72B模型配置为2。
端口号
配置为:7860。
资源部署
资源类型
本方案选择资源配额。
资源配额
选择已创建的灵骏智算资源的资源配额。
实例数
根据模型和选择的资源情况进行配置。以7b模型为例,实例数配置为1。
部署资源
以7b模型为例,每个实例使用的资源配置为:
CPU(核数):16。
内存(GB):64。
GPU(卡数):1。
专有网络
专有网络(VPC)
配置好NAS挂载点后,系统将自动匹配与预设的NAS文件系统一致的VPC、交换机和安全组。
交换机
安全组名称
单击部署。
当服务状态变为运行中时,表明服务部署成功。
调用服务
服务部署成功后,您可以调用服务进行推理实践,具体操作步骤如下:
在服务列表中,单击目标服务的服务方式列下的查看Web应用。
在WebUI页面中,进行推理模型推理。