本文展示如何使用Arena提交PyTorch的分布式训练作业,并通过TensorBoard可视化查看训练作业。
前提条件
已创建包含GPU的Kubernetes集群。具体操作,请参见创建包含GPU的Kubernetes集群。
集群节点可以访问公网。具体操作,请参见为已有集群开启公网访问能力。
已安装Arena工具。具体操作,请参见配置Arena客户端。
已给集群配置了Arena使用的PVC,并且PVC已填充本文使用的数据集。具体操作,请参见配置NAS共享存储。
背景信息
本文示例从Git URL下载源代码,数据集放在共享存储系统(基于NAS的PV和PVC)中。示例假设您已经获得了一个名称为training-data的PVC实例(一个共享存储),里面存在一个目录pytorch_data,存放了示例所使用的数据集。
操作步骤
执行以下命令检查可用的GPU资源。
arena top node
预期输出:
NAME IPADDRESS ROLE STATUS GPU(Total) GPU(Allocated) cn-huhehaote.192.16x.x.xx 192.1xx.x.xx master ready 0 0 cn-huhehaote.192.16x.x.xx 192.1xx.x.xx master ready 0 0 cn-huhehaote.192.16x.x.xx 192.1xx.x.xx master ready 0 0 cn-huhehaote.192.16x.x.xx 192.1xx.x.xx <none> ready 2 0 cn-huhehaote.192.16x.x.xx 192.1xx.x.xx <none> ready 2 0 cn-huhehaote.192.16x.x.xx 192.1xx.x.xx <none> ready 2 0 ----------------------------------------------------------------------------------------- Allocated/Total GPUs In Cluster: 0/6 (0%)
由上看出,有3个包含GPU的节点可用于运行训练作业。
执行
arena submit tfjob/tf [--flag] command
形式命令提交PyTorch多机作业。通过以下代码示例提交一个3机1卡的PyTorch训练作业。
arena submit pytorch \ --name=pytorch-dist \ --gpus=1 \ --workers=3 \ --working-dir=/root \ --image=registry.cn-beijing.aliyuncs.com/ai-samples/pytorch-with-tensorboard:1.5.1-cuda10.1-cudnn7-runtime \ --sync-mode=git \ --sync-source=https://code.aliyun.com/370272561/mnist-pytorch.git \ --data=training-data:/mnist_data \ --tensorboard \ --logdir=/mnist_data/pytorch_data/logs \ "python /root/code/mnist-pytorch/mnist.py --epochs 10 --backend nccl --dir /mnist_data/pytorch_data/logs --data /mnist_data/pytorch_data/"
预期输出:
configmap/pytorch-dist-pytorchjob created configmap/pytorch-dist-pytorchjob labeled service/pytorch-dist-tensorboard created deployment.apps/pytorch-dist-tensorboard created pytorchjob.kubeflow.org/pytorch-dist created INFO[0000] The Job pytorch-dist has been submitted successfully INFO[0000] You can run `arena get pytorch-dist --type pytorchjob` to check the job status
说明PyTorch的分布式作业较单机作业多了一个--workers参数,它表明参数分布式作业训练的所有节点数。一个分布式作业有多个节点,节点名称的组成结构:【job_name】-【role_name】-【index】。
【job_name】为您指定作业的名称。
【role_name】表名这个节点的角色,这里包含一个特殊的节点Master节点,对应PyTorch分布式作业中rank-0节点,该节点的实例名带有master关键字,例如pytorch-dist-master-0,并且一个作业仅有一个实例名带有master字样的节点。
其他非rank-0的节点角色即为Worker节点,他们的rank号即为各自对应节点名称中【index】+1;每个节点都注入了RANK环境变量,因此,您也可以通过获取该环境变量拿到当前节点对应的rank号。
参数解释如下表。
参数
是否必选
解释
默认值
--name
必选
指定提交的作业名字,全局唯一,不能重复。
无
--working-dir
可选
指定当前执行命令所在的目录。
/root
--gpus
可选
指定作业Worker节点需要使用的GPU卡数。
0
--workers
分布式作业必选
指定作业需要的节点数,它设置的值包含Master节点。例如设置3,表明该作业包含1个Master节点和2个Worker节点。
0
--image
必选
指定训练环境的镜像地址。
无
--worker-image
如果不指定--image,则必选。
指定作业Worker节点需要使用的镜像地址。如果--image同时出现,则覆盖--image。
无
--sync-mode
可选
同步代码的模式,您可以指定git、rsync。本文使用Git模式。
无
--sync-source
可选
同步代码的仓库地址,需要和--sync-mode一起使用。本文示例使用Git模式,该参数可以为任何github项目地址。阿里云code项目地址等支持Git的代码托管地址。项目代码将会被下载到--working-dir下的code/目录中。本文示例即为:/root/code/mnist-pytorch。
无
--data
可选
挂载共享存储卷PVC到运行环境中。它由两部分组成,通过分号(
:
)分割。分号左侧是您已经准备好的PVC名称。您可以通过命令arena data list
查看当前集群可用的PVC列表;分号右侧是您想将PVC的挂载到运行环境中的路径,也是您训练代码要读取数据的本地路径。这样通过挂载的方式,您的代码就可以访问PVC的数据。说明执行
arena data list
查看本文示例当前集群可用的PVC列表。NAME ACCESSMODE DESCRIPTION OWNER AGE training-data ReadWriteMany 35m
如果没有可用的PVC,您可创建PVC。详情请参见配置NAS共享存储。
无
--tensorboard
可选
为训练任务开启一个TensorBoard服务,用作数据可视化,您可以结合--logdir指定TensorBoard要读取的event路径。不指定该参数,则不开启TensorBoard服务。
无
--logdir
可选
需要结合--tensorboard一起使用,该参数表示TensorBoard需要读取event数据的路径。
/training_logs
重要如果您使用非公开Git代码库,则可以使用以下命令。
arena --loglevel info submit pytorch \ ... --sync-mode=git \ --sync-source=https://code.aliyun.com/370272561/mnist-pytorch.git \ --env=GIT_SYNC_USERNAME=yourname \ --env=GIT_SYNC_PASSWORD=yourpwd \ "python /root/code/mnist-pytorch/mnist.py --backend gloo"
arena命令使用git-sync同步源代码。您可以设置在git-sync项目中定义的环境变量。
执行以下命令查看当前通过Arena提交的所有作业。
arena list
预期输出:
NAME STATUS TRAINER AGE NODE pytorch-dist RUNNING PYTORCHJOB 21s 192.16x.x.xx pytorch-git SUCCEEDED PYTORCHJOB 46m N/A tf-dist SUCCEEDED TFJOB 14h N/A tf-git SUCCEEDED TFJOB 17h N/A
执行以下命令检查作业所使用的GPU资源。
arena top job
预期输出:
NAME GPU(Requests) GPU(Allocated) STATUS TRAINER AGE NODE pytorch-dist 3 3 RUNNING pytorchjob 29s 192.16x.x.xx tf-dist 2 0 SUCCEEDED tfjob 14h N/A tf-git 1 0 SUCCEEDED tfjob 17h N/A pytorch-git 1 0 SUCCEEDED pytorchjob 46m N/A Total Allocated GPUs of Training Job: 3 Total Requested GPUs of Training Job: 7
执行以下命令检查集群所使用的GPU资源。
arena top node
预期输出:
NAME IPADDRESS ROLE STATUS GPU(Total) GPU(Allocated) cn-huhehaote.192.1xx.x.xx 192.1xx.x.xx master ready 0 0 cn-huhehaote.192.1xx.x.xx 192.1xx.x.xx master ready 0 0 cn-huhehaote.192.1xx.x.xx 192.1xx.x.xx master ready 0 0 cn-huhehaote.192.1xx.x.xx 192.1xx.x.xx <none> ready 2 2 cn-huhehaote.192.1xx.x.xx 192.1xx.x.xx <none> ready 2 0 cn-huhehaote.192.1xx.x.xx 192.1xx.x.xx <none> ready 2 1 ----------------------------------------------------------------------------------------- Allocated/Total GPUs In Cluster: 3/6 (50%)
执行以下命令获取作业详情。
arena get pytorch-dist
预期输出:
STATUS: RUNNING NAMESPACE: default PRIORITY: N/A TRAINING DURATION: 57s NAME STATUS TRAINER AGE INSTANCE NODE pytorch-dist RUNNING PYTORCHJOB 57s pytorch-dist-master-0 192.168.0.33 pytorch-dist RUNNING PYTORCHJOB 57s pytorch-dist-worker-0 192.168.0.31 pytorch-dist RUNNING PYTORCHJOB 57s pytorch-dist-worker-1 192.168.0.31 Your tensorboard will be available on: http://192.16x.x.xx:30131
说明本文示例因为开启TensorBoard,在上述作业详情中最后两行,可以看到TensorBoard的Web访问地址;如果没有开启TensorBoard,最后两行信息不存在。
通过以上命令,可以看到该作业包含一个Master节点( rank-0节点)和2个Worker节点(非rank-0节点),它们共同参与整个训练。
通过浏览器查看TensorBoard。
在本地执行如下命令,将集群中的TensorBoard映射到本地9090端口。
重要请注意kubectl port-forward建立的端口转发不具备生产级别的可靠性、安全性和扩展性,因此仅适用于开发和调试目的,不适合在生产环境使用。更多关于Kubernetes集群内生产可用的网络方案的信息,请参见Ingress概述。
kubectl port-forward svc/pytorch-dist-tensorboard 9090:6006
在浏览器中访问
localhost:9090
,即可查看TensorBoard。如下图所示。说明本文PyTorch示例代码,默认每10次epoch写入event信息。如果您修改了--epochs参数,请修改为10的整数倍,否则无法在TensorBoard上看到数据。
执行以下命令获取作业日志信息。
arena logs pytorch-dist
预期输出:
WORLD_SIZE: 3, CURRENT_RANK: 0 args: Namespace(backend='nccl', batch_size=64, data='/mnist_data/pytorch_data/', dir='/mnist_data/pytorch_data/logs', epochs=10, log_interval=10, lr=0.01, momentum=0.5, no_cuda=False, save_model=False, seed=1, test_batch_size=1000) Using CUDA ... Train Epoch: 10 [57600/60000 (96%)] loss=0.0026 Train Epoch: 10 [58240/60000 (97%)] loss=0.0101 Train Epoch: 10 [58880/60000 (98%)] loss=0.0106 Train Epoch: 10 [59520/60000 (99%)] loss=0.0051 accuracy=0.9904
使用上述命令获取作业日志信息时,默认输出rank-0的节点(带有master字样的节点)日志。如果需要查看分布式训练任务中的某个节点日志,可以先查看作业详情获取作业的节点列表,然后使用命令
arena logs $job_name -i $instance_name
查看具体实例的日志。示例代码如下。
arena get pytorch-dist
预期输出:
# 输出: STATUS: SUCCEEDED NAMESPACE: default PRIORITY: N/A TRAINING DURATION: 3m NAME STATUS TRAINER AGE INSTANCE NODE pytorch-dist SUCCEEDED PYTORCHJOB 4m pytorch-dist-master-0 192.16x.x.xx pytorch-dist SUCCEEDED PYTORCHJOB 4m pytorch-dist-worker-0 192.16x.x.xx pytorch-dist SUCCEEDED PYTORCHJOB 4m pytorch-dist-worker-1 192.16x.x.xx Your tensorboard will be available on: http://192.16x.x.xx:30131
执行以下命令查看作业日志信息。
arena logs pytorch-dist -i pytorch-dist-worker-0
预期输出:
WORLD_SIZE: 3, CURRENT_RANK: 1 args: Namespace(backend='nccl', batch_size=64, data='/mnist_data/pytorch_data/', dir='/mnist_data/pytorch_data/logs', epochs=10, log_interval=10, lr=0.01, momentum=0.5, no_cuda=False, save_model=False, seed=1, test_batch_size=1000) Using CUDA ... Train Epoch: 10 [57600/60000 (96%)] loss=0.0026 Train Epoch: 10 [58240/60000 (97%)] loss=0.0101 Train Epoch: 10 [58880/60000 (98%)] loss=0.0106 Train Epoch: 10 [59520/60000 (99%)] loss=0.0051 accuracy=0.9904
您还可以通过命令
arena logs $job_name -f
实时查看作业的日志输出,通过命令arena logs $job_name -t N
查看尾部N行的日志,以及通过arena logs --help
查询更多参数使用情况。查看尾部N行的日志示例代码如下。
arena logs pytorch-dist -t 5
预期输出:
Train Epoch: 10 [58880/60000 (98%)] loss=0.0106 Train Epoch: 10 [59520/60000 (99%)] loss=0.0051 accuracy=0.9904