ACS为作业调度场景提供了Gang Scheduling能力,满足作业调度场景All-or-Nothing需求。本文介绍如何使用Gang Scheduling。
前提条件
已安装调度器组件kube-scheduler,且版本满足以下要求。
ACS集群版本
调度器组件版本
1.31
v1.31.0-aliyun-1.2.0及以上
1.30
v1.30.3-aliyun-1.1.1及以上
1.28
v1.28.9-aliyun-1.1.0及以上
Gang Scheduling支持GPU型(gpu)和高性能网络GPU型(gpu-hpn)计算类型。具体信息,请参见计算类型定义。
功能介绍
作业(Job)一般会创建多个Pod,并且这些Pod需要协调一致地启动运行。这要求在调度时一定要按照一组Pod分配资源,保证这一组Pod都可以申请到资源,或者一旦有一个Pod拿不到资源就认为整组Pod调度失败。这也就是调度器需要提供的All-or-Nothing调度语义,可以避免多个作业因为资源竞争出现资源维度的死锁现象。
ACS内置的调度器提供的Gang Scheduling能力实现了All-or-Nothing语义,保证作业顺利运行。
Gang Scheduling对应的一组Pod必须属于相同的compute-class。
使用方式
ACS提供的Gang Scheduling兼容Kubernetes社区自定义资源PodGroup,对应版本podgroups.scheduling.sigs.k8s.io/v1alpha1
。您在提交每一个作业前,需要先在作业所属的命名空间下创建一个PodGroup实例,并在该PodGroup实例中声明保证作业正常运行需要的最小Pod个数(minMember)。之后在创建作业的Pod时通过设置labels的形式配置Pod-group.scheduling.sigs.k8s.io
关联PodGroup实例名。ACS在调度时会统一为使用相同PodGroup标签的实例Pod调度分配资源。
创建对应的PodGroup自定义资源。
apiVersion: scheduling.sigs.k8s.io/v1alpha1 kind: PodGroup metadata: name: demo-job-podgroup namespace: default spec: scheduleTimeoutSeconds: 10 minMember: 3 # 设置最小运行个数
创建一个作业,并关联PodGroup。
apiVersion: batch/v1 kind: Job metadata: name: gang-job namespace: default spec: parallelism: 3 # Pod数量必须大于或者等于 pod group对象中的minMember template: metadata: labels: alibabacloud.com/compute-class: "gpu" # 指定compute class为gpu 或者 gpu-hpn alibabacloud.com/gpu-model-series: "example-model" # gpu计算类需要指定GPU型号 pod-group.scheduling.sigs.k8s.io: demo-job-podgroup # 关联 PodGroup 实例 demo-job-podgroup spec: containers: - name: demo-job image: registry.cn-hangzhou.aliyuncs.com/acs/stress:v1.0.4 args: - 'infinity' command: - sleep resources: requests: cpu: "1" memory: "1Gi" nvidia.com/gpu: "1" limits: cpu: "1" memory: "1Gi" nvidia.com/gpu: "1" restartPolicy: Never backoffLimit: 4
请您确保关联的Pod数量一定大于或等于PodGroup实例配置的minMember,否则无法成功调度。
操作示例
本示例依次演示作业在使用Gang Scheduling时调度失败和调度成功的效果。
执行以下命令创建
test-gang
Namespace。kubectl create ns test-gang
执行以下命令,在
test-gang
命名空间下创建ResourceQuota,演示资源不足情况下的Gang Scheduling效果。cat << EOF | kubectl apply -f - apiVersion: v1 kind: ResourceQuota metadata: name: object-counts namespace: test-gang spec: hard: pods: "2" EOF
执行以下命令,创建PodGroup对象,其中指定了
minMember
为3,表示关联的Pod中至少要有3个Pod同时调度成功,如果其中一个没有创建或者没有调度成功,其他Pod也应该处于 Pending 状态。cat << EOF | kubectl apply -f - apiVersion: scheduling.sigs.k8s.io/v1alpha1 kind: PodGroup metadata: name: demo-job-podgroup namespace: test-gang spec: minMember: 3 # 设置最小运行个数 EOF
使用以下YAML内容,创建gang-job.yaml文件。该文件描述了一个Job对象,其中指定了4个Pod副本,并关联了PodGroup对象。
apiVersion: batch/v1 kind: Job metadata: name: gang-job namespace: test-gang spec: parallelism: 4 # Pod数量必须大于或者等于 pod group对象中的minMember template: metadata: labels: alibabacloud.com/compute-class: "gpu" # 指定compute class为gpu 或者 gpu-hpn alibabacloud.com/gpu-model-series: "example-model" # gpu计算类需要指定GPU型号 pod-group.scheduling.sigs.k8s.io: demo-job-podgroup # 关联 PodGroup 实例 demo-job-podgroup spec: containers: - name: demo-job image: registry.cn-hangzhou.aliyuncs.com/acs/stress:v1.0.4 args: - 'infinity' command: - sleep resources: requests: cpu: "1" memory: "1Gi" nvidia.com/gpu: "1" limits: cpu: "1" memory: "1Gi" nvidia.com/gpu: "1" restartPolicy: Never backoffLimit: 4
执行以下命令,将gang-job部署到集群。
kubectl apply -f gang-job.yaml
执行以下命令,查看Pod状态。
kubectl get pod -n test-gang
预期输出:
NAME READY STATUS RESTARTS AGE gang-job-hrnc6 0/1 Pending 0 23s gang-job-wthnq 0/1 Pending 0 23s
由于ResourceQuota 限制只能运行 2 个Pod,因此该 Job 只有两个Pod可以创建。这个数量小于PodGroup中指定的minMember,所以这2个Pod会处于Pending状态不会被调度。
执行以下命令,删除ResourceQuota,解除Pod数量的限制。
kubectl delete resourcequota -n test-gang object-counts
执行以下命令,查看Pod状态。
kubectl get pod -n test-gang
预期输出:
NAME READY STATUS RESTARTS AGE gang-job-24cz9 1/1 Running 0 96s gang-job-mmkxl 1/1 Running 0 96s gang-job-msr8v 1/1 Running 0 96s gang-job-qnclz 1/1 Running 0 96s
可以发现Pod调度成功。