本文主要为您介绍节点与节点池常见问题。
如何在已有集群的GPU节点上手动升级Kernel?
下面为您介绍如何在已有集群的GPU节点上手动升级Kernel。
说明 当前kernel版本低于
3.10.0-957.21.3
。 请确认需要升级的目标kernel版本,并谨慎操作。
本文提供方案并不涉及kernel升级,仅针对在kernel升级的前提下对应的Nvidia驱动升级。
- 获取集群KubeConfig并通过kubectl工具连接集群。
- 将GPU节点设置为不可调度(本例以节点 cn-beijing.i-2ze19qyi8votgjz12345为例)。
kubectl cordon cn-beijing.i-2ze19qyi8votgjz12345 node/cn-beijing.i-2ze19qyi8votgjz12345 already cordoned
- 将要升级驱动的GPU节点进行排水。
kubectl drain cn-beijing.i-2ze19qyi8votgjz12345 --grace-period=120 --ignore-daemonsets=true node/cn-beijing.i-2ze19qyi8votgjz12345 cordoned WARNING: Ignoring DaemonSet-managed pods: flexvolume-9scb4, kube-flannel-ds-r2qmh, kube-proxy-worker-l62sf, logtail-ds-f9vbg pod/nginx-ingress-controller-78d847fb96-5fkkw evicted
- 卸载当前的nvidia-driver。说明 本步骤中卸载的是版本为384.111的驱动包,如果您的驱动版本不是384.111,则需要在Nvidia官网下载对应的驱动安装包,并将本步骤中的
384.111
替换成您实际的版本。 - 升级Kernel。您可以根据需要升级Kernel。
- 重启GPU机器。
sudo reboot
- 重新登录GPU节点,安装对应的kernel devel。
sudo yum install -y kernel-devel-$(uname -r)
- 请到Nvidia官网下载和安装您需要的nvidia驱动, 本文以410.79为例。
sudo cd /tmp/ sudo curl -O https://cn.download.nvidia.cn/tesla/410.79/NVIDIA-Linux-x86_64-410.79.run sudo chmod u+x NVIDIA-Linux-x86_64-410.79.run sudo sh ./NVIDIA-Linux-x86_64-410.79.run -a -s -q warm up GPU sudo nvidia-smi -pm 1 || true sudo nvidia-smi -acp 0 || true sudo nvidia-smi --auto-boost-default=0 || true sudo nvidia-smi --auto-boost-permission=0 || true sudo nvidia-modprobe -u -c=0 -m || true
- 查看 /etc/rc.d/rc.local,确认其中是否包含以下配置,如果没有请手动添加。
sudo nvidia-smi -pm 1 || true sudo nvidia-smi -acp 0 || true sudo nvidia-smi --auto-boost-default=0 || true sudo nvidia-smi --auto-boost-permission=0 || true sudo nvidia-modprobe -u -c=0 -m || true
- 重启kubelet和docker。
sudo service kubelet stop sudo service docker restart sudo service kubelet start
- 将这个GPU节点重新设置为可调度。
kubectl uncordon cn-beijing.i-2ze19qyi8votgjz12345 node/cn-beijing.i-2ze19qyi8votgjz12345 already uncordoned
- 在GPU节点上的device plugin pod验证版本。
kubectl exec -n kube-system -t nvidia-device-plugin-cn-beijing.i-2ze19qyi8votgjz12345 nvidia-smi Thu Jan 17 00:33:27 2019 +-----------------------------------------------------------------------------+ | NVIDIA-SMI 410.79 Driver Version: 410.79 CUDA Version: N/A | |-------------------------------+----------------------+----------------------+ | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | |===============================+======================+======================| | 0 Tesla P100-PCIE... On | 00000000:00:09.0 Off | 0 | | N/A 27C P0 28W / 250W | 0MiB / 16280MiB | 0% Default | +-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+ | Processes: GPU Memory | | GPU PID Type Process name Usage | |=============================================================================| | No running processes found | +-----------------------------------------------------------------------------+
说明 如果通过docker ps
命令,发现GPU节点没有容器被启动,请参见修复GPU节点容器启动问题。
修复GPU节点容器启动问题
在某些特定Kubernetes版本中的GPU节点上,重启Kubelet和Docker时,发现没有容器被启动。
sudo service kubelet stop
Redirecting to /bin/systemctl stop kubelet.service
sudo service docker stop
Redirecting to /bin/systemctl stop docker.service
sudo service docker start
Redirecting to /bin/systemctl start docker.service
sudo service kubelet start
Redirecting to /bin/systemctl start kubelet.service
sudo docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
执行以下命令,查看Docker的Cgroup Driver。
sudo docker info | grep -i cgroup
Cgroup Driver: cgroupfs
此时发现的Cgroup Driver类型是cgroupfs。您可以按照以下操作,修复该问题。
- 备份/etc/docker/daemon.json,完成后,执行以下命令更新/etc/docker/daemon.json。
sudo cat >/etc/docker/daemon.json <<-EOF { "default-runtime": "nvidia", "runtimes": { "nvidia": { "path": "/usr/bin/nvidia-container-runtime", "runtimeArgs": [] } }, "exec-opts": ["native.cgroupdriver=systemd"], "log-driver": "json-file", "log-opts": { "max-size": "100m", "max-file": "10" }, "oom-score-adjust": -1000, "storage-driver": "overlay2", "storage-opts":["overlay2.override_kernel_check=true"], "live-restore": true } EOF
- 执行以下命令,重启Docker和Kubelet。
sudo service kubelet stop Redirecting to /bin/systemctl stop kubelet.service sudo service docker restart Redirecting to /bin/systemctl restart docker.service sudo service kubelet start Redirecting to /bin/systemctl start kubelet.service
- 执行以下命令,确认Docker的Cgroup Driver的类型为systemd。
sudo docker info | grep -i cgroup Cgroup Driver: systemd
如何更改ACK集群中Worker节点的主机名称?
集群创建完成后,不支持自定义Worker节点的主机名称,但是您可以通过节点池的节点命名规则来修改Worker节点的主机名称。
说明 创建集群时,您可以在自定义节点名称参数中定义Worker节点的主机名称。具体操作,请参见创建Kubernetes托管版集群。
如何更换节点池OS镜像?
更换为相同OS类型
重要 操作系统属性只会对新加入的节点生效。
如果是相同OS类型,例如由一个旧版本CentOS更换为新版本的CentOS, 您可以直接通过编辑节点池更换OS镜像。但修改完节点池镜像之后,只对新增节点生效。如果需要更新已有节点的镜像,还需要手动对节点进行轮转。
- 更换OS镜像。
- 登录容器服务管理控制台。
- 在控制台左侧导航栏,单击集群。
- 在集群管理页左侧导航栏,选择 。
- 在目标节点池右侧的操作列中,单击编辑。
- 在编辑节点池对话框中,修改操作系统为最新的操作系统,然后单击确认。
- 扩容节点池。为了避免水位过高影响节点排空,建议您先对节点池扩容,并等待集群稳定。
- 移除节点。
- 在集群管理页左侧导航栏,选择 。
- 在节点页面,选中部分节点,单击下方的批量移除。
- 在弹出的对话框中选中自动排空节点(drain)和我已了解上述说明,确认移除节点,然后单击确定。
- 添加节点。重要 自动添加已有节点会更换节点系统盘,请确保数据保存在数据盘,以免数据丢失。
- 重复步骤3和步骤4,移除节点再添加节点,直到节点池中所有的节点已经被更新。
- 将步骤2扩容节点池创建的节点移除,并释放ECS。
- 在集群管理页左侧导航栏,选择 。
- 在节点页面,选中扩容节点池创建的节点,单击下方的批量移除。
- 在弹出的对话框中选中自动排空节点(drain)、同时释放ECS和我已了解上述说明,确认移除节点,然后单击确定。
更换为不同OS类型
如果是更换为不同的OS类型,例如由CentOS更换为Alibaba Cloud Linux,由于目前OS类型是节点池的不可更改属性,因此需要通过新建节点池的方式完成节点轮转。
开启期望节点数与未开启期望节点数的节点池有什么不同?
期望节点数是指节点池应该维持的节点数量。您可以通过调整期望节点数,达到扩容或缩容节点池的目的。但部分老节点池没有设置过期望节点数,从而未开启期望节点数功能。
开启或未开启期望节点数的节点池对于移除节点、释放ECS等不同的操作方式,会有不同感知,具体如下表。
操作 | 开启期望节点数节点池 | 未开启期望节点数节点池 | 建议 |
---|---|---|---|
通过ACK的OpenAPI或者控制台移除指定节点。 | 移除指定节点,期望节点数减少移除节点的数目。例如节点池移除指定节点前,期望节点数为10。移除3个节点后,期望节点数更新为7。 | 移除指定节点。 | 推荐使用此方式进行缩容。 |
通过kubectl delete node 方式移除节点。 | 期望节点数不会感知,没有变化。 | 无变化。 | 不推荐。 |
手动通过ECS控制台或者OpenAPI释放ECS。 | 生成新ECS实例,补充到设置的期望节点数。 | 节点池不感知。不会有新ECS实例生成。节点池节点列表被删除的节点会显示状态为“未知”一段时间。 | 不推荐,会导致ACK、ESS数据与实际情况不一致,请用推荐方式移除节点.。具体操作,请参见移除节点。 |
包年包月ECS实例到期。 | 生成新ECS实例,补充到设置的期望节点数。 | 节点池不感知。不会有新ECS实例生成。节点池节点列表被删除的节点会显示状态为“未知”一段时间。 | 不推荐,会导致ACK、ESS数据与实际情况不一致,请用推荐方式移除节点.。具体操作,请参见移除节点。 |
ESS伸缩组手动开启“实例的健康检查”,并且ECS实例无法通过ESS健康检查(如停机)。 | 生成新ECS实例,补充到设置的期望节点数。 | 生成新ECS实例,替换停机实例。 | 不推荐,请不要直接操作节点池相关的伸缩组。 |
通过ESS把ECS实例移除伸缩组并且不修改期望实例数。 | 生成新ECS实例,补充到设置的期望节点数。 | 不会生成新的ECS实例。 | 不推荐,请不要直接操作节点池相关的伸缩组。 |
如何将已有的节点添加到集群?
当您希望将已有节点加入到集群中却没有节点池时,您可以创建一个0节点的节点池,然后手动添加已有ECS为节点。创建0节点的节点池时,选择和您已有的ECS相同的虚拟交换机,并将期望节点数设置为0。手动添加已有ECS为节点,请参见添加已有节点。
说明 每个节点池对应一个弹性伸缩组实例,节点池本身不额外收费,但节点池使用的ECS实例等云资源由对应的云产品计费。