本文介绍关于Pod异常问题的诊断流程、排查方法、常见问题及解决方案。
本文目录
类别 | 内容 |
---|---|
诊断流程 | 诊断流程 |
常见排查方法 | |
常见问题及解决方案 |
诊断流程

- 查看Pod是否处于异常状态,具体操作,请参见检查Pod的状态。
- 如果Pod状态异常,可通过查看Pod的事件、Pod的日志、Pod的配置等信息确定异常原因。具体操作,请参见常见排查方法。关于Pod异常状态及处理方式,请参见常见的Pod异常状态及处理方式。
- 如果Pod状态为Running但未正常工作,请参见Pod状态为Running但没正常工作。
- 若确认是Pod OOM异常问题,请参见Pod OOM异常问题处理。
- 如果问题仍未解决,请提交工单。
常见的Pod异常状态及处理方式
Pod状态 | Pod含义 | 解决方案 |
---|---|---|
Pending | Pod未被调度到节点上。 | Pod状态为Pending |
Init:N/M | Pod包含M个Init容器,其中N个已经启动完成。 | Pod状态为Init:N/M(Init:Error和Init:CrashLoopBackOff) |
Init:Error | Init容器已启动失败。 | Pod状态为Init:N/M(Init:Error和Init:CrashLoopBackOff) |
Init:CrashLoopBackOff | Init容器启动失败,反复重启。 | Pod状态为Init:N/M(Init:Error和Init:CrashLoopBackOff) |
Completed | Pod的启动命令已执行完毕。 | Pod状态为Completed |
CrashLoopBackOff | Pod启动失败,反复重启。 | Pod状态为CrashLoopBackOff |
ImagePullBackOff | Pod镜像拉取失败。 | Pod状态为ImagePullBackOff |
Running |
|
|
Terminating | Pod正在关闭中。 | Pod状态为Terminating |
Evicted | Pod被驱逐。 | Pod状态为Evicted |
常见排查方法
检查Pod的状态
检查Pod的详情
- 登录容器服务管理控制台。
- 在控制台左侧导航栏中,单击集群。
- 在集群列表页面中,单击目标集群名称或者目标集群右侧操作列下的详情。
- 在集群管理页左侧导航栏中,选择 。
- 在容器组页面左上角选择Pod所在的命名空间,然后单击目标Pod名称或者目标Pod右侧操作列下的详情,查看Pod的名称、镜像、Pod IP、所在节点等详细信息。
检查Pod的配置
- 登录容器服务管理控制台。
- 在控制台左侧导航栏中,单击集群。
- 在集群列表页面中,单击目标集群名称或者目标集群右侧操作列下的详情。
- 在集群管理页左侧导航栏中,选择 。
- 在容器组页面左上角选择Pod所在的命名空间,然后单击目标Pod名称或者目标Pod右侧操作列下的详情。
- 在Pod详情页面右上角单击编辑,查看Pod的YAML文件和详细配置。
检查Pod的事件
检查Pod的日志
检查Pod的监控
- 登录容器服务管理控制台。
- 在控制台左侧导航栏中,单击集群。
- 在集群列表页面中,单击目标集群名称或者目标集群右侧操作列下的详情。
- 在集群管理页左侧导航栏中,选择 。
- 在Prometheus监控页面,单击集群监控概览页签,选择查看Pod的CPU、内存、网络I/O等监控大盘。
使用终端进入容器
Pod故障诊断
Pod状态为Pending
问题原因
若Pod停留在Pending状态,说明该Pod不能被调度到某一个节点上。通常是由于资源依赖、资源不足、该Pod使用了hostPort、污点和容忍等原因导致集群中缺乏需要的资源。
问题现象
Pod的状态为Pending。
解决方案
查看Pod的事件,根据事件描述,定位Pod不能被调度到节点的原因。主要原因有以下几类:
- 资源依赖
创建Pod时,需要依赖于集群中ConfigMap、PVC等资源。例如,Pod添加存储卷声明前,存储卷声明需要先与存储卷绑定。
- 资源不足
- 在集群信息页面,选择容器组、CPU、内存的使用情况,确定集群的资源使用率。
说明 某个节点实际使用的CPU、内存资源非常低,新加入一个Pod时,如果会导致实际使用的资源超过该节点最大可供使用的资源,则调度程序不会将该Pod分配到该节点。这样可避免在日常的流量高峰时段,节点上出现资源短缺的情况。
,查看
- 若集群中的CPU或内存都已经耗尽,可参考如下方法处理。
- 删除或减少不必要的Pod。具体操作,请参见管理容器组(Pod)。
- 根据自身业务情况,调整Pod的资源配置。具体操作,请参见设置容器的CPU和内存资源上下限。
- 在集群中添加新的节点。具体操作,请参见调整期望节点数。
- 为节点进行升配。具体操作,请参见Worker节点的资源升配。
- 在集群信息页面,选择容器组、CPU、内存的使用情况,确定集群的资源使用率。
- 该Pod使用了hostPort
如果您使用了hostPort,那么Deployment或ReplicationController中
Replicas
值不能超过集群中的节点数,因为每个实例的任意端口只有一个。如果该端口被其他应用占用,将导致Pod调度失败。因此建议您不要使用hostPort,您可以使用Service访问Pod,更多信息,请参见Service。 - 污点和容忍
当您在Pod的事件中看到Taints或Tolerations时,说明是由于污点导致,您可以删除污点或者给Pod设置容忍。更多信息,请参见管理污点、创建无状态工作负载Deployment和污点和容忍。
Pod状态为Init:N/M(Init:Error和Init:CrashLoopBackOff)
问题原因
- 若Pod停留在Init:N/M状态,说明该Pod包含M个Init容器,其中N个已经启动完成,但仍有M-N个Init容器未启动成功。
- 若Pod停留在Init:Error状态,说明Pod中的Init容器启动失败。
- 若Pod停留在Init:CrashLoopBackOff状态,说明Pod中的Init容器启动失败并处于反复重启状态。
问题现象
- Pod的状态为Init:N/M。
- Pod的状态为Init:Error。
- Pod的状态为Init:CrashLoopBackOff。
解决方案
Pod状态为ImagePullBackOff
问题原因
若Pod停留在ImagePullBackOff状态,说明此Pod已被调度到某个节点,但拉取镜像失败。
问题现象
Pod的状态为ImagePullBackOff。
解决方案
通过查看该Pod的事件描述,查看具体拉取失败的镜像名称。
Pod状态为CrashLoopBackOff
问题原因
若Pod停留在CrashLoopBackOff状态,说明容器中应用程序有问题。
问题现象
Pod的状态为CrashLoopBackOff。
解决方案
- 查看Pod的事件,确认当前Pod是否存在异常。具体操作,请参见检查Pod的事件。
- 查看Pod的日志,通过日志内容排查问题。具体操作,请参见检查Pod的日志。
- 查看Pod的配置,确认容器中的健康检查配置是否正常。具体操作,请参见检查Pod的配置。关于Pod健康检查的更多信息,请参见配置存活、就绪和启动探测器。
Pod状态为Completed
问题原因
若Pod出现Completed状态,说明容器中的启动命令已执行完毕,容器中的所有进程都已退出。
问题现象
Pod的状态为Completed。
解决方案
Pod状态为Running但没正常工作
问题原因
部署使用的YAML文件有问题。
问题现象
Pod状态为Running但没正常工作。
解决方案
Pod状态为Terminating
问题原因
若Pod的状态为Terminating,说明此Pod正处于关闭状态。
问题现象
Pod状态为Terminating。
解决方案
Pod停留在Terminating状态一段时间后会被自动删除。若Pod一直停留在Terminating状态,可执行如下命令强制删除:
kubectl delete pod [$Pod] -n [$namespace] --grace-period=0 --force
Pod状态为Evicted
问题原因
当节点的内存、磁盘空间、文件系统的inode和操作系统可分配的PID等资源中的一个或者多个达到特定的消耗水平,就会引发kubelet主动地驱逐节点上一个或者多个Pod,以回收节点资源。
问题现象
Pod的状态为Evicted。
解决方案
- 内存压力:
- 根据自身业务情况,调整Pod的资源配置。具体操作,请参见设置容器的CPU和内存资源上下限。
- 为节点进行升配。具体操作,请参见Worker节点的资源升配。
- 磁盘压力:
- 定时清理节点上的业务Pod日志,避免磁盘被日志打满。
- 为节点进行磁盘扩容。具体操作,请参见扩容云盘容量。
- PID压力:根据自身业务情况,调整Pod的资源配置,具体操作,请参见进程ID约束与预留。
Pod OOM异常问题处理
问题原因当集群中的容器使用超过其限制的内存,容器可能会被终止,触发OOM(Out Of Memory)事件,导致容器异常退出。关于OOM事件,请参见为容器和Pod分配内存资源。
问题现象- 若被终止的进程为容器的阻塞进程,可能导致容器异常重启。
- 若出现OOM异常问题,登录容器服务管理控制台,在Pod详情页面单击事件页签可看到OOM事件pod was OOM killed。具体操作,请参见检查Pod的事件。
- 若集群配置了集群容器副本异常报警,则OOM事件出现时可收到相关报警。关于配置报警,请参见容器服务报警管理。
- 查看发生OOM异常的Pod所在的节点。
- 命令行方式查看:执行以下命令,查看容器信息。
kubectl get pod [$Pod] -o wide -n [$namespace]
预期输出:
NAME READY STATUS RESTARTS AGE IP NODE pod_name 1/1 Running 0 25h 172.20.6.53 cn-hangzhou.192.168.0.198
- 控制台方式查看:查看Pod详情下的节点信息,请参见检查Pod的详情。
- 命令行方式查看:执行以下命令,查看容器信息。
- 登录Pod所在的Node,查看内核日志
/var/log/message
。在日志中查询关键字out of memory
,确认具体被OOM终止的进程。如果该进程是容器的阻塞进程,OOM终止后容器会重启。 - 通过Pod内存监控查看内存增长曲线,确定异常出现时间。具体操作,请参见检查Pod的监控。
- 根据监控、内存增长时间点、日志、进程名等信息,排查Pod内对应进程是否存在内存泄漏。
- 若OOM是进程内存泄漏导致,请您自行排查泄露原因。
- 若进程运行状态正常,则根据实际运行需要,适当增大Pod的内存限制,建议Pod的内存实际使用量不超过内存限制值的80%。具体操作,请参见设置容器的CPU和内存资源上下限。