K8S Pod 停止不掉一直处于Terminating状态问题解决

背景

用户反馈一个问题,在删除任务重建任务会提示资源清理不成功,赶紧登陆服务器一通操作 kubectl发现Pod一直处于Terminating状态: 管它三七二十一 先执行: kubectl delete pod spark-xxx --grace-period=0 --force --namespace 先强制干掉再细细分析;

排查实录:

• 先执行:kubectl get nodes -o wide 发现其中一个节点处于 NotReady状态,断定节点有点问题。 • 接着执行查看节点具体状态

kubectl get nodes hwy-hn1-inner-bdi-fp-prd-002  -o yaml
kubectl describe nodes hwy-hn1-inner-bdi-fp-prd-002

发现蛛丝马迹:

- lastHeartbeatTime: "2021-11-08T02:24:14Z"
    lastTransitionTime: "2021-11-06T00:27:22Z"
    message: PLEG is not healthy: pleg was last seen active 50h0m1.184263736s ago;
      threshold is 3m0s

• 一番查找 PLEG 是啥情况得出: PLEG 全称叫 Pod Lifecycle Event Generator,即 Pod 生命周期事件生成器。实际上它只是 Kubelet 中的一个模块,主要职责就是通过每个匹配的 Pod 级别事件来调整容器运行时的状态,并将调整的结果写入缓存,使 Pod 的缓存保持最新状态。 看来是轮训同步Pod状态这个过程出错了,继续探索 • 登陆有问题的工作节点ssh 进入查看系统日志 journalctl 执行 解释下:journalctl 用来查询 systemd-journald 服务收集到的日志。systemd-journald 服务是 systemd init 系统提供的收集系统日志的服务。

GenericPLEG: Unable to retrieve pods: rpc error: code = ResourceExhausted desc = grpc: trying to send message larger than max (16783506 vs. 16777216)
 E1102 19:06:57.103683   30435 kubelet.go:1765] skipping pod synchronization - PLEG is not healthy: pleg was last seen active 35h24m17.742968508s ago; 
threshold is 3m0s

看来是grpc 数据太大超出了最大限度,synch同步数据跳过了,导致API server 三分钟没有收到同步数据,就直接把这个节点设置为NotReady了,具体pleg机制可以查看其他资料这里不进行详述了。 建议解决问题时先执行下面操作:让该节点上的任务迁移到其他任务,以备后面需要用重启大法 让问题节点不被调度

$ kubectl cordon work01 
驱逐问题节点上所有的pod
$ kubectl drain work01 --ignore-daemonsets --delete-local-data --force

• 查看docker系统占用 docker system df 运行docker ps 发现有大量容器active状态而且许多都是同意类型的任务类型说明在这个过程中程序大量docker容器的产生导致同步状态数据量太大 解决方式: • 登入到work节点清除不用的容器残留 docker system prune 这里清理掉一些残留的容器后,节点状态就恢复正常了,并不需要重启docker和kubelet 如果不行的话就执行:

service docker restart && service kubelet restart

参考文档:

https://www.infoq.cn/article/t_ZQeWjJLGWGT8BmmiU4 https://lattecake.com/post/20149 https://cloud.tencent.com/developer/article/1550038

经验分享 程序员 微信小程序 职场和发展