百度查找的千篇一律根本就不是一个问题,毫无营养。
问题分析
master节点6443请求不通;
检查k8s相关的服务是否都正常开启,正常类似如下状态:
# netstat -tunlp |grep kube
tcp 0 0 0.0.0.0:31080 0.0.0.0:* LISTEN 28351/kube-proxy
tcp 0 0 127.0.0.1:10248 0.0.0.0:* LISTEN 25129/kubelet
tcp 0 0 127.0.0.1:10249 0.0.0.0:* LISTEN 28351/kube-proxy
tcp 0 0 127.0.0.1:40745 0.0.0.0:* LISTEN 25129/kubelet
tcp 0 0 0.0.0.0:32276 0.0.0.0:* LISTEN 28351/kube-proxy
tcp 0 0 0.0.0.0:30260 0.0.0.0:* LISTEN 28351/kube-proxy
tcp 0 0 0.0.0.0:30108 0.0.0.0:* LISTEN 28351/kube-proxy
tcp 0 0 0.0.0.0:30526 0.0.0.0:* LISTEN 28351/kube-proxy
tcp 0 0 0.0.0.0:30238 0.0.0.0:* LISTEN 28351/kube-proxy
tcp 0 0 0.0.0.0:31615 0.0.0.0:* LISTEN 28351/kube-proxy
tcp 0 0 0.0.0.0:30593 0.0.0.0:* LISTEN 28351/kube-proxy
tcp 0 0 0.0.0.0:32548 0.0.0.0:* LISTEN 28351/kube-proxy
tcp 0 0 0.0.0.0:30148 0.0.0.0:* LISTEN 28351/kube-proxy
tcp6 0 0 :::10250 :::* LISTEN 25129/kubelet
tcp6 0 0 :::6443 :::* LISTEN 38054/kube-apiserve
tcp6 0 0 :::10256 :::* LISTEN 28351/kube-proxy
tcp6 0 0 :::10257 :::* LISTEN 52587/kube-controll
tcp6 0 0 :::10259 :::* LISTEN 37260/kube-schedule
检查etcd和docker是否正常:
systemctl status etcd
systemctl status docker
如果哪个服务没有起来尝试拉起。
我这里etcd拉起来后kube-apiserve 等起不来,怀疑磁盘空间是否被沾满。
磁盘占满检查与修复
df -h
发现vda3挂载的/目录满了。
一层层查找哪个目录占用较多:
du -ach --max-depth=1
最终发现/var/lib/docker/containers
目录几乎占用60G
清理docker
docker system prune -f
磁盘资源释放后k8s服务正常运行。
主要还是看自己的那个k8s服务不正常,然后慢慢调查。
网友评论