k8s 部署问题解决

作者: HoPGoldy | 来源:发表于2019-06-28 10:31 被阅读14次

    本文记录一下在部署 k8s 时遇到的一些问题及解决方法,具体部署流程可以参考 ubuntu 安装 k8s

    从snap安装导致的初始化问题

    由于一开始我安装的时候没有配置好镜像源,所以导致了apt下载 k8s 三件套时出现了找不到对应包的问题,再加上 ubuntu 又提示了一下 try sudo snap isntall kubelet ... 所以我就用snap安装了三件套,使用的安装命令如下:

    snap install kubelet --classic
    snap install kubeadm --classic
    snap install kubectl --classic
    

    虽然我在网上也找到了不少用snap成功部署的例子,但是迫于技术不精,最终实在是无法解决出现的问题,换用了apt安装之后就一帆风顺的安装完成了。下面记录一下用snap安装时出现的问题:

    kubelet isn't running or healthy

    使用kubeadm init初始化时出现了下述错误,重复四次之后就超时退出了:

    [kubelet-check] The HTTP call equal to 'curl -sSL http://localhost:10248/healthz' failed with error: Get http://localhost:10248/healthz: dial tcp [::1]:10248: connect: connection refused.
    [kubelet-check] It seems like the kubelet isn't running or healthy.
    

    官方给出的解决方案是使用systemctl status kubelet查看一下kubelet的状态。但是我运行之后显示未找到kubelet.service,然后用如下命令查看启动失败的服务:

    systemctl list-units --failed
    

    结果发现一个名为snap.kubelet.daemon.service的服务无法启动了,尝试了各种方法都没有让它复活,无奈只好放弃用snap安装了。如果有大佬知道该怎么解决请告诉我,不胜感激。下面就说一下遇到的其他问题。

    初始化时的警告

    在使用kubeadm init命令初始化节点刚开始时,会有如下的perflight阶段,该阶段会进行检查,如果其中出现了如下WARNING并且初始化失败了。就要回来具体查看一下问题了。下面会对下述两个警告进行解决:

    # kubeadm init ...
    [init] Using Kubernetes version: v1.15.0
    [preflight] Running pre-flight checks
            [WARNING IsDockerSystemdCheck]: detected "cgroupfs" as the Docker cgroup driver. The recommended driver is "systemd". Please follow the guide at https://kubernetes.io/docs/setup/cri/
            [WARNING FileExisting-socat]: socat not found in system path
    

    WARNING IsDockerSystemdCheck

    修改或创建/etc/docker/daemon.json,加入下述内容:

    {
      "exec-opts": ["native.cgroupdriver=systemd"]
    }
    

    重启docker

    systemctl restart docker
    

    查看修改后的状态:

    docker info | grep Cgroup
    

    WARNING FileExisting-socat

    socat是一个网络工具, k8s 使用它来进行 pod 的数据交互,出现这个问题直接安装socat即可:

    apt-get install socat
    

    节点状态为 NotReady

    使用kubectl get nodes查看已加入的节点时,出现了StatusNotReady的情况。

    root@master1:~# kubectl get nodes
    NAME      STATUS      ROLES    AGE    VERSION
    master1   NotReady    master   152m   v1.15.0
    worker1   NotReady    <none>   94m    v1.15.0
    

    这种情况是因为有某些关键的 pod 没有运行起来,首先使用如下命令来看一下kube-system的 pod 状态:

    kubectl get pod -n kube-system
    
    NAME                              READY   STATUS             RESTARTS   AGE
    coredns-bccdc95cf-792px           1/1     Pending            0          3h11m
    coredns-bccdc95cf-bc76j           1/1     Pending            0          3h11m
    etcd-master1                      1/1     Running            2          3h10m
    kube-apiserver-master1            1/1     Running            2          3h11m
    kube-controller-manager-master1   1/1     Running            2          3h10m
    kube-flannel-ds-amd64-9trbq       0/1     ImagePullBackoff   0          133m
    kube-flannel-ds-amd64-btt74       0/1     ImagePullBackoff   0          174m
    kube-proxy-27zfk                  1/1     Pending            2          3h11m
    kube-proxy-lx4gk                  1/1     Pending            0          133m
    kube-scheduler-master1            1/1     Running            2          3h11m
    

    如下,可以看到 pod kube-flannel 的状态是ImagePullBackoff,意思是镜像拉取失败了,所以我们需要手动去拉取这个镜像。这里可以看到某些 pod 运行了两个副本是因为我有两个节点存在了。

    你也可以通过kubectl describe pod -n kube-system <服务名>来查看某个服务的详细情况,如果 pod 存在问题的话,你在使用该命令后在输出内容的最下面看到一个[Event]条目,如下:

    root@master1:~# kubectl describe pod kube-flannel-ds-amd64-9trbq -n kube-system
    
    ...
    
    Events:
      Type     Reason                  Age                 From              Message
      ----     ------                  ----                ----              -------
      Normal   Killing                 29m                 kubelet, worker1  Stopping container kube-flannel
      Warning  FailedCreatePodSandBox  27m (x12 over 29m)  kubelet, worker1  Failed create pod sandbox: rpc error: code = Unknown desc = failed to create a sandbox for pod "kube-flannel-ds-amd64-9trbq": Error response from daemon: cgroup-parent for systemd cgroup should be a valid slice named as "xxx.slice"
      Normal   SandboxChanged          19m (x48 over 29m)  kubelet, worker1  Pod sandbox changed, it will be killed and re-created.
      Normal   Pulling                 42s                 kubelet, worker1  Pulling image "quay.io/coreos/flannel:v0.11.0-amd64"
    

    手动拉取镜像

    flannel的镜像可以使用如下命令拉到,如果你是其他镜像没拉到的话,百度一下就可以找到国内的镜像源地址了,这里记得把最后面的版本号修改成你自己的版本,具体的版本号可以用上面说的kubectl describe命令看到:

    docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64
    

    等镜像拉取完了之后需要把镜像名改一下,改成 k8s 没有拉到的那个镜像名称,我这里贴的镜像名和版本和你的不一定一样,注意修改:

    docker tag quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64
    

    修改完了之后过几分钟 k8s 会自动重试,等一下就可以发现不仅flannel正常了,其他的 pod 状态也都变成了Running,这时再看 node 状态就可以发现问题解决了:

    root@master1:~# kubectl get nodes
    NAME      STATUS   ROLES    AGE     VERSION
    master1   Ready    master   3h27m   v1.15.0
    worker1   Ready    <none>   149m    v1.15.0
    

    工作节点加入失败

    在子节点执行kubeadm join命令后返回超时错误,如下:

    root@worker2:~# kubeadm join 192.168.56.11:6443 --token wbryr0.am1n476fgjsno6wa --discovery-token-ca-cert-hash sha256:7640582747efefe7c2d537655e428faa6275dbaff631de37822eb8fd4c054807
    [preflight] Running pre-flight checks
    error execution phase preflight: couldn't validate the identity of the API Server: abort connecting to API servers after timeout of 5m0s
    

    master节点上执行kubeadm token create --print-join-command重新生成加入命令,并使用输出的新命令在工作节点上重新执行即可。

    参考

    相关文章

      网友评论

        本文标题:k8s 部署问题解决

        本文链接:https://www.haomeiwen.com/subject/ibydcctx.html