您好,登录后才能下订单哦!
这篇文章给大家分享的是有关k8s如何解决节点状态为 NotReady的部署问题的内容。小编觉得挺实用的,因此分享给大家做个参考。一起跟随小编过来看看吧。
使用kubectl get nodes查看已加入的节点时,出现了Status为NotReady的情况。
root@master1:~# kubectl get nodes NAME STATUS ROLES AGE VERSION master1 NotReady master 152m v1.18.1 worker1 NotReady94m v1.18.1
这种情况是因为有某些关键的 pod 没有运行起来,首先使用如下命令来看一下kube-system的 pod 状态:
kubectl get pod -n kube-system
NAME READY STATUS RESTARTS AGE coredns-bccdc95cf-792px 1/1 Pending 0 3h11m coredns-bccdc95cf-bc76j 1/1 Pending 0 3h11m etcd-master1 1/1 Running 2 3h10m kube-apiserver-master1 1/1 Running 2 3h11m kube-controller-manager-master1 1/1 Running 2 3h10m kube-flannel-ds-amd64-9trbq 0/1 ImagePullBackoff 0 133m kube-flannel-ds-amd64-btt74 0/1 ImagePullBackoff 0 174m kube-proxy-27zfk 1/1 Pending 2 3h11m kube-proxy-lx4gk 1/1 Pending 0 133m kube-scheduler-master1 1/1 Running 2 3h11m
如上,可以看到 pod kube-flannel 的状态是ImagePullBackoff,意思是镜像拉取失败了,所以我们需要手动去拉取这个镜像。这里可以看到某些 pod 运行了两个副本是因为我有两个节点存在了。
你也可以通过kubectl describe pod -n kube-system <服务名>来查看某个服务的详细情况,如果 pod 存在问题的话,你在使用该命令后在输出内容的最下面看到一个[Event]条目,如下:
root@master1:~# kubectl describe pod kube-flannel-ds-amd64-9trbq -n kube-system ... Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Killing 29m kubelet, worker1 Stopping container kube-flannel Warning FailedCreatePodSandBox 27m (x12 over 29m) kubelet, worker1 Failed create pod sandbox: rpc error: code = Unknown desc = failed to create a sandbox for pod "kube-flannel-ds-amd64-9trbq": Error response from daemon: cgroup-parent for systemd cgroup should be a valid slice named as "xxx.slice" Normal SandboxChanged 19m (x48 over 29m) kubelet, worker1 Pod sandbox changed, it will be killed and re-created. Normal Pulling 42s kubelet, worker1 Pulling image "quay.io/coreos/flannel:v0.11.0-amd64"
手动拉取镜像
flannel的镜像可以使用如下命令拉到,如果你是其他镜像没拉到的话,百度一下就可以找到国内的镜像源地址了,这里记得把最后面的版本号修改成你自己的版本,具体的版本号可以用上面说的kubectl describe命令看到:
拉去镜像:
docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64
等镜像拉取完了之后需要把镜像名改一下,改成 k8s 没有拉到的那个镜像名称,我这里贴的镜像名和版本和你的不一定一样,注意修改:
docker tag quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64
修改完了之后过几分钟 k8s 会自动重试,等一下就可以发现不仅flannel正常了,其他的 pod 状态也都变成了Running,这时再看 node 状态就可以发现问题解决了:
[kubeadm@server1 ~]$ kubectl get nodes NAME STATUS ROLES AGE VERSION server1 Ready master 150m v1.18.1 server2 Ready150m v1.18.1 server3 Ready 150m v1.18.1 [kubeadm@server1 ~]$
感谢各位的阅读!关于k8s如何解决节点状态为 NotReady的部署问题就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到吧!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。