您好,登录后才能下订单哦!
强大的自愈能力是 Kubernetes 这类容器编排引擎的一个重要特性。自愈的默认实现方式是自动重启发生故障的容器。除此之外,用户还可以利用 Liveness
和 Readiness
探测机制设置更精细的健康检查,进而实现如下需求:
Liveness 探测让用户可以自定义判断容器是否健康的条件。如果探测失败,Kubernetes 就会重启容器。
我们创建一个 Pod 的配置文件liveness.yaml
,可以使用命令kubectl explain pod.spec.containers.livenessProbe
查看其使用方法。
apiVersion: v1
kind: Pod
metadata:
name: liveness
labels:
test: liveness
spec:
restartPolicy: OnFailure
containers:
- name: liveness
image: busybox
args:
- /bin/sh
- -c
- touch /tmp/healthy; sleep 30; rm -rf /tmp/healthy; sleep 600
livenessProbe:
exec:
command:
- cat
- /tmp/healthy
initialDelaySeconds: 10
periodSeconds: 5
启动进程首先创建文件 /tmp/healthy,30 秒后删除,在我们的设定中,如果 /tmp/healthy 文件存在,则认为容器处于正常状态,反正则发生故障。
livenessProbe
部分定义如何执行 Liveness 探测:
cat
命令检查 /tmp/healthy 文件是否存在。如果命令执行成功,返回值为零,Kubernetes 则认为本次 Liveness 探测成功;如果命令返回值非零,本次 Liveness 探测失败。initialDelaySeconds: 10
指定容器启动 10 之后开始执行 Liveness 探测,我们一般会根据应用启动的准备时间来设置。比如某个应用正常启动要花 30 秒,那么initialDelaySeconds
的值就应该大于 30。periodSeconds: 5
指定每 5 秒执行一次 Liveness 探测。Kubernetes 如果连续执行 3 次 Liveness 探测均失败,则会杀掉并重启容器。下面创建 Pod liveness:
[root@master ~]# kubectl apply -f liveness.yaml
pod/liveness created
从配置文件可知,最开始的 30 秒,/tmp/healthy
存在,cat 命令返回 0,Liveness 探测成功,这段时间 kubectl describe pod liveness
的 Events部分会显示正常的日志。
[root@master ~]# kubectl describe pod liveness
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Pulling 25s kubelet, node02 pulling image "busybox"
Normal Pulled 24s kubelet, node02 Successfully pulled image "busybox"
Normal Created 24s kubelet, node02 Created container
Normal Started 23s kubelet, node02 Started container
Normal Scheduled 23s default-scheduler Successfully assigned default/liveness to node02
35 秒之后,日志会显示 /tmp/healthy
已经不存在,Liveness 探测失败。再过几十秒,几次探测都失败后,容器会被重启。
[root@master ~]# kubectl describe pod liveness
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 6m9s default-scheduler Successfully assigned default/liveness to node02
Normal Pulled 3m41s (x3 over 6m10s) kubelet, node02 Successfully pulled image "busybox"
Normal Created 3m41s (x3 over 6m10s) kubelet, node02 Created container
Normal Started 3m40s (x3 over 6m9s) kubelet, node02 Started container
Warning Unhealthy 2m57s (x9 over 5m37s) kubelet, node02 Liveness probe failed: cat: can't open '/tmp/healthy': No such file or directory
Normal Pulling 2m27s (x4 over 6m11s) kubelet, node02 pulling image "busybox"
Normal Killing 60s (x4 over 4m57s) kubelet, node02 Killing container with id docker://liveness:Container failed liveness probe.. Container will be killed and recreated.
然后我们查看容器,已经重启了一次。
[root@master ~]# kubectl get pod
NAME READY STATUS RESTARTS AGE
liveness 1/1 Running 3 5m13s
用户通过 Liveness 探测可以告诉 Kubernetes 什么时候通过重启容器实现自愈;Readiness 探测则是告诉 Kubernetes 什么时候可以将容器加入到 Service 负载均衡池中,对外提供服务。
Readiness 探测的配置语法与 Liveness 探测完全一样,我们创建配置文件readiness.yaml
。
apiVersion: v1
kind: Pod
metadata:
name: readiness
labels:
test: readiness
spec:
restartPolicy: OnFailure
containers:
- name: readiness
image: busybox
args:
- /bin/sh
- -c
- touch /tmp/healthy; sleep 30; rm -rf /tmp/healthy; sleep 600
readinessProbe:
exec:
command:
- cat
- /tmp/healthy
initialDelaySeconds: 10
periodSeconds: 5
创建 Pod,然后查看其状态。
[root@master ~]# kubectl apply -f readiness.yaml
pod/readiness created
刚刚创建时,READY
状态为不可用。
[root@master ~]# kubectl get pod
NAME READY STATUS RESTARTS AGE
readiness 0/1 Running 0 21s
15 秒后(initialDelaySeconds + periodSeconds),第一次进行 Readiness 探测并成功返回,设置 READY
为可用。
[root@master ~]# kubectl get pod
NAME READY STATUS RESTARTS AGE
readiness 1/1 Running 0 38s
30 秒后,/tmp/healthy 被删除,连续 3 次 Readiness 探测均失败后,READY
被设置为不可用。
[root@master ~]# kubectl get pod
NAME READY STATUS RESTARTS AGE
readiness 0/1 Running 0 63s
通过 kubectl describe pod readiness
也可以看到 Readiness 探测失败的日志。
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Pulling 5m29s kubelet, node01 pulling image "busybox"
Normal Scheduled 5m25s default-scheduler Successfully assigned default/readiness to node01
Normal Pulled 5m13s kubelet, node01 Successfully pulled image "busybox"
Normal Created 5m12s kubelet, node01 Created container
Normal Started 5m12s kubelet, node01 Started container
Warning Unhealthy 28s (x51 over 4m38s) kubelet, node01 Readiness probe failed: cat: can't open '/tmp/healthy': No such file or directory
下面对 Liveness 探测和 Readiness 探测做个比较:
对于多副本应用,当执行 Scale Up 操作时,新副本会作为 backend 被添加到 Service 的负责均衡中,与已有副本一起处理客户的请求。考虑到应用启动通常都需要一个准备阶段,比如加载缓存数据,连接数据库等,从容器启动到正真能够提供服务是需要一段时间的。我们可以通过 Readiness 探测判断容器是否就绪,避免将请求发送到还没有 ready 的 backend。
下面我们创建一个配置文件来说明这种情况。
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: web
spec:
replicas: 3
template:
metadata:
labels:
run: web
spec:
containers:
- name: web
images: myhttpd
ports:
- containerPort: 8080
readinessProbe:
httpGet:
scheme: HTTP
path: /health
port: 8080
initialDelaySeconds: 10
periodSeconds: 5
---
apiVersion: v1
kind: Service
metadata:
name: web-svc
spec:
selector:
run: web
ports:
- protocol: TCP
port: 8080
targetPort: 80
重点关注 readinessProbe
部分。这里我们使用了不同于 exec
的另一种探测方法 -- httpGet
。Kubernetes 对于该方法探测成功的判断条件是 http 请求的返回代码在 200-400 之间。
schema
指定协议,支持 HTTP(默认值)和 HTTPS。path
指定访问路径。port
指定端口。上面配置的作用是:
对于生产环境中重要的应用都建议配置 Health Check,保证处理客户请求的容器都是准备就绪的 Service backend。
Health Check 另一个重要的应用场景是 Rolling Update。试想一下下面的情况,现有一个正常运行的多副本应用,接下来对应用进行更新(比如使用更高版本的 image),Kubernetes 会启动新副本,然后发生了如下事件:
因为新副本本身没有异常退出,默认的 Health Check 机制会认为容器已经就绪,进而会逐步用新副本替换现有副本,其结果就是:当所有旧副本都被替换后,整个应用将无法处理请求,无法对外提供服务。如果这是发生在重要的生产系统上,后果会非常严重。
如果正确配置了 Health Check,新副本只有通过了 Readiness 探测,才会被添加到 Service;如果没有通过探测,现有副本不会被全部替换,业务仍然正常进行。
下面通过例子来实践 Health Check 在 Rolling Update 中的应用。
用如下配置文件 app.v1.yml 模拟一个 10 副本的应用:
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: app
spec:
replicas: 10
template:
metadata:
labels:
run: app
spec:
containers:
- name: app
images: busybox
args:
- /bin/sh
- -c
- sleep 10; touch /tmp/healthy; sleep 30000
readinessProbe:
exec:
command:
- cat
- /tmp/healthy
initialDelaySeconds: 10
periodSeconds: 5
10 秒后副本能够通过 Readiness 探测。
[root@master ~]# kubectl apply -f app.v1.yaml
deployment.extensions/app created
[root@master ~]# kubectl get pods
NAME READY STATUS RESTARTS AGE
app-56878b4676-4rftg 1/1 Running 0 34s
app-56878b4676-6jtn4 1/1 Running 0 34s
app-56878b4676-6smfj 1/1 Running 0 34s
app-56878b4676-8pnc2 1/1 Running 0 34s
app-56878b4676-hxzjk 1/1 Running 0 34s
app-56878b4676-mglht 1/1 Running 0 34s
app-56878b4676-t2qs6 1/1 Running 0 34s
app-56878b4676-vgw44 1/1 Running 0 34s
app-56878b4676-vnxfx 1/1 Running 0 34s
app-56878b4676-wb9rh 1/1 Running 0 34s
接下来滚动更新应用,配置文件 app.v2.yml
如下:
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: app
spec:
replicas: 10
template:
metadata:
labels:
run: app
spec:
containers:
- name: app
image: busybox
args:
- /bin/sh
- -c
- sleep 30000
readinessProbe:
exec:
command:
- cat
- /tmp/healthy
initialDelaySeconds: 10
periodSeconds: 5
很显然,由于新副本中不存在 /tmp/healthy,是无法通过 Readiness 探测的。验证如下:
[root@master ~]# kubectl apply -f app.v2.yaml
deployment.extensions/app configured
[root@master ~]# kubectl get pod
NAME READY STATUS RESTARTS AGE
app-56878b4676-4rftg 1/1 Running 0 4m42s
app-56878b4676-6jtn4 1/1 Running 0 4m42s
app-56878b4676-6smfj 1/1 Running 0 4m42s
app-56878b4676-hxzjk 1/1 Running 0 4m42s
app-56878b4676-mglht 1/1 Running 0 4m42s
app-56878b4676-t2qs6 1/1 Running 0 4m42s
app-56878b4676-vgw44 1/1 Running 0 4m42s
app-56878b4676-vnxfx 1/1 Running 0 4m42s
app-56878b4676-wb9rh 1/1 Running 0 4m42s
app-84fc656775-hf954 0/1 Running 0 66s
app-84fc656775-p287w 0/1 Running 0 66s
[root@master ~]# kubectl get deploy
NAME READY UP-TO-DATE AVAILABLE AGE
app 9/10 2 9 7m1s
先关注 kubectl get pod
输出:
再来看 kubectl get deployment app
的输出:
在我们的设定中,新副本始终都无法通过 Readiness 探测,所以这个状态会一直保持下去。
上面我们模拟了一个滚动更新失败的场景。不过幸运的是:Health Check 帮我们屏蔽了有缺陷的副本,同时保留了大部分旧副本,业务没有因更新失败受到影响。
滚动更新可以通过参数 maxSurge
和 maxUnavailable
来控制副本替换的数量。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。