目录
官网示例:
https://kubernetes.io/docs/concepts/configuration/manage-compute-resources-container/
- 定义创建容器时预分配的CPU资源
- spec.containers[].resources.requests.cpu
- 定义创建容器时预分配的内存资源
- spec.containers[].resources.requests.memory
- 定义创建容器时预分配的巨页资源
- spec.containers[].resources.requests.hugepages-
- 定义cpu的资源上限
- spec.containers[].resources.limits.cpu
- 定义内存的资源上限
- spec.containers[].resources.limits.memory
- 定义巨页的资源上限
- spec.containers[].resources.limits.hugepages-
- [root@master ~]# vim demo1.yaml
- apiVersion: v1
- kind: Pod
- metadata:
- name: frontend
- spec:
- containers:
- - name: web
- image: nginx
- env:
- - name: WEB_ROOT_PASSWORD
- value: "password"
- resources:
- #此容器预分配资源:内存为 64Mi ; 每个cpu 分配250m
- requests:
- memory: "64Mi"
- cpu: "250m"
- #此容器限制使用资源(最大): 内存最大使用128Mi,每个cpu最大分配500m
- limits:
- memory: "128Mi"
- cpu: "500m"
- - name: db
- image: mysql
- env:
- - name: MYSQL_ROOT_PASSWORD
- value: "abc123"
- resources:
- #此容器的预分配资源:内存预分配为512Mi;cpu预分配为每个cpu的50%,即1000*50%=500m
- requests:
- memory: "512Mi"
- cpu: "0.5"
- #此容器的限制使用资源配额为:内存最大使用1Gi;cpu最大使用1000m
- limits:
- memory: "1Gi"
- cpu: "1"
-
- #pod有两个容器,web 和db。所以,总的请求资源和限制资源为 web 和db 请求,限制资源总和。
- #其中,cpu 的资源请求和限制,是以单个cpu 资源进行计算的。如果有多个cpu,则最终的结果是数值*N
- apiVersion: v1
- kind: Pod
- metadata:
- name: frontend
- spec:
- containers:
- - name: web
- image: nginx
- env:
- - name: WEB_ROOT_PASSWORD
- value: "password"
- resources:
- requests:
- memory: "64Mi"
- cpu: "250m"
- limits:
- memory: "128Mi"
- cpu: "500m"
- - name: db
- image: mysql
- env:
- - name: MYSQL_ROOT_PASSWORD
- value: "abc123"
- resources:
- requests:
- memory: "512Mi"
- cpu: "0.5"
- limits:
- memory: "1Gi"
- cpu: "1"

- kubectl apply -f demo1.yaml
- #成功部署好后查看状态
- kubectl get pods
- kubectl describe pod frontend



- #查看pod的详细信息,查看pod被调度到了哪个node节点
- kubectl get pod -o wide
- #查看node01 节点的信息
- kubectl describe nodes node01


由于mysql对于内存的使用要求比较高,因此需要先检查内存的可用空间是否能够满足mysql的正常运行,若剩余内存不够,可对其进行释放操作。
- [root@node01 ~]# free -mh
- total used free shared buff/cache available
- Mem: 1.9G 1.0G 86M 26M 870M 663M
- Swap: 0B 0B 0B
内存总量为1.9G,实际使用1G,因此可有内存应该为0.9G左右。
但是由于有870M的内存被用于缓存,导致了free仅为86M。
86M剩余可用内存显然是不够用的,因此需要释放缓存。
手动释放缓存
echo [1\2\3] > /proc/sys/vm/drop_caches
- [root@node01 ~]# cat /proc/sys/vm/drop_caches
- 0
- [root@node01 ~]# echo 3 > /proc/sys/vm/drop_caches
- [root@node01 ~]# free -mh
- total used free shared buff/cache available
- Mem: 1.9G 968M 770M 26M 245M 754M
0:0是系统默认值,默认情况下表示不释放内存,由操作系统自动管理
1:释放页缓存
2:释放dentries和inodes
3:释放所有缓存
注意:
如果因为是应用有像内存泄露、溢出的问题,从swap的使用情况是可以比较快速可以判断的,但free上面反而比较难查看。相反,如果在这个时候,我们告诉用户,修改系统的一个值,“可以”释放内存,free就大了。用户会怎么想?不会觉得操作系统“有问题”吗?所以说,既然核心是可以快速清空buffer或cache,也不难做到(这从上面的操作中可以明显看到),但核心并没有这样做(默认值是0),我们就不应该随便去改变它。
一般情况下,应用在系统上稳定运行了,free值也会保持在一个稳定值的,虽然看上去可能比较小。当发生内存不足、应用获取不到可用内存、OOM错误等问题时,还是更应该去分析应用方面的原因,如用户量太大导致内存不足、发生应用内存溢出等情况,否则,清空buffer,强制腾出free的大小,可能只是把问题给暂时屏蔽了。
健康检查,又名探针(Probe):探针是由kubelet对容器执行定期诊断
StartupProbe(1.17版本新增):判断容器内的应用程序是否已经启动,主要针对于不能确定具体启动时间应用。如果配置了startupProbe探测,则在startuProbe状态为success 之前,其他所有探针都处于无效状态,知道它成功后其他探针才起作用。如果startupProbe失败,kubelet将杀死容器你,容器将根据restartPolicy来重启。如果容器没有配置startupProbe,则默认状态为Success。
LivenessProbe(存活性探针):判断容器是否正在运行。如果探测失败,则kubectl 会杀死容器,并且容器将根据 restartPolicy 来设置 Pod 状态。如果容器不提供存活探针,则默认状态为Success。
ReadinessProbe(就绪性探针):一般用于探测容器内的程序是否健康,它的返回值如果为success,那么就代表这个容器已经完成启动,并且程序已经是可以接受流量的状态。
注:以上规则可以同时定义。在readinessProbe检测成功之前,Pod的running状态是不会变成ready状态。
startupProbe、livenessProbe、ReadinessProbe之间的区别:
startupProbe: pod只检测一次,剩下的两种只要你的pod存在就会一直去检测
livenessProbe、ReadinessProbe:建议使用接口级的健康检查

Exec:在容器内执行一个命令,如果返回值为0,则认为容器健康。
TCPSocket:通过TCP连接检查容器内的端口是否是通的,如果是通的就认为容器健康。
HTTPGet:通过应用程序暴露的API地址来检查程序是否是正常的,如果状态码为200~400之间,则认为容器健康。
每次探测,都将会获得以下三种结果之一:
exec 官网示例
配置存活、就绪和启动探测器 | Kubernetes
- vim demo2.yaml
- ==========================================================
- apiVersion: v1
- kind: Pod
- metadata:
- labels:
- test: liveness
- name: liveness-exec
- spec:
- containers:
- - name: liveness
- image: busybox
- args:
- - /bin/sh
- - -c
- - touch /tmp/healthy; sleep 30; rm -rf /tmp/healthy; sleep 60
- livenessProbe:
- exec:
- command:
- - cat
- - /tmp/healthy
- failureThreshold: 1
- initialDelaySeconds: 5
- periodSeconds: 5
探针可选的参数:
在这个配置文件中,可以看到 Pod 中只有一个容器。
periodSeconds 字段指定了 kubelet 应该每 5 秒执行一次存活探测。
initialDelaySeconds 字段告诉 kubelet 在执行第一次探测前应该等待 5 秒。
kubelet 在容器内执行命令 cat /tmp/healthy 来进行探测。 如果命令执行成功并且返回值为 0,kubelet 就会认为这个容器是健康存活的。 如果这个命令返回非 0 值,kubelet 会杀死这个容器并重新启动它。

- #创建pod
- kubectl create -f demo2.yaml
-
- #跟踪查看pod 信息
- kubectl get pod -o wide -w
-
- #新开一个终端,查看pod 的消息信息
- kubectl describe pod liveness-exec


- vim demo3.yaml
- ==========================================================
- apiVersion: v1
- kind: Pod
- metadata:
- name: liveness-httpget
- namespace: default
- spec:
- containers:
- - name: liveness-httpget-container
- image: nginx
- imagePullPolicy: IfNotPresent
- ports:
- - name: nginx
- containerPort: 80
- livenessProbe:
- httpGet:
- port: nginx #指定端口,这里使用的是之前的ports里的name,也可以直接写端口
- path: /index.html #指定路径
- initialDelaySeconds: 1
- periodSeconds: 3
- timeoutSeconds: 10
在这个配置文件中, 可以看到 Pod 也只有一个容器。initialDelaySeconds 字段告诉 kubelet 在执行第一次探测前应该等待 3秒。periodSeconds 字段指定了 kubelet 每隔 3 秒执行一次存活探测。 timeoutSeconds字段指定了超时等待时间为10S,kubelet 会向容器内运行的服务(服务会监听 80端口)发送一个HTTP GET 请求来执行探测。如果服务器上/index.html路径下的处理程序返回成功代码,则 kubelet 认为容器是健康存活的。如果处理程序返回失败代码,则 kubelet 会杀死这个容器并且重新启动它。
任何大于或等于 200 并且小于 400 的返回代码标示成功,其它返回代码都标示失败。

- #加载yaml文件
- kubectl create -f demo3.yaml
-
- #进入容器删除网页文件进行测试
- kubectl exec -it liveness-httpget -- rm -rf /usr/share/nginx/html/index.html
-
- #查看pod的详细参数
- kubectl get pod
- kubectl describe pod liveness-httpget


官方示例:
-
- apiVersion: v1
- kind: Pod
- metadata:
- name: goproxy
- labels:
- app: goproxy
- spec:
- containers:
- - name: goproxy
- image: k8s.gcr.io/goproxy:0.1
- ports:
- - containerPort: 8080
- readinessProbe:
- tcpSocket:
- port: 8080
- initialDelaySeconds: 5
- periodSeconds: 10
- livenessProbe:
- tcpSocket:
- port: 8080
- initialDelaySeconds: 15
- periodSeconds: 20
如你所见,TCP 检测的配置和 HTTP 检测非常相似。 下面这个例子同时使用就绪(readinessProbe)和存活(livenessProbe)探测器。
kubelet 会在容器启动 5 秒后发送第一个就绪探测。 这会尝试连接 goproxy 容器的 8080 端口。 如果探测成功,这个 Pod 会被标记为就绪状态,kubelet 将继续每隔 10 秒运行一次检测。
除了就绪探测,这个配置包括了一个存活探测。 kubelet 会在容器启动 15 秒后进行第一次存活探测。 与就绪探测类似,会尝试连接 goproxy 容器的 8080 端口。 如果存活探测失败,这个容器会被重新启动
编写tcpSocket 方式示例
- [root@master ~]# vim tcpsocket.yaml
- apiVersion: v1
- kind: Pod
- metadata:
- name: probe-tcp
- spec:
- containers:
- - name: nginx
- image: soscscs/myapp:v1
- livenessProbe:
- initialDelaySeconds: 5
- timeoutSeconds: 1
- tcpSocket:
- port: 8080
- periodSeconds: 3

- kubectl create -f tcpsocket.yaml
-
- #查看容器里的端口(查看有无8080端口)
- kubectl exec -it probe-tcp -- netstat -natp
-
- #查看pod的状态和详细信息
- [root@master ~]# kubectl get pods
- [root@master ~]# kubectl describe pod probe-tcp



- [root@master ~]# vim readiness-httpget.yaml
- apiVersion: v1
- kind: Pod
- metadata:
- name: readiness-httpget
- namespace: default
- spec:
- containers:
- - name: readiness-httpget-container
- image: soscscs/myapp:v1
- imagePullPolicy: IfNotPresent
- ports:
- - name: http
- containerPort: 80
- readinessProbe:
- httpGet:
- port: 80
- path: /index1.html
- initialDelaySeconds: 1
- periodSeconds: 3
- livenessProbe:
- httpGet:
- port: http
- path: /index.html
- initialDelaySeconds: 1
- periodSeconds: 3
- timeoutSeconds: 10
- #创建pod
- [root@master ~]# kubectl create -f readiness-httpget.yaml
- #查看pod的详细信息
- [root@master ~]# kubectl get pod -w
- [root@master ~]# kubectl describe pod readiness-httpget
-
- #此时,因为容器里没有 index1.html文件,所以,httpGet的就绪探测失败
- [root@master ~]# kubectl exec -it readiness-httpget -- ls /usr/share/nginx/html




- #进入容器,创建index1.html,让就绪探测成功
- [root@master ~]# kubectl exec -it readiness-httpget sh
- / # cd /usr/share/nginx/html/
- /usr/share/nginx/html # ls
- 50x.html index.html
- /usr/share/nginx/html # echo abc > index1.html
- /usr/share/nginx/html # exit
-
- [root@master ~]# kubectl get pods

- [root@master ~]# vim readiness-myapp.yaml
- apiVersion: v1
- kind: Pod
- metadata:
- name: myapp1
- labels:
- app: myapp
- spec:
- containers:
- - name: myapp
- image: soscscs/myapp:v1
- ports:
- - name: http
- containerPort: 80
- readinessProbe:
- httpGet:
- port: 80
- path: /index.html
- initialDelaySeconds: 5
- periodSeconds: 5
- timeoutSeconds: 10
- ---
- apiVersion: v1
- kind: Pod
- metadata:
- name: myapp2
- labels:
- app: myapp
- spec:
- containers:
- - name: myapp
- image: soscscs/myapp:v1
- ports:
- - name: http
- containerPort: 80
- readinessProbe:
- httpGet:
- port: 80
- path: /index.html
- initialDelaySeconds: 5
- periodSeconds: 5
- timeoutSeconds: 10
- ---
- apiVersion: v1
- kind: Pod
- metadata:
- name: myapp3
- labels:
- app: myapp
- spec:
- containers:
- - name: myapp
- image: soscscs/myapp:v1
- ports:
- - name: http
- containerPort: 80
- readinessProbe:
- httpGet:
- port: 80
- path: /index.html
- initialDelaySeconds: 5
- periodSeconds: 5
- timeoutSeconds: 10
- ---
- apiVersion: v1
- kind: Service
- metadata:
- name: myapp
- spec:
- selector:
- app: myapp
- type: ClusterIP
- ports:
- - name: http
- port: 80
- targetPort: 80
所有的自主式Pod,name不可以相同。但是使用同一个标签myapp。 service通过标签选择器和对应标签的pod关联
- [root@master ~]# kubectl create -f readiness-myapp.yaml
-
- #查看这些资源的详细信息。
- [root@master ~]# kubectl get pods,svc,endpoints -o wide
- #删除myapp1的 index.html文件,让就绪探测 失败
- [root@master ~]# kubectl exec -it myapp1 -- rm -rf /usr/share/nginx/html/index.html
-
- # 查看发现,就绪探测失败的pod被从关联的service中移除ip
- [root@master ~]# kubectl get pods,svc,endpoints -o wide


![]()

Pod在遇到故障之后“重启”的动作Pod在遇到故障之后“重启”的动作
Always:当容器终止退出后,总是“重启”容器,默认策略
OnFailure:当容器异常退出(退出状态码非0)时,重启容器
Never:当容器终止退出,从不“重启”容器。
(注意:k8s中不支持重启Pod资源,只有删除重建,重建)