目录
5.1、基础容器(infrastructure container)
Pod是kuberbetes中最小的资源管理组件,Pod也是最小化运行容器化应用的资源对象。一个Pod代表着集群中运行的一个进程。kubernetes中其他大多数组件都是围绕着Pod来进行支撑和扩展Pod功能的,例如用于管理Pod运行的StatefuSet和Deployment等控制器对象,用于暴露Pod应用的Service和Ingress对象,为Pod提供存储的PersistenVolume存储资源对象等。
一个 Pod 下的容器必须运行于同一节点上。**现代容器技术建议一个容器只运行一个进程,该进程在容器中 PID 命令空间中的进程号为 1,可直接接收并处理信号,进程终止时容器生命周期也就结束了。
若想在容器内运行多个进程,需要一个类似Linux操作系统init进程的管控类进程,以树状结构完成多进程的生命周期管理。运行于各自容器内的进程无法直接完成网络通信,这时由于容器间的隔离机制导致,k8s中的Pod资源抽象正是解决此类问题,Pod对象是一组容器的集合,这些容器共享Network,UTS及IPC命令空间,因此具有相同的域名、主机名和网络接口,并可通过IPC直接通信。
namespace | 功能说明 |
---|---|
mnt | 提供磁盘挂载点和文件系统的隔离能力 |
ipc | 提供进程间通信的隔离能力 |
net | 提供网络隔离能力 |
uts | 提供主机名隔离能力 |
pid | 提供进程隔离能力 |
user | 提供用户隔离能力 |
Pod资源中针对各容器提供网络命名空间等共享机制的是底层基础容器pause,基础容器(也可成为父容器)pause就是为了管理Pod容器间的共享操作,这个父容器需要能够准确的知道如何去创建共享运行环境的容器,还能管理这些容器的生命周期。为了实现这个父容器的构想,kubernetes中,用于pause容器来作为一个Pod中所有容器的父容器。这个pause容器有两个核心的功能,一是它提供整个Pod的Linux命名空间的基础。二来启用PID命名空间,它在每个Pod中都作为PID为1进程(init进程),并回收僵尸进程。
每个Pod都会被分配一个唯一的IP地址。Pod中的所有容器共享网络空间,包括IP地址和端口。Pod内部的内容可以使用localhost互相通信。Pod中的容器与外界通信时,必须分配共享网络资源(例如使用宿主机的端口映射)。
可以Pod指定多个共享Volume。Pod中的所有容器都可以访问共享的Volume。Volume也可以用来持久化Pod中的存储资源,以防容器重启后文件丢失。
每个 Pod 都有一个特殊的被称为 “基础容器” 的 Pause 容器。Pause 容器对应的镜像属于 Kubernetes 平台的一部分,除了 Pause 容器,每个 Pod 还包含一个或者多个紧密相关的用户应用容器。
kubernetes中的pause容器主要为每个容器提供一下功能:
Init 容器必须在应用程序容器启动之前运行完成,而应用程序容器是并行运行的,所以 Init 容器能够提供了一种简单的阻塞或延迟应用容器的启动的方法。Init 容器与普通的容器非常像,除了以下两点:
如果 Pod 的 Init 容器失败,k8s 会不断地重启该 Pod,直到 Init 容器成功为止。然而,如果 Pod 对应的重启策略(restartPolicy)为 Never,它不会重新启动。
因为 init 容器具有与应用容器分离的单独镜像,其启动相关代码具有如下优势:
应用容器会在init容器完成并退出后再启动
- apiVersion: v1
- kind: Pod
- metadata:
- name: myapp-pod
- labels:
- app: myapp
- spec:
- containers:
- - name: myapp-container
- image: busybox:1.28
- command: ['sh','-c','echo The app is running! && sleep 3600']
- initContainers:
- - name: init-myservice
- image: busybox:1.28
- command: ['sh','-c','until nslookup myservice;do echo waiting for myservice; sleep2; done;']
- - name: init-mydb
- image: busybox:1.28
- command: ['sh','-c','until nslookup mydb; do echo waiting for mydb; sleep 2; done;']
这个例子是定义了一个具有 2 个 Init 容器的简单 Pod。 第一个等待 myservice 启动, 第二个等待 mydb 启动。一旦这两个 Init 容器都启动完成,Pod 将启动 spec 中的应用容器。
- kubectl apply -f myapp.yaml
- kubectl get pod
该pod会一直处于init:0/2状态
kubectl describe pod myapp-pod
发现开启 init-myservice 容器后,创建步骤停滞,查看 init-myservice 日志进一步查明原因
kubectl logs myapp-pod -c init-myservice
- [root@master ~]# vim myservice.yaml
-
- apiVersion: v1
- kind: Service
- metadata:
- name: myservice
- spec:
- ports:
- - protocol: TCP
- port: 80
- targetPort: 1111
kubectl create -f myservice.yaml
- [root@master ~]# vim mydb.yaml
-
- apiVersion: v1
- kind: Service
- metadata:
- name: mydb
- spec:
- ports:
- - protocol: TCP
- port: 80
- targetPort: 2222
-
- kubectl create -f mydb.yaml
- kubectl get pod,svc
Pod的核心是运行容器,必须指定容器引擎,比如Docker,启动容器时需要拉取镜像,k8s的镜像拉取策略可以由用户指定:
注意:对于标签为latest的镜像文件,其默认的镜像获取策略即为Always;而对于其他标签的镜像,其默认策略则为IfNotPresent。
创建使用私有镜像的 Pod 来验证
- kubectl apply -f - <
- apiVersion: v1
- kind: Pod
- metadata:
- name: private-image-test-1
- spec:
- containers:
- - name: uses-private-image
- image: $PRIVATE_IMAGE_NAME
- imagePullPolicy: Always
- command: [ "echo", "SUCCESS" ]
- EOF
输出类似于
pod/private-image-test-1 created
如果一切顺利,那么一段时间后你可以执行
kubectl logs private-image-test-1
然后可以看到 SUCCESS,如果你怀疑命令失败了,可以运行
kubectl describe pods/private-image-test-1 | grep 'Failed'
如果命令确实失败了,输出类似于
- Fri, 26 Jun 2015 15:36:13 -0700 Fri, 26 Jun 2015 15:39:13 -0700 19 {kubelet node-i2hq} spec.containers{uses-private-image} failed Failed to pull image "user/privaterepo:v1": Error: image user/privaterepo:v1 not found
-
- 必须确保集群中所有节点的 .docker/config.json 文件内容相同。 否则 Pod会能在一些节点上正常运行而无法在另一些节点上启动。 例如,如果使用节点自动扩缩,那么每个实例模板都需要包含.docker/config.json,或者挂载一个包含该文件的驱动器。
- 在 .docker/config.json 中配置了私有仓库密钥后,所有 Pod 都将能读取私有仓库中的镜像。
7.2、不指定版本,查看默认拉取策略
不指定版本号创建Pod
kubectl run nginx-test1 --image=nginx
查看默认拉取策略
不指定版本号,即使用缺神值lastest最新版本,默认拉取策略为Always
查看创建过程
kubectl describe pod nginx-test1
7.3、测试案例(非循环命令)
创建测试案例mypod.yaml
- [root@master ~]# vim mypod.yaml
-
- apiVersion: v1
- kind: Pod
- metadata:
- name: mypod
- spec:
- containers:
- - name: nginx
- image: nginx
- imagePullPolicy: Always
- command: [ "echo","SUCCESS" ]
-
生成mypod配置资源
- kubectl create -f mypod.yaml
- kubectl get pods
该pod状态为CrashLoopBackOff,说明pod进入异常循环状态。原因是echo执行完进程终止,容器生命周期也就结束了
查看创建过程
kubectl describe pod mypod
因为重启策略为Always,因此成功之后依然重复拉取镜像
可以发现 Pod 中的容器在生命周期结束后,由于 Pod 的重启策略为 Always,容器再次重启了,并且又重新开始拉取镜像。
修改mypod.yaml
失败的状态的原因是因为命令启动冲突
删除 command: [ “echo”, “SUCCESS” ]
同时更改一下版本
image: nginx:1.14
vim mypod.yaml
删除原有资源
kubectl delete -f mypod.yaml
更新资源
- kubectl apply -f mypod.yaml
-
- #查看分配节点
- kubectl get pods -o wide
在node1节点使用curl查看头部信息
7.4、测试案例(循环命令)
修改mypod.yaml
- [root@master ~]# vim mypod.yaml
-
- apiVersion: v1
- kind: Pod
- metadata:
- name: mypod
- spec:
- containers:
- - name: nginx
- image: nginx
- imagePullPolicy: IfNotPresent
- command: [ "sh","while true;do echo SUCCESS;done" ]
-
生成新的 mypod.yaml 配置资源
- #删除原有资源
- kubectl delete -f mypod.yaml
-
- #生成新的资源
- kubectl apply -f mypod.yaml
查看pod状态
kubectl get pod -o wide
容器进入循环异常状态
查看创建过程
kubectl describe pod mypod
查看pod日志
发现命令错误
检查mypod.yaml文件
再次生成新的mypod.yaml配置资源
- #删除原有的资源
- kubectl delete -f mypod.yaml
-
- #生成新的资源
- kubectl apply -f mypod.yaml
查看创建过程
kubectl describe pod mypod
由于镜像拉取策略设定的是 IfNotPresent,因此 kubelet 会先检查本地镜像仓库,如果有对应版本镜像就直接使用,没有的话才会前往镜像仓库拉取。
查看pod日志
kubectl logs mypod