Pod是Kubernetes中自小的资源管理组件,Pod也是最小化运行容器化应用的资源对象。一个Pod代表着集群中运行的一个进程。Kubernetes中其它大多数组件都是围绕着Pod来进行支撑和扩展Pod功能的,例如用于管理Po的运行的StatefulSet和Deployment等控制器对象,用于暴露Pod应用的Service和Ingress对象,为Pod提供存储的PersistentVolume存储资源对象等。
一个Pod下的容器必须运行于同一节点上。现在容器技术建议一个容器只运行一个进程,该进程在容器中PID命令空间中的进程号为1,可以直接接收并处理信号,进程终止时容器生命周期也就结束了。
若想在容器内运行多个进程,需要有一个类似Linux操作系统init进程的管理类进程,以树状结构完成多进程的生命周期管理。运行于各自容器内的进程无法直接完成网络通信,这是由于容器间的隔离机制导致,K8s中的Pod资源抽象正是解决此类问题,Pod对象是一组容器的集合,这些容器共享Network、UTS及IPC命名空间,因此具有相同的域名、主机名和接口,并可通过IPC直接通信
namespace | 功能说明 |
---|---|
mnt | 提供磁盘挂载点和文件系统的隔离能力 |
ipc | 提供进程间通信的隔离能力 |
net | 提供网络隔离能力 |
uts | 提供主机名隔离能力 |
pid | 提供进程隔离能力 |
user | 提供用户隔离能力 |
Pod资源中针对各容器提供网络命名空间等共享机制的是底层基础容器pause,基础容器(也可称为父容器)pause就是为了管理Pod容器间的共享操作,这个父容器需要能够准确地知道如何去创建共享运行环境的容器,还能管理这些容器的生命周期。为了实现这个父容器的构想,Kubernetes中,用pause容器来作为一个Pod中所有容器的父进程。这个pause容器有两个核心的功能,一是它提供整个Pod的Linux命名空间的基础。二来启动PID命名空间,它在每个Pod中都作为PID为1进程(init进程),并回收僵尸进程。
每个Pod都被分配一个唯一的IP地址。Pod中的所有容器共享网络空间,包括IP地址和端口。Pod内部的容器可以使用localhost互相通信。Pod中的容器与外界通信时,必须分配共享网络资源(例如使用宿主机的端口映射)。
可以Pod指定多个共享的Volume。Pod中的所有容器都可以访问共享的Volume。Volume也可以用来持久化Pod中的存储资源,以防容器重启后文件丢失。
每个Pod都有一个特殊的被称为"基础容器"的Pause容器。Pause容器对应的镜像属于Kubernetes平台的一部分,除了Pause容器,每个Pod还包含一个或者多个紧密相关的用户应用容器。
Kubernetes中的pause容器主要为每个容器提供以下功能:
init容器必须在应用程序容器启动之前运行完成,而应用程序容器是并行运行的,所以init容器能够提供一种简单的阻塞或延迟应用容器的启动的办法。init容器与普通的容器非常像,除了以下两点:
如果Pod的init容器启动失败,K8s会不断地重启该Pod,知道init容器成功为止。然而,如果Pod对应的重启策略(restartPolicy)为Never,它不会重新启动
init容器的作用
因为init容器具有与应用容器分离的单独镜像,其启动相关代码具有如下优势:
应用容器会在init容器完成并退出后并行启动
apiVersion: v1
kind: Pod
metadata:
name: myapp-pod
labels:
app: myapp
spec:
containers:
- name: myapp-container
image: busybox:1.28
command: ['sh','-c','echo The app is running! && sleep 3600']
initContainers:
- name: init-myservice
image: busybox:1.28
command: ['sh','-c','until nslookup myservice;do echo waiting for myservice; sleep2; done;']
- name: init-mydb
image: busybox:1.28
command: ['sh','-c','until nslookup mydb; do echo waiting for mydb; sleep 2; done;']
这个例子是定义了一个具有2个init容器的简单Pod。第一个等待myservice启动,第二个等待mydb启动。一旦这两个init容器都启动完成,Pod将启动spec中的应用容器
kubectl apply -f myapp.yaml
kubectl get pod
kubectl describe pod myapp-pod
发现开启init-myservice容器后,创建步骤停滞,查看init-myservice日志进一步查明原因
kubectl logs myapp-pod -c init-myservice
apiVersion: v1
kind: Service
metadata:
name: myservice
spec:
ports:
- protocol: TCP
port: 80
targetPort: 1111
kubectl create -f myservice.yaml
myservice生成后,发现myapp-pod状态变为Init:1/2且再次停滞,停止原因与上述相同
apiVersion: v1
kind: Service
metadata:
name: mydb
spec:
ports:
- protocol: TCP
port: 80
targetPort: 2222
kubectl create -f mydb.yaml
kubectl get pod,svc
kubectl describe pod myapp-pod
1、创建过程中第一次停滞,是init-myservice容器启动后,未能发现myservice域名,无法得到解析,因此陷入循环
2、第二次停滞,是init-mydb容器启动后,未能发现mydb域名,无法得到解析,因此再次陷入循环中
3、在上述两个init容器成功并推出后,myapp-pod才开始创建,否则pod无法创建
Pod的核心是运行容器,必须指定容器引擎,比如docker,启动容器时需要拉取镜像,K8s的镜像拉取策略可以由用户指定:
注意:对于标签为latest的镜像文件,其默认的镜像获取策略即为Always;而对于其它标签的镜像,其默认策略则为IfNotPresent
创建使用私有镜像的Pod来验证
kubectl apply -f - <<EOF
apiVersion: v1
kind: Pod
metadata:
name: private-image-test-1
spec:
containers:
- name: uses-private-image
image: $PRIVATE_IMAGE_NAME
imagePullPolicy: Always
command: [ "echo", "SUCCESS" ]
EOF
输出类似于
pod/private-image-test-1 created
如果一切顺利,那么一段时间后你可以执行
kubectl logs private-image-test-1
然后可以看到SUCCESS,如果你怀疑命令失败了,可以运行
kubectl describe pods/private-image-test-1 | grep 'Failed'
如果命令确实失败了,输出类似于
Fri, 26 Jun 2015 15:36:13 -0700 Fri, 26 Jun 2015 15:39:13 -0700 19 {kubelet node-i2hq} spec.containers{uses-private-image} failed Failed to pull image "user/privaterepo:v1": Error: image user/privaterepo:v1 not found
kubectl run nginx-test --image=nginx
kubectl edit pod nginx-test
kubectl describe podnginx-test
由于拉取策略为Always,因此不管本地有没有对应镜像,kubectl都会前往公有仓库下载最新版本应用
apiVersion: v1
kind: Pod
metadata:
name: mypod
spec:
containers:
- name: nginx
image: nginx
imagePullPolicy: Always
command: [ "echo","SUCCESS" ]
kubectl create -f mypod.yaml
kubectl get pods
该pod状态为CrashLoopBackOff,说明pod进入异常循环状态。原因是echo执行完进程终止,容器生命周期也就结束了
kubectl describe pod mypod
可以发现Pod中的容器在生命周期结束后,由于Pod的重启策略为Always,容器再次重启了,并且又重新开始拉取镜像
失败的状态的原因是因为命令启动冲突
删除command:[“echo”,“SUCCESS”]
同时更改以下版本
image:nginx:1.14
vim mypod.yaml
kubectk delete -f mypod.yaml
kubectl apply -f mypod.yaml
#查看分配节点
kubectl get pods -o wide
apiVersion: v1
kind: Pod
metadata:
name: mypod
spec:
containers:
- name: nginx
image: nginx
imagePullPolicy: IfNotPresent
command: [ "sh","while true;do echo SUCCESS;done" ]
#删除原有资源
kubectl delete -f mypod.yaml
#生成新的资源
kubectl apply -f mypod.yaml
kubectl get pod -o wide
kubectl describe pod mypod
kubectl logs mypod
发现是命令错误
vim mypod.yaml
#删除原有的资源
kubectl delete -f mypod.yaml
#生成新的资源
kubectl apply -f mypod.yaml
kubectl describe pod mypod
由于镜像拉取策略设定的是IfNotPresent,因此kubelet会先检查本地镜像仓库,如果有对应版本镜像就直接使用,没有的话才会前往镜像仓库拉取
kubectl logs mypod