目录
1、基础容器(infrastructure container)
Pod是kuberbetes中最小的资源管理组件,Pod也是最小化运行容器化应用的资源对象。一个Pod代表着集群中运行的一个进程。kubernetes中其他大多数组件都是围绕着Pod来进行支撑和扩展Pod功能的,例如用于管理Pod运行的StatefuSet和Deployment等控制器对象,用于暴露Pod应用的Service和Ingress对象,为Pod提供存储的PersistenVolume存储资源对象等。
一个Pod中运行一个容器,每个Pod中一个容器的模式是最常见的用法,在这种使用方法中,你可以把Pod想象成是单个容器封装,kubernetes管理的是 Pod而不是直接管理容器。
在一个Pod中同时运行多个容器。一个Pod也可以同时封装吉哥需要紧密耦合互相协作的容器,它们之间共享资源。这些在同一个Pod中的容器可以互相协作成为一个service单位,比如一个容器共享文件,另一个sidecar容器来更新这些文件。Pod将这些容器的存储作为一个实体来管理。
一个 Pod 下的容器必须运行于同一节点上。**现代容器技术建议一个容器只运行一个进程,该进程在容器中 PID 命令空间中的进程号为 1,可直接接收并处理信号,进程终止时容器生命周期也就结束了。
若想在容器内运行多个进程,需要一个类似Linux操作系统init进程的管控类进程,以树状结构完成多进程的生命周期管理。运行于各自容器内的进程无法直接完成网络通信,这时由于容器间的隔离机制导致,k8s中的Pod资源抽象正是解决此类问题,Pod对象是一组容器的集合,这些容器共享Network,UTS及IPC命令空间,因此具有相同的域名、主机名和网络接口,并可通过IPC直接通信。
namespace | 功能说明 |
---|---|
mnt | 提供磁盘挂载点和文件系统的隔离能力 |
ipc | 提供进程间通信的隔离能力 |
net | 提供网络隔离能力 |
uts | 提供主机名隔离能力 |
pid | 提供进程隔离能力 |
user | 提供用户隔离能力 |
Pod资源中针对各容器提供网络命名空间等共享机制的是底层基础容器pause,基础容器(也可成为父容器)pause就是为了管理Pod容器间的共享操作,这个父容器需要能够准确的知道如何去创建共享运行环境的容器,还能管理这些容器的生命周期。为了实现这个父容器的构想,kubernetes中,用于pause容器来作为一个Pod中所有容器的父容器。这个pause容器有两个核心的功能,一是它提供整个Pod的Linux命名空间的基础。二来启用PID命名空间,它在每个Pod中都作为PID为1进程(init进程),并回收僵尸进程。
每个Pod都会被分配一个唯一的IP地址。Pod中的所有容器共享网络空间,包括IP地址和端口。Pod内部的内容可以使用localhost互相通信。Pod中的容器与外界通信时,必须分配共享网络资源(例如使用宿主机的端口映射)。
可以Pod指定多个共享Volume。Pod中的所有容器都可以访问共享的Volume。Volume也可以用来持久化Pod中的存储资源,以防容器重启后文件丢失。
每个 Pod 都有一个特殊的被称为 “基础容器” 的 Pause 容器。Pause 容器对应的镜像属于 Kubernetes 平台的一部分,除了 Pause 容器,每个 Pod 还包含一个或者多个紧密相关的用户应用容器。
kubernetes中的pause容器主要为每个容器提供一下功能:
在pod中担任Linux命名空间(如网络命名空间)共享的基础
启动PID命名空间,开启init进程
原因一:在一组容器作为一个单元的情况下,难以对整体的容器简单地进行判断及有效地进行行动。比如,一个容器死亡了,此时是算整体挂了吗?那么引入与业务无关的Pause容器作为Pod的基础容器,以它的状态代表着整个容器组的状态,这样就可以解决该问题。
原因二:Pod里的多个应用容器共享Pause容器的IP,共享Pause容器挂载的Volume,这样简化了应用容器之间的通信问题,也解决了容器之间的文件共享问题。
维护整个 Pod 网络和存储空间
node 节点中操作
启动一个容器时,k8s会自动启动一个基础容器
Init 容器必须在应用程序容器启动之前运行完成,而应用程序容器是并行运行的,所以 Init 容器能够提供了一种简单的阻塞或延迟应用容器的启动的方法。Init 容器与普通的容器非常像,除了以下两点:
Init 容器总是运行到成功完成为止
每个 Init 容器都必须在下一个 Init 容器启动之前成功完成启动和退出
如果 Pod 的 Init 容器失败,k8s 会不断地重启该 Pod,直到 Init 容器成功为止。然而,如果 Pod 对应的重启策略(restartPolicy)为 Never,它不会重新启动。
因为 init 容器具有与应用容器分离的单独镜像,其启动相关代码具有如下优势:
Init 容器可以包含一些安装过程中应用容器中不存在的实用工具或个性化代码。例如,没有必要仅为了在安装过程中使用类似 sed、 awk、python 或 dig 这样的工具而去 FROM 一个镜像来生成一个新的镜像。
Init 容器可以安全地运行这些工具,避免这些工具导致应用镜像的安全性降低。
应用镜像的创建者和部署者可以各自独立工作,而没有必要联合构建一个单独的应用镜像。
Init 容器能以不同于 Pod 内应用容器的文件系统视图运行。因此,Init 容器可具有访问 Secrets的权限,而应用容器不能够访问。
由于 Init 容器必须在应用容器启动之前运行完成,因此 Init容器提供了一种机制来阻塞或延迟应用容器的启动,直到满足了一组先决条件。一旦前置条件满足,Pod 内的所有的应用容器会并行启动。
应用容器会在init容器完成并退出后再启动
- apiVersion: v1
- kind: Pod
- metadata:
- name: myapp-pod
- labels:
- app: myapp
- spec:
- containers:
- - name: myapp-container
- image: busybox:1.28
- command: ['sh','-c','echo The app is running! && sleep 3600']
- initContainers:
- - name: init-myservice
- image: busybox:1.28
- command: ['sh','-c','until nslookup myservice;do echo waiting for myservice; sleep2; done;']
- - name: init-mydb
- image: busybox:1.28
- command: ['sh','-c','until nslookup mydb; do echo waiting for mydb; sleep 2; done;']
这个例子是定义了一个具有 2 个 Init 容器的简单 Pod。 第一个等待 myservice 启动, 第二个等待 mydb 启动。一旦这两个 Init 容器都启动完成,Pod 将启动 spec 中的应用容器。
- kubectl apply -f myapp.yaml
- kubectl get pod
该pod会一直处于init:0/2状态
kubectl describe pod myapp-pod
发现开启 init-myservice 容器后,创建步骤停滞,查看 init-myservice 日志进一步查明原因
kubectl logs myapp-pod -c init-myservice
- [root@master ~]# vim myservice.yaml
-
- apiVersion: v1
- kind: Service
- metadata:
- name: myservice
- spec:
- ports:
- - protocol: TCP
- port: 80
- targetPort: 1111
kubectl create -f myservice.yaml
- [root@master ~]# vim mydb.yaml
-
- apiVersion: v1
- kind: Service
- metadata:
- name: mydb
- spec:
- ports:
- - protocol: TCP
- port: 80
- targetPort: 2222
- kubectl create -f mydb.yaml
- kubectl get pod,svc
创建过程中第一次停滞,是init-myservice容器启动后,未能发现myservice容器启动后,未能发现myservice域名,无法得到解析,因此陷入重启循环。
第二次停滞,是init-mydb容器启动后,未能发现mydb域名,无法得到解析,因此再次陷入循环中。
在上述两个init容器成功并退出后,myapp-pod才开始创建,否则pod无法创建
在pod启动过程中,Init容器会按顺序在网络和数据卷初始化之后启动。每个容器必须在下一个容器启动之前成功退出
如果由运行时或失败退出,将导致容器失败启动,它会根据pod的restartPolicy指定的策略进行重试。然而,如果Pod的restartPolicy设置为Always,Init容器失败时会使用RestartPolicy策略
在所有的Init容器没有成功之前,Pod将不会变成Ready状态。Init容器的端口将不会在Service中进行聚集。正在初始化的Pod处于Pending状态,但应该会将Initialzing状态设置为true。
如果Pod重启,所有Init容器必须重新执行
对Init容器spec的修改被限制在容器images字段,修改其他字段都不会生效。更改Init容器的iamge字段,等价于重启该Pod。
Init容器具有应用容器的所有字段。除了readinessProbe,因为Init容器无法定义不同于完成(completion)的就绪(readiness)之外的其他状态。这会在验证过程中强制执行
在Pod中的每个app和Init容器的名称必须唯一;于任何其他容器共享同一个名称,会在验证时抛出错误。
Pod的核心是运行容器,必须指定容器引擎,比如Docker,启动容器时需要拉取镜像,k8s的镜像拉取策略可以由用户指定:
ifNotPresent:在镜像已经存在的情况下,kubelet将不再去拉取镜像,仅当本地缺失时才会从仓库中拉取,默认的镜像拉取策略。
Alaways:每次创建Pod都会重新拉取一次镜像
Never:Pod不会主动拉取这个镜像,仅使用本地镜像。
注意:对于标签为latest的镜像文件,其默认的镜像获取策略即为Always;而对于其他标签的镜像,其默认策略则为IfNotPresent。
创建使用私有镜像的 Pod 来验证
- kubectl apply -f - <
- apiVersion: v1
- kind: Pod
- metadata:
- name: private-image-test-1
- spec:
- containers:
- - name: uses-private-image
- image: $PRIVATE_IMAGE_NAME
- imagePullPolicy: Always
- command: [ "echo", "SUCCESS" ]
- EOF
输出类似于
pod/private-image-test-1 created
如果一切顺利,那么一段时间后你可以执行
kubectl logs private-image-test-1
如果命令确实失败了,输出类似于
Fri, 26 Jun 2015 15:36:13 -0700 Fri, 26 Jun 2015 15:39:13 -0700 19 {kubelet node-i2hq} spec.containers{uses-private-image} failed Failed to pull image "user/privaterepo:v1": Error: image user/privaterepo:v1 not found
必须确保集群中所有节点的 .docker/config.json 文件内容相同。 否则 Pod会能在一些节点上正常运行而无法在另一些节点上启动。 例如,如果使用节点自动扩缩,那么每个实例模板都需要包含.docker/config.json,或者挂载一个包含该文件的驱动器。
在 .docker/config.json 中配置了私有仓库密钥后,所有 Pod 都将能读取私有仓库中的镜像。
2、不指定版本,查看默认拉取策略
不指定版本号创建Pod
kubectl run nginx-test1 --image=nginx
查看默认拉取策略
不指定版本号,即使用缺神值lastest最新版本,默认拉取策略为Always
查看创建过程
kubectl describe pod nginx-test1
3、测试案例(非循环命令)
创建测试案例mypod.yaml
- [root@master ~]# vim mypod.yaml
-
- apiVersion: v1
- kind: Pod
- metadata:
- name: mypod
- spec:
- containers:
- - name: nginx
- image: nginx
- imagePullPolicy: Always
- command: [ "echo","SUCCESS" ]
生成mypod配置资源
- kubectl create -f mypod.yaml
- kubectl get pods
该pod状态为CrashLoopBackOff,说明pod进入异常循环状态。原因是echo执行完进程终止,容器生命周期也就结束了
查看创建过程
kubectl describe pod mypod
因为重启策略为Always,因此成功之后依然重复拉取镜像
可以发现 Pod 中的容器在生命周期结束后,由于 Pod 的重启策略为 Always,容器再次重启了,并且又重新开始拉取镜像。
修改mypod.yaml
失败的状态的原因是因为命令启动冲突
删除 command: [ “echo”, “SUCCESS” ]
同时更改一下版本
image: nginx:1.14
vim mypod.yaml
删除原有资源
kubectl delete -f mypod.yaml
更新资源
- kubectl apply -f mypod.yaml
-
- #查看分配节点
- kubectl get pods -o wide
- kubectl apply -f mypod.yaml
-
- #查看分配节点
- kubectl get pods -o wide
在node1节点使用curl查看头部信息
4、测试案例(循环命令)
修改mypod.yaml
- [root@master ~]# vim mypod.yaml
-
- apiVersion: v1
- kind: Pod
- metadata:
- name: mypod
- spec:
- containers:
- - name: nginx
- image: nginx
- imagePullPolicy: IfNotPresent
- command: [ "sh","while true;do echo SUCCESS;done" ]
生成新的 mypod.yaml 配置资源
- #删除原有资源
- kubectl delete -f mypod.yaml
-
- #生成新的资源
- kubectl apply -f mypod.yaml
查看pod状态
kubectl get pod -o wide
容器进入循环异常状态
查看创建过程
kubectl describe pod mypod
查看pod日志
发现命令错误
检查mypod.yaml文件
再次生成新的mypod.yaml配置资源
- #删除原有的资源
- kubectl delete -f mypod.yaml
-
- #生成新的资源
- kubectl apply -f mypod.yaml
查看创建过程
kubectl describe pod mypod
由于镜像拉取策略设定的是 IfNotPresent,因此 kubelet 会先检查本地镜像仓库,如果有对应版本镜像就直接使用,没有的话才会前往镜像仓库拉取。
查看pod日志
kubectl logs mypod