• K8S中POD的控制器


    一、Pod控制器及其功用

    Pod控制器,又称之为工作负载(workload),是用于实现管理pod的中间层,确保pod资源符合预期的状态,pod的资源出现故障时,会尝试进行重启,当根据重启策略无效,则会重新新建pod的资源。

    pod控制器有多种类型:
    1、ReplicaSet: 代用户创建指定数量的pod副本,确保pod副本数量符合预期状态,并且支持滚动式自动扩容和缩容功能。
    ReplicaSet主要三个组件组成:
    (1)用户期望的pod副本数量
    (2)标签选择器,判断哪个pod归自己管理
    (3)当现存的pod数量不足,会根据pod资源模板进行新建
    帮助用户管理无状态的pod资源,精确反应用户定义的目标数量,但是RelicaSet不是直接使用的控制器,而是使用Deployment。

    2、Deployment:工作在ReplicaSet之上,用于管理无状态应用,目前来说最好的控制器。支持滚动更新和回滚功能,还提供声明式配置。
    ReplicaSet 与Deployment 这两个资源对象逐步替换之前RC的作用。

    3、DaemonSet:用于确保集群中的每一个节点只运行特定的pod副本,通常用于实现系统级后台任务。比如ELK服务
    特性:服务是无状态的
    服务必须是守护进程

    4、StatefulSet:管理有状态应用

    5、Job:只要完成就立即退出,不需要重启或重建

    6、Cronjob:周期性任务控制,不需要持续后台运行

    二、Pod与控制器之间的关系


    controllers:在集群上管理和运行容器的 pod 对象, pod 通过 label-selector 相关联。
    Pod 通过控制器实现应用的运维,如伸缩,升级等。


    1.Deployment


    部署无状态应用
    管理Pod和ReplicaSet
    具有上线部署、副本设定、滚动升级、回滚等功能
    提供声明式更新,例如只更新一个新的image
    应用场景:web服务

    示例:
    vim nginx-deployment.yaml
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: nginx-deployment
      labels:
        app: nginx    
    spec:
      replicas: 3
      selector:
        matchLabels:
          app: nginx
      template:
        metadata:
          labels:
            app: nginx
        spec:
          containers:
          - name: nginx
            image: nginx:1.15.4
            ports:
            - containerPort: 80

    kubectl create -f nginx-deployment.yaml

    kubectl get pods,deploy,rs

    //查看控制器配置
    kubectl edit deployment/nginx-deployment
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      annotations:
        deployment.kubernetes.io/revision: "1"
      creationTimestamp: "2021-04-19T08:13:50Z"
      generation: 1
      labels:
        app: nginx                    #Deployment资源的标签
      name: nginx-deployment
      namespace: default
      resourceVersion: "167208"
      selfLink: /apis/extensions/v1beta1/namespaces/default/deployments/nginx-deployment
      uid: d9d3fef9-20d2-4196-95fb-0e21e65af24a
    spec:
      progressDeadlineSeconds: 600
      replicas: 3                    #期望的pod数量,默认是1
      revisionHistoryLimit: 10
      selector:
        matchLabels:
          app: nginx
      strategy:
        rollingUpdate:
          maxSurge: 25%                #升级过程中会先启动的新Pod的数量不超过期望的Pod数量的25%,也可以是一个绝对值
          maxUnavailable: 25%        #升级过程中在新的Pod启动好后销毁的旧Pod的数量不超过期望的Pod数量的25%,也可以是一个绝对值
        type: RollingUpdate            #滚动升级
      template:
        metadata:
          creationTimestamp: null
          labels:
            app: nginx                #Pod副本关联的标签
        spec:
          containers:
          - image: nginx:1.15.4                #镜像名称
            imagePullPolicy: IfNotPresent    #镜像拉取策略
            name: nginx
            ports:
            - containerPort: 80                #容器暴露的监听端口
              protocol: TCP
            resources: {}
            terminationMessagePath: /dev/termination-log
            terminationMessagePolicy: File
          dnsPolicy: ClusterFirst
          restartPolicy: Always                #容器重启策略
          schedulerName: default-scheduler
          securityContext: {}
          terminationGracePeriodSeconds: 30
    ......

    //查看历史版本
    kubectl rollout history deployment/nginx-deployment
    deployment.apps/nginx-deployment
    REVISION  CHANGE-CAUSE
    1        

    2.SatefulSet

    部署有状态应用
    稳定的持久化存储,即Pod重新调度后还是能访问到相同的持久化数据,基于PVC来实现
    稳定的网络标志,即Pod重新调度后其PodName和HostName不变,基于Headless Service(即没有Cluster IP的Service)来实现
    有序部署,有序扩展,即Pod是有顺序的,在部署或者扩展的时候要依据定义的顺序依次进行(即从0到N-1,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态),基于init containers来实现
    有序收缩,有序删除(即从N-1到0)

    常见的应用场景:数据库
    https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/

    apiVersion: v1
    kind: Service
    metadata:
      name: nginx
      labels:
        app: nginx
    spec:
      ports:
      - port: 80
        name: web
      clusterIP: None
      selector:
        app: nginx
    ---
    apiVersion: apps/v1
    kind: StatefulSet
    metadata:
      name: web
    spec:
      selector:
        matchLabels:
          app: nginx # has to match .spec.template.metadata.labels
      serviceName: "nginx"
      replicas: 3 # by default is 1
      template:
        metadata:
          labels:
            app: nginx # has to match .spec.selector.matchLabels
        spec:
          terminationGracePeriodSeconds: 10
          containers:
          - name: nginx
            image: k8s.gcr.io/nginx-slim:0.8
            ports:
            - containerPort: 80
              name: web
            volumeMounts:
            - name: www
              mountPath: /usr/share/nginx/html
      volumeClaimTemplates:
      - metadata:
          name: www
        spec:
          accessModes: [ "ReadWriteOnce" ]
          storageClassName: "my-storage-class"
          resources:
            requests:
              storage: 1Gi

    2.1 satefulset的三个组件

    从上面的应用场景可以发现,StatefulSet由以下几个部分组成:
    ●Headless Service(无头服务):用于为Pod资源标识符生成可解析的DNS记录。
    ●volumeClaimTemplates(存储卷申请模板):基于静态或动态PV供给方式为Pod资源提供专有的固定存储。
    ●StatefulSet:用于管控Pod资源。

    为什么要有headless?
    在deployment中,每一个pod是没有名称,是随机字符串,是无序的。而statefulset中是要求有序的,每一个pod的名称必须是固定的。当节点挂了,重建之后的标识符是不变的,每一个节点的节点名称是不能改变的。pod名称是作为pod识别的唯一标识符,必须保证其标识符的稳定并且唯一。
    为了实现标识符的稳定,这时候就需要一个headless service 解析直达到pod,还需要给pod配置一个唯一的名称。

    为什么要有volumeClainTemplate?
    大部分有状态副本集都会用到持久存储,比如分布式系统来说,由于数据是不一样的,每个节点都需要自己专用的存储节点。而在 deployment中pod模板中创建的存储卷是一个共享的存储卷,多个pod使用同一个存储卷,而statefulset定义中的每一个pod都不能使用同一个存储卷,由此基于pod模板创建pod是不适应的,这就需要引入volumeClainTemplate,当在使用statefulset创建pod时,会自动生成一个PVC,从而请求绑定一个PV,从而有自己专用的存储卷。

    服务发现:就是应用服务之间相互定位的过程。
    应用场景:
    ●动态性强:Pod会飘到别的node节点
    ●更新发布频繁:互联网思维小步快跑,先实现再优化,老板永远是先上线再慢慢优化,先把idea变成产品挣到钱然后再慢慢一点一点优化
    ●支持自动伸缩:一来大促,肯定是要扩容多个副本

    K8S里服务发现的方式---DNS,使K8S集群能够自动关联Service资源的“名称”和“CLUSTER-IP”,从而达到服务被集群自动发现的目的。

    实现K8S里DNS功能的插件:
    ●skyDNS:Kubernetes 1.3之前的版本
    ●kubeDNS:Kubernetes 1.3至Kubernetes 1.11
    ●CoreDNS:Kubernetes 1.11开始至今

    vim pod6.yaml 
    apiVersion: v1
    kind: Pod
    metadata:
      name: dns-test
    spec:
      containers:
      - name: busybox
        image: busybox:1.28.4
        args:
        - /bin/sh
        - -c
        - sleep 36000
      restartPolicy: Never
      
    kubectl create -f pod6.yaml 

    //解析kubernetes和nginx-service名称
    kubectl exec -it dns-test sh
    / # nslookup kubernetes
    Server:    10.96.0.10
    Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local

    Name:      kubernetes
    Address 1: 10.96.0.1 kubernetes.default.svc.cluster.local
    / # nslookup nginx-service
    Server:    10.96.0.10
    Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local

    Name:      nginx-service
    Address 1: 10.96.173.115 nginx-service.default.svc.cluster.local
     

    2.2 查看statefulset的定义

    2.3 清单定义StatefulSet

    apiVersion: v1
    kind: Service
    metadata:
      name: myapp-svc
      labels:
        app: myapp-svc
    spec:
      ports:
      - port: 80
        name: web
      clusterIP: None
      selector:
        app: myapp-pod
    ---
    apiVersion: apps/v1
    kind: StatefulSet
    metadata:
      name: myapp
    spec:
      serviceName: myapp-svc
      replicas: 3
      selector:
        matchLabels:
          app: myapp-pod
      template:
        metadata:
          labels:
            app: myapp-pod
        spec:
          containers:
          - name: myapp
            image: ikubernetes/myapp:v1
            ports:
            - containerPort: 80
              name: web
            volumeMounts:
            - name: myappdata
              mountPath: /usr/share/nginx/html
      volumeClaimTemplates:
      - metadata:
          name: myappdata
          annotations:          #动态PV创建时,使用annotations在PVC里声明一个StorageClass对象的标识进行关联
            volume.beta.kubernetes.io/storage-class: nfs-client-storageclass
        spec:
          accessModes: ["ReadWriteOnce"]
          resources:
            requests:
              storage: 2Gi

    解析上例:由于 StatefulSet 资源依赖于一个实现存在的 Headless 类型的 Service 资源,所以需要先定义一个名为 myapp-svc 的 Headless Service 资源,用于为关联到每个 Pod 资源创建 DNS 资源记录。接着定义了一个名为 myapp 的 StatefulSet 资源,它通过 Pod 模板创建了 3 个 Pod 资源副本,并基于 volumeClaimTemplates 向前面创建的PV进行了请求大小为 2Gi 的专用存储卷。
     

    2.4实验案例

    定义PV
    vim pv-demo.yaml

    kubectl apply -f pv-demo.yaml

    kubectl get pv
    NAME      CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS      CLAIM     STORAGECLASS   REASON    AGE
    pv001     1Gi        RWO,RWX        Retain           Available                                      7s
    pv002     2Gi        RWO            Retain           Available                                      7s
    pv003     2Gi        RWO,RWX        Retain           Available                                      7s
    pv004     2Gi        RWO,RWX        Retain           Available                                      7s
    pv005     2Gi        RWO,RWX        Retain           Available                                       7s

    创建statefulset

    kubectl get svc  #查看创建的无头服务myapp-svc
    NAME         TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)             AGE
    kubernetes   ClusterIP   10.96.0.1                443/TCP             50d
    myapp-svc    ClusterIP   None                    80/TCP              38s

    kubectl get sts    #查看statefulset
    NAME      DESIRED   CURRENT   AGE
    myapp     3         3         55s

    kubectl get pvc    #查看pvc绑定
    NAME                STATUS    VOLUME    CAPACITY   ACCESS MODES   STORAGECLASS   AGE
    myappdata-myapp-0   Bound     pv002     2Gi        RWO                           1m
    myappdata-myapp-1   Bound     pv003     2Gi        RWO,RWX                       1m
    myappdata-myapp-2   Bound     pv004     2Gi        RWO,RWX                       1m

    kubectl get pv    #查看pv绑定
    NAME      CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS      CLAIM                       STORAGECLASS   REASON    AGE
    pv001     1Gi        RWO,RWX        Retain           Available                                                        6m
    pv002     2Gi        RWO            Retain           Bound       default/myappdata-myapp-0                            6m
    pv003     2Gi        RWO,RWX        Retain           Bound       default/myappdata-myapp-1                            6m
    pv004     2Gi        RWO,RWX        Retain           Bound       default/myappdata-myapp-2                            6m
    pv005     2Gi        RWO,RWX        Retain           Available                                                        6m

    kubectl get pods   #查看Pod信息
    NAME                     READY     STATUS    RESTARTS   AGE
    myapp-0                  1/1       Running   0          2m
    myapp-1                  1/1       Running   0          2m
    myapp-2                  1/1       Running   0          2m

    kubectl delete -f stateful-demo.yaml    

    //当删除的时候是从myapp-2开始进行删除的,关闭是逆向关闭
    kubectl get pods -w

    //此时PVC依旧存在的,再重新创建pod时,依旧会重新去绑定原来的pvc
    kubectl apply -f stateful-demo.yaml

    kubectl get pvc
    NAME                STATUS    VOLUME    CAPACITY   ACCESS MODES   STORAGECLASS   AGE
    myappdata-myapp-0   Bound     pv002     2Gi        RWO                           5m
    myappdata-myapp-1   Bound     pv003     2Gi        RWO,RWX                       5m
    myappdata-myapp-2   Bound     pv004     2Gi        RWO,RWX

    3.deployment和satefulset总结


    无状态:
    1)deployment 认为所有的pod都是一样的
    2)不用考虑顺序的要求
    3)不用考虑在哪个node节点上运行
    4)可以随意扩容和缩容 

    有状态
    1)实例之间有差别,每个实例都有自己的独特性,元数据不同,例如etcd,zookeeper
    2)实例之间不对等的关系,以及依靠外部存储的应用。

    常规service和无头服务区别
    service:一组Pod访问策略,提供cluster-IP群集之间通讯,还提供负载均衡和服务发现。
    Headless service:无头服务,不需要cluster-IP,而是直接以DNS记录的方式解析出被代理Pod的IP地址。
     

  • 相关阅读:
    Android 10.0系统settings app详情页控制开启关闭流量数据的开关
    Github Actions 自动同步到 Gitee
    java计算机毕业设计在线问答平台源码+系统+mysql数据库+lw文档+部署
    CSS 字体
    动态规划背包问题之多重背包详解
    我们追求的泛化,竟是一条死路?
    微信小程序仿QQ头像轮播效果
    进程,内核线程,用户线程,协程,纤程......操作系统世界观
    3ds max 2024 V-Ray 6 ACES workflow 工作流设置
    KITTI 数据集简介
  • 原文地址:https://blog.csdn.net/m0_65299341/article/details/136361242