• kubernetes亲和,反亲和、污点、容忍


    目录

    一、K8S调度

    二、亲和与反亲和

    1.pod和node

    2.硬亲和和软亲和

    三、容忍与污点

    1.污点(taint)

    (1)污点的组成     

    (2)污点的设置和去除

    2.容忍(tolerations) 

    (1)Toleration 基本用法

    (2)toleation

    3.多污点与多容忍配置


    一、K8S调度

           调度器通过kubernetes的list-watch机制来发现集群中新创建且尚未被调度到Node上的Pod。调度器会将发现的每一个未调度的Pod调度到一个合适的Node上来运行。
            kube-scheduler是Kubernetes集群的默认调度器,并且是集群控制面的一部分。如果你真的希望或者有这方面的需求,kube-scheduler在设计上是允许你自己写一个调度组件并替换原有的kube-scheduler。
    在做调度决定时需要考虑的因素包括:单独和整体的资源请求、硬件/软件/策略限制、亲和以及反亲和要求、数据局域性、负载间的干扰等等。

    二、亲和与反亲和

    1.pod和node

            一般情况下,我们部署的pod是通过的自动调度策略来选择节点的,默认情况下调度器考虑的是资源足够,并且负载尽量平衡,但是有的时候需要能够更加细粒度的去控制Pod的调度,比如我们内部的一些服务gitlab 之类的也是跑在kubernetes集群上的,我们就不希望对外的的一些服务和内部的服务跑在同一节点上了,担心内部服务对外部服务产生影响;但是有的时候我们的服务之间交流比较频繁,有希望能够将这两个服务的pod调度到同一节点上,这就需要用到kubernetes李面的一个概念:亲和性和反亲和性。

           亲和性有分为节点亲和性(nodeAffinity和nodeAntiAffinity)和pod亲和性(podAffinity和podAntiAffinity)

    亲和性,in代表要调度到有这个标签的位置
    反亲和性,in代表不要调度到有这个标签的位置

    2.硬亲和和软亲和

    preferredDuringSchedulingIgnoredDuringExecution 软亲和

    软策略:意思就是尽量不要讲pod调度到匹配到的节点,但是如果没有不匹配的节点的话,也可以调度到匹配到的节点。
    requiredDuringSchedulingIgnoredDuringExecution 硬亲和

    硬策略:意思就是必须调度到满足条件的节点上,否则就会pending。
    不管是使用那种方式,最终还是要依赖label标签

    1. kubectl get pods -n company ai-action-statistic-gray-86465f9c4b-hdfk4 -oyaml | grep nodeSelector -B 5 -A 5
    2.   uid: ed47f094-f70a-45ed-b7dd-d46f2d01986f
    3. spec:
    4.   affinity:
    5.     nodeAffinity:
    6.       requiredDuringSchedulingIgnoredDuringExecution:   硬策略
    7.         nodeSelectorTerms:
    8.         - matchExpressions:
    9.           - key: node-role.kubernetes.io/gray
    10.             operator: In
    11.             values:
    12.             - gray
    13.       preferredDuringSchedulingIgnoredDuringExecution:  软策略
    14.           - weight: 1
    15.             preference:
    16.               matchExpressions:
    17.               - key: pc-app
    18.                 operator: NotIn
    19.                 values:
    20.                 - luna

    三、容忍与污点

           K8S 每个节点上都可以应用一个或者多个taint,这表示对于那些不能容忍这些taint 的pod,是不会被该节点接受的,如果将taleration应用于pod上,则表示这些pod可以(但不要求)被调到具有相应taint的节点上。

    1.污点(taint)

           如果一个节点被标记为有污点,那么意味着不允许pod调度到该节点,除非pod也被标记为可以容忍污点节点。
          在使用kubeadm部署的K8S集群的时候应该会发现,通常情况下,应用是不会调度到master接受的,因为kubeadm部署的K8S集群默认给master节点加了taint(污点)


    (1)污点的组成
         

           使用kubectl、taint命令可以给某个node节点设置污点。node被设置上污点之后就和pod之间存在了一种相斥的关系,可以让node拒绝pod的调度执行,甚至将node已经存在的pod驱逐出去。

    每个污点的组成如下:

    key=value:effect
    每个污点有一个key和value作为污点的标签,其中value可以为空,effect描述污点的作用。

    污点有三种策略

    PreferNoSchedule:NoSchedule的软策略版本,表示尽量不调度到污点节点上去。
    NoExecute:该选项意味着一旦Taint生效,如该节点内正在运行的Pod没有对应容忍(Tolerate)设置,则会直接被逐出。
    NoSchedule:表示k8s将不会将Pod调度到具有该污点的Node上
     

    (2)污点的设置和去除

    使用kubectl设置和去除污点的命令

    1)设置污点

    kubectl taint nodes node1 key1=value1:NoSchedule

    2)去除污点

    kubectl taint nodes node1 key1:NoSchedule-

            接下来看一个具体的例子,使用kubeadm部署和初始化的Kubernetes集群,master节点被设置了一个node-role.kubernetes.io/master:NoSchedule的污点,可以使用kubectl describe node 命令查看。这个污点表示默认情况下master节点将不会调度运行Pod,即不运行工作负载。对于使用二进制手动部署的集群设置和移除这个污点的命令

    1. kubectl taint nodes <node-name> node-role.kubernetes.io/master=:NoSchedule
    2. kubectl taint nodes <node-name> node-role.kubernetes.io/master:NoSchedule-

    2.容忍(tolerations) 

           设置了污点的node将根据taint的effect,NoSchedule、PreferNoSchedule、NoExecute和Pod之间产生互斥的关系,Pod将在一定程度上不会被调度到Node上。 但我们可以在Pod上设置容忍(Toleration),意思是设置了容忍的Pod将可以容忍污点的存在,可以被调度到存在污点的Node上。

    (1)Toleration 基本用法

    pod 的 Toleration 声明中的 key 和 effect 需要与 Taint 的设置保持一致,并且满足以下条件之一:

    operator 的值为 Exists,这时无需指定 value
    operator 的值为 Equal 并且 value 相等
    如果不指定 operator,则默认值为 Equal。
    另外还有如下两个特例:

    空的 key 配合 Exists 操作符能够匹配所有的键和值
    空的 effect 匹配所有的 effect
    上面的例子中 effect 的取值为 NoSchedule,下面对 effect 的值作下简单说明:

    NoSchedule:如果一个 pod 没有声明容忍这个 Taint,则系统不会把该 Pod 调度到有这个 Taint 的 node 上
    PreferNoSchedule:NoSchedule 的软限制版本,如果一个 Pod 没有声明容忍这个Taint,则系统会尽量避免把这个 pod 调度到这一节点上去,但不是强制的。
    NoExecute:定义 pod 的驱逐行为,以应对节点故障。
    NoExecute 这个 Taint 效果对节点上正在运行的 pod 有以下影响:

    没有设置 Toleration 的 Pod 会被立刻驱逐
    配置了对应 Toleration 的 pod,如果没有为 tolerationSeconds 赋值,则会一直留在这一节点中
    配置了对应 Toleration 的 pod 且指定了 tolerationSeconds 值,则会在指定时间后驱逐
     

    (2)toleation

    1. tolerations:
    2.  - key: "key1"
    3. operator: "Equal"
    4. value: "value1"
    5. effect: "NoSchedule"
    6. tolerationSeconds: 3600
    7.  - key: "key1"
    8. operator: "Equal"
    9. value: "value1"
    10. effect: "NoExecute"
    11.  - key: "key2"
    12. operator: "Exists"
    13. effect: "NoSchedule"
    14. 其中key, vaule, effect要与Node上设置的taint保持一致
    15. operator的值为Exists将会忽略value值
    16. tolerationSeconds用于描述当Pod需要被驱逐时可以在Pod上继续保留运行的时间


    在Pod上设置容忍:

    当不指定key值时,表示容忍所有的污点key:

    1. tolerations:
    2. - operator: "Exists"

    当不指定effect值时,表示容忍所有的污点作用:

    1. tolerations:
    2. - key: "key"
    3. operator: "Exists"


    注意,在节点故障情况下,为了保持现存的 pod 驱逐的限速设置,系统将会以限速的模式逐步给 node 设置 Taint,这就能防止在一些特定情况下(比如 master 暂时失联)造成的大量 pod 被驱逐的后果。这一功能兼容于 tolerationSeconds,允许 pod 定义节点故障时持续多久才被逐出。

    3.多污点与多容忍配置

           系统允许在同一个 node 上设置多个 taint,也可以在 pod 上设置多个 Toleration。Kubernetes 调度器处理多个 Taint 和 Toleration 能够匹配的部分,剩下的没有忽略掉的 Taint 就是对 Pod 的效果了。下面是几种特殊情况:

    如果剩余的 Taint 中存在 effect=NoSchedule,则调度器不会把该 pod 调度到这一节点上。
    如果剩余的 Taint 中没有 NoSchedule 的效果,但是有 PreferNoSchedule 效果,则调度器会尝试不会 pod指派给这个节点
    如果剩余 Taint 的效果有 NoExecute 的,并且这个 pod已经在该节点运行,则会被驱逐;如果没有在该节点运行,也不会再被调度到该节点上。

    1. kubectltaint nodes node1 key1=value1:NoSchedule  
    2. kubectl taint nodes node1 key1=value1:NoExecute  
    3. kubectl taint nodes node1 key2=value2:NoSchedule
  • 相关阅读:
    行列式展开:行列式等于它的任一行(列)的元素与其对应的代数余子式的乘积之和
    springcloud 整合 RabbitMQ 消息中间件
    12-js事件补充
    Kubernetes (K8s) 深度分析与选型指南
    十七、MySQL约束演示
    C++ std::atomic volatile 区别与联系
    Hadoop3:Yarn框架的三种调度算法
    工欲善其事,必先利其器,五款实用的办公软件推荐
    迅为RK3399开发板Linux系统TFTP传输文件服务器测试
    类和对象(详)
  • 原文地址:https://blog.csdn.net/Drw_Dcm/article/details/127750854