• k8s之HPA


    HPA(Horizontal Pod Autoscaling)Pod 水平自动伸缩,Kubernetes 有一个 HPA 的资源,HPA 可以根据 CPU 利用率自动伸缩一个 Replication Controller、Deployment 或者Replica Set 中的 Pod 数量。

    (1)HPA 基于 Master 上的 kube-controller-manager 服务启动参数 horizontal-pod-autoscaler-sync-period 定义的时长(默认为30秒),周期性的检测 Pod 的 CPU 使用率。

    (2)HPA 与之前的 RC、Deployment 一样,也属于一种 Kubernetes 资源对象。通过追踪分析 RC 控制的所有目标 Pod 的负载变化情况,来确定是否需要针对性地调整目标Pod的副本数,这是HPA的实现原理。

    (3)metrics-server 也需要部署到集群中, 它可以通过 resource metrics API 对外提供度量数据。
     

    部署 metrics-server

    metrics-server:是kubernetes集群资源使用情况的聚合器,收集数据给kubernetes集群内使用,如kubectl、hpa、scheduler等。
     

    在所有 Node 节点上传 metrics-server.tar 镜像包到 /opt 目录

    1. cd /opt/
    2. docker load -i metrics-server.tar

    使用 helm install 安装 metrics-server

    1. mkdir /opt/metrics
    2. cd /opt/metrics
    3. helm repo remove stable
    4. helm repo add stable https://charts.helm.sh/stable
    5. helm repo add stable http://mirror.azure.cn/kubernetes/charts
    6. helm repo update
    7. helm pull stable/metrics-server
    8. vim metrics-server.yaml
    9. args:
    10. - --logtostderr
    11. - --kubelet-insecure-tls
    12. - --kubelet-preferred-address-types=InternalIP
    13. image:
    14. repository: k8s.gcr.io/metrics-server-amd64
    15. tag: v0.3.2

    使用 helm install 安装 metrics-server

    1. helm install metrics-server stable/metrics-server -n kube-system -f metrics-server.yaml
    2. kubectl get pods -n kube-system | grep metrics-server
    3. #需要多等一会儿
    4. kubectl top node
    5. kubectl top pods --all-namespaces

     部署 HPA 

    在所有节点上传 hpa-example.tar 镜像文件到 /opt 目录

    hpa-example.tar 是谷歌基于 PHP 语言开发的用于测试 HPA 的镜像,其中包含了一些可以运行 CPU 密集计算任务的代码。
     

    1. cd /opt
    2. docker load -i hpa-example.tar
    3. docker images | grep hpa-example
    4. gcr.io/google_containers/hpa-example latest 4ca4c13a6d7c 5 years ago 481MB

    创建用于测试的 Pod 资源,并设置请求资源为 cpu=200m

    1. vim hpa-pod.yaml
    2. apiVersion: apps/v1
    3. kind: Deployment
    4. metadata:
    5. labels:
    6. run: php-apache
    7. name: php-apache
    8. spec:
    9. replicas: 1
    10. selector:
    11. matchLabels:
    12. run: php-apache
    13. template:
    14. metadata:
    15. labels:
    16. run: php-apache
    17. spec:
    18. containers:
    19. - image: gcr.io/google_containers/hpa-example
    20. name: php-apache
    21. imagePullPolicy: IfNotPresent
    22. ports:
    23. - containerPort: 80
    24. resources:
    25. requests:
    26. cpu: 200m
    27. ---
    28. apiVersion: v1
    29. kind: Service
    30. metadata:
    31. name: php-apache
    32. spec:
    33. ports:
    34. - port: 80
    35. protocol: TCP
    36. targetPort: 80
    37. selector:
    38. run: php-apache
    1. kubectl apply -f hpa-pod.yaml
    2. kubectl get pods

    使用 kubectl autoscale 命令创建 HPA 控制器,设置 cpu 负载阈值为请求资源的 50%,指定最少负载节点数量为 1 个,最大负载节点数量为 10 个

    kubectl autoscale deployment php-apache --cpu-percent=50 --min=1 --max=10
    

    需要等一会儿,才能获取到指标信息 TARGETS

    1. kubectl get hpa
    2. kubectl top pods

    创建一个测试客户端容器

    kubectl run -it load-generator --image=busybox /bin/sh
    

    增加负载
    # while true; do wget -q -O- http://php-apache.default.svc.cluster.local; done
     

    打开一个新的窗口,查看负载节点数目

    kubectl get hpa -w
    

    以上可以看到经过压测,负载节点数量最大上升到 10 个,并且 cpu 负载也随之下降。

    如果 cpu 性能较好导致负载节点上升不到 10 个,可再创建一个测试客户端同时测试:

    1. kubectl run -i --tty load-generator1 --image=busybox /bin/sh
    2. # while true; do wget -q -O- http://php-apache.default.svc.cluster.local; done

    查看 Pod 状态,也发现已经创建了 10 个 Pod 资源

    kubectl get pods
    

    #HPA 扩容的时候,负载节点数量上升速度会比较快;但回收的时候,负载节点数量下降速度会比较慢。
    原因是防止在业务高峰期时因为网络波动等原因的场景下,如果回收策略比较积极的话,K8S集群可能会认为访问流量变小而快速收缩负载节点数量,而仅剩的负载节点又承受不了高负载的压力导致崩溃,从而影响业务。
     

    扩展
     

    资源限制 - Pod

    Kubernetes对资源的限制实际上是通过cgroup来控制的,cgroup是容器的一组用来控制内核如何运行进程的相关属性集合。针对内存、CPU 和各种设备都有对应的 cgroup。
    默认情况下,Pod 运行没有 CPU 和内存的限额。这意味着系统中的任何 Pod 将能够像执行该 Pod 所在的节点一样, 消耗足够多的 CPU 和内存。一般会针对某些应用的 pod 资源进行资源限制,这个资源限制是通过 resources 的 requests 和 limits 来实现。requests 为创建 Pod 时初始要分配的资源,limits 为 Pod 最高请求的资源值。
     

    示例:

    1. spec:
    2. containers:
    3. - image: xxxx
    4. imagePullPolicy: IfNotPresent
    5. name: auth
    6. ports:
    7. - containerPort: 8080
    8. protocol: TCP
    9. resources:
    10. limits:
    11. cpu: "2"
    12. memory: 1Gi
    13. requests:
    14. cpu: 250m
    15. memory: 250Mi

    资源限制 - 命名空间

    1.计算资源配额
     

    1. apiVersion: v1
    2. kind: ResourceQuota #使用 ResourceQuota 资源类型
    3. metadata:
    4. name: compute-resources
    5. namespace: spark-cluster #指定命令空间
    6. spec:
    7. hard:
    8. pods: "20" #设置 Pod 数量最大值
    9. requests.cpu: "2"
    10. requests.memory: 1Gi
    11. limits.cpu: "4"
    12. limits.memory: 2Gi

    2.配置对象数量配额限制
     

    1. apiVersion: v1
    2. kind: ResourceQuota
    3. metadata:
    4. name: object-counts
    5. namespace: spark-cluster
    6. spec:
    7. hard:
    8. configmaps: "10"
    9. persistentvolumeclaims: "4" #设置 pvc 数量最大值
    10. replicationcontrollers: "20" #设置 rc 数量最大值
    11. secrets: "10"
    12. services: "10"
    13. services.loadbalancers: "2"

    #如果Pod没有设置requests和limits,则会使用当前命名空间的最大资源;如果命名空间也没设置,则会使用集群的最大资源。
    K8S 会根据 limits 限制 Pod 使用资源,当内存超过 limits 时 cgruops 会触发 OOM。
     

    这里就需要创建 LimitRange 资源来设置 Pod 或其中的 Container 能够使用资源的最大默认值
     

    1. apiVersion: v1
    2. kind: LimitRange #使用 LimitRange 资源类型
    3. metadata:
    4. name: mem-limit-range
    5. namespace: test #可以给指定的 namespace 增加一个资源限制
    6. spec:
    7. limits:
    8. - default: #defaultlimit 的值
    9. memory: 512Mi
    10. cpu: 500m
    11. defaultRequest: #defaultRequest 即 request 的值
    12. memory: 256Mi
    13. cpu: 100m
    14. type: Container #类型支持 Container、Pod、PVC

     

  • 相关阅读:
    单例模式.
    (2022版)一套教程搞定k8s安装到实战 | Secret
    【每日一题】768. 最多能完成排序的块 II
    代码随想录算法训练营DAY29(记录)|C++回溯算法Part.5|491.递增子序列、46.全排列、47.全排列II
    impala常用时间函数,date->string->timestamp互转
    QT_C++_多线程
    SpringMVC | SpringMVC中的 “数据绑定”
    理解项目开发(寺庙小程序)
    LeetCode 每日一题 2023/8/28-2023/9/3
    [附源码]Python计算机毕业设计Django学生社团信息管理系统
  • 原文地址:https://blog.csdn.net/Breeze_nebula/article/details/134427006