• Docker资源分配--Cgroup



    引言:目前我们所提到的容器技术、虚拟化技术(不论何种抽象层次下的虚拟化技术)都能做到资源层面上的隔离和限制。

    一. Cgroup概念

    1.1 容器化两个关键核心

    对于容器技术而言,它实现资源层面上的限制和隔离,依赖于 Linux 内核所提供的 cgroup 和 namespace 技术。

    我们先对这两项技术的作用做个概括:

    cgroup 的主要作用:管理资源的分配、限制;
    namespace 的主要作用:封装抽象,限制,隔离,使命名空间内的进程看起来拥有他们自己的全局资源;

    1.2 现代容器化带来的优势

    1、轻量级,基于 Linux 内核所提供的 cgroup 和 namespace 能力,创建容器的成本很低;

    2、一定的隔离性;

    3、标准化,通过使用容器镜像的方式进行应用程序的打包和分发,可以屏蔽掉因为环境不一致带来的诸多问题;

    4、DevOps 支撑(可以在不同环境,如开发、测试和生产等环境之间轻松迁移应用,同时还可保留应用的全部功能);

    5、为基础架构增添防护,提升可靠性、可扩展性和信赖度;

    6、DevOps/GitOps 支撑 (可以做到快速有效地持续性发布,管理版本及配置);

    7、团队成员间可以有效简化、加速和编排应用的开发与部署;

    1.3 什么时Cgroup

    Cgroup 是 Linux 内核的一个功能,用来限制、控制与分离一个进程组的资源(如CPU、内存、磁盘输入输出等)。它是由 Google 的两位工程师进行开发的,自 2008 年 1 月正式发布的 Linux 内核 v2.6.24 开始提供此能力。
    Cgroup 到目前为止,有两个大版本, Cgroup v1 和 v2 。
    Cgroup 是 Control Groups 的缩写,是Linux内核提供的一种可以限制、记录、隔离进程组所使用的物理资源(如 CPU、内存、磁盘 IO 等等)的机制,被 LXC、docker 等很多项目用于实现进程资源控制。Cgroup 本身是提供将进程进行分组化管理的功能和接口的基础结构,I/O 或内存的分配控制等具体的资源管理是通过该功能来实现的。
    这些具体的资源 管理功能称为 Cgroup 子系统,有以下几大子系统实现:

    blkio:  设置限制每个块设备的输入输出控制。例如:磁盘,光盘以及 usb 等等。
    CPU:    使用调度程序为 cgroup 任务提供 CPU 的访问。
    cpuacct:产生 cgroup 任务的 CPU 资源报告。
    cpuset: 如果是多核心的 CPU,这个子系统会为 cgroup 任务分配单独的 CPU 和 内存。
    devices:允许或拒绝 cgroup 任务对设备的访问。
    freezer:暂停和恢复 cgroup 任务。
    memory: 设置每个 cgroup 的内存限制以及产生内存资源报告。
    net_cls:标记每个网络包以供 cgroup 方便使用。
    ns:     命名空间子系统。
    perf_event:增加了对每个 group 的监测跟踪的能力,可以监测属于某个特定的 group 的所有线程以及运行在特定CPU上的线程。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    二、Cgroup的一些测试

    2.1 测试CPU和内存使用情况

    使用 stress 工具测试 CPU 和内存
    使用 Dockerfile 来创建一个基于 Centos 的 stress 工具镜像。

    [root@docker ~]# cd /opt
    [root@docker opt]# mkdir stress
    [root@docker opt]# cd stress/
    [root@docker stress]# pwd
    /opt/stress
    [root@docker stress]# vim Dockerfile
    FROM centos:7
    RUN yum install -y wget
    RUN wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
    RUN yum install -y stress
    [root@docker stress]# docker build -t centos:stress .
    [root@docker stress]# docker images
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    在这里插入图片描述
    创建容器

    docker run -itd --cpu-shares 100 centos:stress
    #--cpu-shares 参数值不能保证可以获得 1 个 vcpu 或者多少GHz的CPU资源,它仅是一个弹性的加权值
    
    • 1
    • 2

    在这里插入图片描述
    说明:默认情况下,每个 Docker容器的CPU份额都是1024。单独一个容器的份额是没有意义的。只有在同时运行多个容器时,容器的 CPU 加权的效果才能体现出来。

    例如,两个容 器 A、B 的 CPU 份额分别为 1000 和 500,在CPU进行时间片分配的时候,容器A比容器B多一倍的机会获得 CPU
    的时间片。 但分配的结果取决于当时主机和其他容器的运行状态, 实际上也无法保证容器 A一定能获得CPU时间片。比如容器A的进程一直是空闲的,
    那么容器B是可以获取比容器A更多的CPU时间片的。极端情况下,例如主机上只运行了一个容器,即使它的 CPU 份额只有50,它也可以独占整个主机的CPU资源。

    Cgroups 只在容器分配的资源紧缺时,即在需要对容器使用的资源进行限制时,才会生效。因此,无法单纯根据某个容器的CPU份额来确定有多少CPU资源分配给它,
    资源分配结果取决于同时运行的其他容器的CPU分配和容器中进程运行情况。
    可以通过 cpu share设置容器使用 CPU 的优先级,比如启动了两个容器及运行查看 CPU 使用百分比。

    #容器产生10个子函数进程
    docker run -tid --name cpu512 --cpu-shares 512 centos:stress stress -c 10
    #进入容器使用top查看cpu使用情况
    docker exec -it cpu512 /bin/bash
    #再开启一个容器做比较
     docker run -tid --name cpu1024 --cpu-shares 1024 centos:stress stress -c 10
     #进入容器使用top查看cpu使用情况
    docker exec -it cpu1024 /bin/bash
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    两个容器的%CPU,比例是1:2

    2.2 CPU周期限制

    Docker 提供了==–cpu-period、–cpu-quota== 两个参数控制容器可以分配到的 CPU 时钟周期。
    –cpu-period 是用来指定容器对 CPU 的使用要在多长时间内做一次重新分配。
    –cpu-quota 是用来指定在这个周期内,最多可以有多少时间用来跑这个容器。

    与 --cpu-shares 不同的是,这种配置是指定一个绝对值,容器对 CPU 资源的使用绝对不会超过配置的值。
    cpu-period 和 cpu-quota 的单位为微秒(μs)。cpu-period 的最小值为 1000 微秒, 最大值为 1 秒(10^6 μs),默认值为 0.1 秒(100000 μs)。
    cpu-quota 的值默认为 -1, 表示不做控制。cpu-period 和 cpu-quota 参数一般联合使用。
    例如:容器进程需要每 1 秒使用单个 CPU 的 0.2 秒时间,可以将 cpu-period 设置 为 100000(即 1 秒),cpu-quota 设置为 20000(0.2 秒)。
    当然,在多核情况下,如果允许容器进程完全占用两个 CPU,则可以将 cpu-period 设置为 10000(即 0.1 秒), cpu-quota 设置为 20000(0.2 秒)。

    docker run -itd --cpu-period 10000 --cpu-quota 20000 centos:stress 
    docker exec -it e3 bash
    cat /sys/fs/cgroup/cpu/cpu.cfs_period_us
    cat /sys/fs/cgroup/cpu/cpu.cfs_quota_us
    
    • 1
    • 2
    • 3
    • 4

    在这里插入图片描述

    三. 配额控制

    3.1 CPU Core控制

    对多核 CPU 的服务器,Docker 还可以控制容器运行使用哪些 CPU 内核,即使用–cpuset-cpus 参数。
    这对具有多 CPU 的服务器尤其有用,可以对需要高性能计算的容器进行性能最优的配置。

    docker run -itd --name cpu1 --cpuset-cpus 0-1 centos:stress
    #执行以上命令需要宿主机至少为双核,表示创建的容器只能用 0、1两个内核。最终生成的cgroup的CPU内核配置如下:
    docker exec -it cpu1 bash
    cat /sys/fs/cgroup/cpuset/cpuset.cpus
    
    • 1
    • 2
    • 3
    • 4

    在这里插入图片描述
    查看容器中进程与 CPU 内核的绑定关系

    docker ps
    #容器内部第一个进程号pid为1被绑定到指定CPU上运行
    docker exec 36 taskset -c -p 1
    
    • 1
    • 2
    • 3

    在这里插入图片描述

    3.2 CPU配额控制参数的混合使用

    通过 cpuset-cpus 参数指定容器 A 使用 CPU 内核 0,容器 B 只是用 CPU 内核 1。
    在主机上只有这两个容器使用对应 CPU 内核的情况,它们各自占用全部的内核资源,cpu-shares 没有明显效果。
    cpuset-cpus、cpuset-mems 参数只在多核、多内存节点上的服务器上有效,并且必须与实际的物理配置匹配,否则也无法达到资源控制的目的。
    在系统具有多个 CPU 内核的情况下,需要通过 cpuset-cpus 参数为设置容器 CPU 内核才能方便地进行测试。

    #创建两个容器
    docker run -itd --name cpu3 --cpuset-cpus 1 --cpu-shares 512 centos:stress stress -c 1
    docker run -tid --name cpu4 --cpuset-cpus 3 --cpu-shares 1024 centos:stress stress -c 1
    #使用top命令查看cpu运行占用率,使用1查看多核
    
    • 1
    • 2
    • 3
    • 4

    在这里插入图片描述

    总结:上面的 centos:stress 镜像安装了 stress 工具,用来测试 CPU 和内存的负载。通过 在两个容器上分别执行 stress -c 1 命令,
    将会给系统一个随机负载,产生 1 个进程。这 个进程都反复不停的计算由 rand() 产生随机数的平方根,直到资源耗尽。
    观察到宿主机上的 CPU 使用率,第三个内核的使用率接近 100%, 并且一批进程的 CPU 使用率明显存在 2:1 的使用比例的对比。

    3.3 内存限额

    与操作系统类似,容器可使用的内存包括两部分:物理内存和 Swap。
    Docker 通过下面两组参数来控制容器内存的使用量。

    -m 或 --memory:设置内存的使用限额,例如 100M、1024M。 
    --memory-swap:设置 内存+swap 的使用限额。
    
    • 1
    • 2

    执行如下命令允许该容器最多使用 200M 的内存和 300M 的 swap。

    docker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 280M
    #--vm 1:启动 1 个内存工作线程。 
    #--vm-bytes 280M:每个线程分配 280M 内存。
    
    • 1
    • 2
    • 3

    默认情况下,容器可以使用主机上的所有空闲内存。
    与 CPU 的 cgroups 配置类似, Docker 会自动为容器在目录 /sys/fs/cgroup/memory/docker/容器ID
    中创建相应 cgroup 配置文件
    如果让工作线程分配的内存超过 300M,分配的内存超过限额,stress 线程报错,容器 退出。
    在这里插入图片描述

    3.4 Block IO 的限制

    默认情况下,所有容器能平等地读写磁盘,可以通过设置–blkio-weight 参数来改变 容器 block IO 的优先级。
    –blkio-weight 与 --cpu-shares 类似,设置的是相对权重值,默认为 500。
    在下面 的例子中,容器 A 读写磁盘的带宽是容器 B 的两倍。

    docker run -it --name container_A --blkio-weight 600 centos:stress
    cat /sys/fs/cgroup/blkio/blkio.weight
    
    docker run -it --name container_B --blkio-weight 300 centos:stress
    cat /sys/fs/cgroup/blkio/blkio.weight
    
    • 1
    • 2
    • 3
    • 4
    • 5

    在这里插入图片描述

    3.5 bps 和 iops的限制

    概念:
    bps 是 byte per second,每秒读写的数据量
    iops 是 io per second,每秒 IO 的次数

    可通过以下参数控制容器的 bps 和 iops:

    --device-read-bps,限制读某个设备的 bps。
    --device-write-bps,限制写某个设备的 bps。
    --device-read-iops,限制读某个设备的 iops。
    --device-write-iops,限制写某个设备的 iops。
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 下面的示例是限制容器写 /dev/sda 的速率为 5 MB/s。
    [root@docker ~]# docker run -it --device-write-bps /dev/sda:5MB centos:stress
    [root@docker ~]# docker ps
    CONTAINER ID   IMAGE           COMMAND   CREATED          STATUS          PORTS     NAMES
    862e802f56f9   centos:stress   "top"     5 minutes ago    Up 4 minutes              kind_bhabha
    [root@docker ~]# docker exec -it 862 /bin/bash
    [root@862e802f56f9 /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct //可以按ctrl+c中断查看
    681+0 records in
    681+0 records out
    714080256 bytes (714 MB) copied, 136.201 s, 5.2 MB/s
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    在这里插入图片描述
    通过 dd 命令测试在容器中写磁盘的速度。因为容器的文件系统是在 host /dev/sda 上 的,
    在容器中写文件相当于对 host /dev/sda 进行写操作。另外,oflag=direct 指定用 direct IO 方式写文件,
    这样 --device-write-bps 才能生效。
    结果表明限速 5MB/s 左右。作为对比测试,如果不限速,结果如下。

    [root@localhost docker]# docker run -it centos:stress
    
    [root@10531445df8d /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct
    1024+0 records in
    1024+0 records out
    1073741824 bytes (1.1 GB) copied, 0.928611 s, 1.2 GB/s
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
  • 相关阅读:
    Springboot 使用升级小记-MVC path
    windows 安装anaconda
    获取分布式的请求响应内容
    使用大语言模型 LLM 做文本分析
    每日一练——单链表排序
    DataX 自学使用
    【MindSpore】用coco2017训练Model_zoo上的 yolov4,迭代了两千多batch_size之后报错,大佬们帮忙看看。
    FastAPI 学习之路(三十一)CORS(跨域资源共享)
    【ESP32_8266_BT篇(二)】Beacon信标广播
    小程序商品列表分页实现
  • 原文地址:https://blog.csdn.net/weixin_44175418/article/details/125884084