• Kubernetes 系统化学习之 持久存储篇(五)


    1. ConfigMap

    ConfigMap 是一种 API 对象,用来将非机密性的数据保存到键值对中。使用时,Pods 可以将其用作环境变量、命令行参数或者存储卷中的配置文件。ConfigMap 的主要作用就是为了让镜像和配置文件解耦,以便实现镜像的可移植性和可复用性。

    ConfigMap 并不提供保密或者加密功能。 如果你想存储的数据是机密的,请使用 Secret, 或者使用其他第三方工具来保证你的数据的私密性,而不是用 ConfigMap。

    • ConfigMap 的名字必须是一个合法的 DNS 子域名。

    ConfigMap 创建的4种方式

    注意:此处我们用到的例子中的 cm1, cm2, cm3, cm4 后续例子中也会引用到。

    这里先给出几个查看 configmap 的命令:

    1. # 查看 configmap 列表
    2. kubectl get cm
    3. # 查看某个 configmap 内容
    4. kubectl describe cm cm1
    5. 复制代码
    1. 通过直接在命令行中指定configmap参数创建,即(--from-literal=key=value):
    1. kubectl create configmap cm1 --from-literal=host=127.0.0.1 --from-literal=port=3306
    2. 复制代码
    1. 通过指定文件创建,即(--from-file=file):
    1. echo -n 127.0.0.1 > host
    2. echo -n 3306 > port
    3. 复制代码
    1. kubectl create configmap cm2 --from-file=./host --from-file=./port
    2. 复制代码
    1. 通过一个文件内多个键值对,即(--from-env-file=file):
    1. vim env.txt
    2. 复制代码
    1. host=127.0.0.1
    2. port=3306
    3. 复制代码
    1. kubectl create configmap cm3 --from-env-file=env.txt
    2. 复制代码
    1. 通过 YMAL 文件创建(推荐使用):
    1. vim cm4.yml
    2. 复制代码
    1. apiVersion: v1
    2. kind: ConfigMap
    3. metadata:
    4. name: cm4
    5. data:
    6. host: 127.0.0.1
    7. port: "3306"
    8. 复制代码
    1. kubectl apply -f cm4.yml
    2. 复制代码

    ConfigMap 的2种使用方式

    1. 通过环境变量的方式传递给 pod
    1. vim pod-cm1.yml
    2. 复制代码
    1. apiVersion: v1
    2. kind: Pod
    3. metadata:
    4. name: pod-cm1
    5. spec:
    6. containers:
    7. - name: mysql-pod
    8. image: mysql:5.7
    9. args: [ "/bin/sh", "-c", "sleep 10000" ]
    10. envFrom: # env方式
    11. - configMapRef:
    12. name: cm1 # configmap名称
    13. 复制代码
    1. kubectl apply -f pod-cm1.yml
    2. kubectl exec pod-cm1 --env
    3. 复制代码
    1. 通过 volume 的方式挂载到 pod 内
    1. vim pod-cm2.yml
    2. 复制代码
    1. apiVersion: v1
    2. kind: Pod
    3. metadata:
    4. name: pod-cm2
    5. spec:
    6. containers:
    7. - name: mysql-pod
    8. image: mysql:5.7
    9. args: [ "/bin/sh", "-c", "sleep 10000" ]
    10. volumeMounts: # 用volume挂载方式
    11. - name: vol-cm # 对应下面的volume名
    12. mountPath: "/etc/mysql" # 挂载到容器内部的路径
    13. readOnly: true # 只读
    14. volumes:
    15. - name: vol-cm # 卷名称
    16. configMap:
    17. name: cm2 # configmap的名称
    18. 复制代码
    1. kubectl apply -f pod-cm2.yml
    2. kubectl exec pod-cm2 – cat /etc/mysql/host
    3. kubectl exec pod-cm2 – cat /etc/mysql/port
    4. 复制代码

    使用 subpath 参数覆盖文件

    1. cat index.html(内容是 ABCDEFG)
    2. 复制代码
    1. kubectl create configmap nginx-index --from-file=index.html
    2. 复制代码
    1. vim subpath-cm.yaml
    2. 复制代码
    1. apiVersion: v1
    2. kind: Pod
    3. metadata:
    4. name: subpath-cm
    5. spec:
    6. containers:
    7. - name: c1
    8. image: nginx:1.17.1-alpine
    9. volumeMounts:
    10. - name: nginx-config
    11. mountPath: /usr/share/nginx/html/index.html # configmap要挂载并覆盖的绝对路径
    12. subPath: index.html # 这里要写相对路径
    13. volumes:
    14. - name: nginx-config
    15. configMap:
    16. name: nginx-index # 对应上面创建的configmap
    17. 复制代码
    1. kubectl apply -f subpath-cm.yaml
    2. 复制代码

    此时 nginx 的首页内容就已经被覆盖成了“ABCDEFG”。

    ConfigMap 的热更新

    • 通过环境变量的方式传递给 pod,这种方式不会热更新。
    • 通过 volume 的方式挂载到 pod 内。这种方式会热更新, 大概需要半分钟左右
    • 但是使用 subpath 挂载文件,这种方式也不能热更新。

    我们现在就来验证这种方式:

    1. kubectl edit cm cm2
    2. 复制代码
    1. apiVersion: v1
    2. data:
    3. host: 127.0.0.1
    4. port: "3308" 修改成3308
    5. kind: ConfigMap
    6. metadata:
    7. creationTimestamp: "2020-11-07T12:09:15Z"
    8. managedFields:
    9. - apiVersion: v1
    10. fieldsType: FieldsV1
    11. fieldsV1:
    12. f:data:
    13. .: {}
    14. f:host: {}
    15. f:port: {}
    16. manager: kubectl
    17. operation: Update
    18. time: "2020-11-07T12:09:15Z"
    19. name: cm2
    20. namespace: default
    21. resourceVersion: "169707"
    22. selfLink: /api/v1/namespaces/default/configmaps/cm2
    23. 复制代码

    验证对应的 pod 里的变化,一段时间后会改变:

    1. kubectl exec pod-cm2 – cat /etc/mysql/port
    2. 复制代码

    2. Secret

    Secret 与 ConfigMap 类似, 主要区别是 Secret 存储的是密文, 而 ConfigMap 存储的是明文。

    所以 ConfigMap 可以用配置文件管理, 而 Secret 可用于密码, 密钥, token 等敏感数据的配置管理。

    Secret 的4种类型

    • Opaque: base64 编码格式的 Secret,用来存储密码、密钥、信息、证书等,类型标识符为 generic;
    • Service Account: 用来访问 Kubernetes API,由 Kubernetes 自动创建,并且会自动挂载到 Pod的/run/secrets/kubernetes.io/serviceaccount目录中;
    • kubernetes.io/dockerconfigjson: 用来存储私有 docker registry 的认证信息,类型标识为docker-registry。
    • kubernetes.io/tls: 用于为 SSL 通信模式存储证书和私钥文件,命令式创建类型标识为 tls。

    使用 Opaque 类型来创建 mysql 密码 Secret:

    将明文密码进行base64编码

    1. echo -n 123456 |base64
    2. 复制代码
    1. MTIzNDU2
    2. 复制代码

    编写创建secret的YAML文件

    1. vim secret-mysql.yml
    2. 复制代码
    1. apiVersion: v1
    2. kind: Secret
    3. metadata:
    4. name: secret-mysql
    5. data:
    6. password: MTIzNDU2
    7. 复制代码

    创建secret并确认

    1. kubectl apply -f secret-mysql.yml
    2. kubectl get secret |grep secret-mysql
    3. 复制代码

    Secret 的2种使用方式

    Secret结构与ConfigMap类似,均是键/值对的映射。Secret的使用方法也与ConfigMap相同。

    1. 通过环境变量的方式传递给 pod
    1. vim pod-mysql-secret.yml
    2. 复制代码
    1. apiVersion: v1
    2. kind: Pod
    3. metadata:
    4. name: pod-mysql-secret1
    5. spec:
    6. containers:
    7. - name: mysql-pod
    8. image: mysql:5.7
    9. env:
    10. - name: MYSQL_ROOT_PASSWORD
    11. valueFrom:
    12. secretKeyRef:
    13. name: secret-mysql # 对应创建的secret名字
    14. key: password
    15. 复制代码
    1. kubectl apply -f pod-mysql-secret.yml
    2. 复制代码
    1. 通过 volume 的方式挂载到 pod 内
    1. vim pod-mysql-secret2.yml
    2. 复制代码
    1. apiVersion: v1
    2. kind: Pod
    3. metadata:
    4. name: pod-mysql-secret2
    5. spec:
    6. containers:
    7. - name: busybox
    8. image: busybox
    9. args:
    10. - /bin/sh
    11. - -c
    12. - sleep 100000
    13. volumeMounts:
    14. - name: vol-secret # 定义挂载的卷,对应下面定义的卷名
    15. mountPath: "/opt/passwd" # 挂载目录(支持热更新),也可以使用subPath挂载文件(但不支持热更新)
    16. readOnly: true # 只读
    17. volumes:
    18. - name: vol-secret # 定义卷名
    19. secret: # 使用secret
    20. secretName: secret-mysql # 对应创建好的secret名
    21. 复制代码
    1. kubectl apply -f pod-mysql-secret2.yml
    2. 复制代码

    3. Volume

    Pod 本身具有生命周期,这就带了一系列的问题,第一,当一个容器损坏之后,kubelet 会重启这个容器,但是文件会丢失-这个容器会是一个全新的状态;第二,当很多容器在同一 Pod 中运行的时候,很多时候需要数据文件的共享。Docker 支持配置容器使用存储卷将数据持久存储于容器自身文件系统之外的存储空间之中,它们可以是节点文件系统或网络文件系统之上的存储空间。相应的,Kubernetes 也支持类似的存储卷功能,不过,其存储卷是与 Pod 资源绑定而非容器。

    Kubernetes 中的卷有明确的寿命 —— 与封装它的 Pod 相同。所以,卷的生命比 Pod 中的所有容器都长,当这个容器重启时数据仍然得以保存。当然,当 Pod 不再存在时,卷也将不复存在。也许更重要的是,Kubernetes 支持多种类型的卷,Pod 可以同时使用任意数量的卷。

    Kubernetes 支持非常丰富的存储卷类型,包括本地存储(节点)和网络存储系统中的诸多存储机制,还支持 ConfigMapSecret 这样的特殊存储资源。 通过命令kubectl explain pod.spec可以查看当前 kubernetes 版本支持的存储卷类型。常用类型如下:

    • 非持久性存储
    • emptyDir
    • hostPath
    • 网络连接性存储
    • SAN:iscsi
    • NFS:nfs、cfs
    • 分布式存储
    • glusterfs、cephfs、rbd
    • 云端存储
    • awsElasticBlockStore、azureDisk、gitRepo

    EmptyDir 存储卷

    emptyDir 存储卷是 Pod 对象生命周期中的一个临时目录,类似于 Docker 上的 “docker 挂载卷”,在 Pod 对象启动时即被创建,而在 Pod 对象被移除时会被一并删除(永久删除)。Pod 中的容器都可以读写这个目录,这个目录可以被挂载到各个容器相同或者不相同的路径下。注意:一个容器崩溃了不会导致数据的丢失,因为容器的崩溃并不移除 Pod

    emptyDir 的作用

    • 普通空间,基于磁盘的数据存储
    • 作为从崩溃中恢复的备份点
    • 存储那些需要长久保存的数据,例如 web 服务中的数据

    emptyDir 的示例

    这里定义了一个 Pod资源对象(vol-emptydir-pod),在其内部定义了两个容器,其中一个容器是辅助容器 sidecar,每隔10秒生成一行信息追加到 index.html 文件中;另一个是 nginx 容器,将存储卷挂载到站点家目录。然后访问 nginx 的 html 页面验证两个容器之间挂载的 emptyDir 实现共享。

    1. vim vol-emptydir.yaml
    2. 复制代码
    1. apiVersion: v1
    2. kind: Pod
    3. metadata:
    4. name: vol-emptydir-pod
    5. spec:
    6. volumes: #定义存储卷
    7. - name: html #定义存储卷的名称
    8. emptyDir: {} #定义存储卷的类型
    9. containers:
    10. - name: nginx
    11. image: nginx:1.12
    12. volumeMounts: #在容器中定义挂载存储卷的名和路径
    13. - name: html
    14. mountPath: /usr/share/nginx/html
    15. - name: sidecar
    16. image: alpine
    17. volumeMounts: #在容器中定义挂载存储卷的名和路径
    18. - name: html
    19. mountPath: /html
    20. command: ["/bin/sh", "-c"]
    21. args:
    22. - while true; do
    23. echo $(hostname) $(date) >> /html/index.html;
    24. sleep 10;
    25. done
    26. 复制代码
    1. kubectl apply -f vol-emptydir.yaml
    2. 复制代码

    HostPath 存储卷

    hostPath 类型的存储卷是指将工作节点上的某文件系统的目录或文件挂载于 Pod 中的一种存储卷,独立于 Pod 资源的生命周期,具有持久性。在 Pod 删除时,数据不会丢失。

    hostPath 存储卷的 type 类型

    type说明
    DirectoryOrCreate指定的路径不存在时自动创建其权限为0755的空目录,属主和属组为kubelet
    Directory必须存在的目录路径
    FileOrCreate指定的路径不存在时自动创建其权限为0644的空文件,属主和属组为kubelet
    File必须存在的文件路径
    Socket必须存在的Socket文件路径
    CharDevice必须存在的字符设备文件路径
    BlockDevice必须存在的块设备文件路径

    hostPath 的示例

    1. vim vol-hostpath.yaml
    2. 复制代码
    1. apiVersion: v1
    2. kind: Pod
    3. metadata:
    4. name: pod-vol-hostpath
    5. namespace: default
    6. spec:
    7. containers:
    8. - name: myapp
    9. image: nginx:1.17.1
    10. imagePullPolicy: IfNotPresent
    11. volumeMounts:
    12. - name: html
    13. mountPath: /usr/share/nginx/html
    14. volumes:
    15. - name: html
    16. hostPath:
    17. path: /data/pod/volume1
    18. type: DirectoryOrCreate
    19. 复制代码
    1. kubectl apply -f vol-hostpath.yaml
    2. 复制代码

    NFS 存储卷

    NFS 是 Network FileSystem 的缩写,顾名思义就是网络文件存储系统, 分为服务端(Server)和客户端(Client)。最早由 sun 公司开发,是类 unix 系统间实现磁盘共享的一种方法。 它允许网络中的计算机之间通过 TCP/IP 网络共享资源。通过 NFS,我们本地 NFS 的客户端应用可以透明地读写位于服务端 NFS 服务器上的文件,就像访问本地文件一样方便。简单的理解,NFS 就是可以透过网络,让不同的主机、不同的操作系统可以共享存储的服务。

    NFS 在文件传送或信息传送过程中依赖于 RPC(Remote Procedure Call) 协议,即远程过程调用,NFS 的各项功能都必须要向 RPC 来注册,如此一来 RPC 才能了解 NFS 这个服务的各项功能 Port、PID、NFS 在服务器所监听的 IP 等,而客户端才能够透过 RPC 的询问找到正确对应的端口,所以,NFS必须要有 RPC 存在时才能成功的提供服务,简单的理解二者关系:NFS是 一个文件存储系统,而 RPC是负责信息的传输。

    宿主机搭建 NFS

    (1) 通过 yum 安装

    1. yum -y install rpcbind nfs-utils
    2. 复制代码

    (2) 建立网上邻居共享目录

    1. mkdir /mnt/share
    2. 复制代码

    (3) 配置这个共享目录

    1. vim /etc/exports
    2. 复制代码

    写入下边的内容:

    1. /mnt/share 192.168.138.0/24(rw,no_root_squash,async,fsid=0)
    2. 复制代码

    (4) 使配置内容生效

    1. exportfs -r
    2. 复制代码

    (5) 启动 rpcbind、nfs 服务及开机自启动

    1. systemctl start rpcbind
    2. systemctl start nfs
    3. systemctl enable rpcbind
    4. systemctl enable nfs
    5. 复制代码

    4. PV 和 PVC

    前面提到 Kubernetes 提供那么多存储接口,但是首先 Kubernetes 的各个 Node 节点能管理这些存储,但是各种存储参数也需要专业的存储工程师才能了解,由此我们的 Kubernetes 管理变的更加复杂。由此 kubernetes 提出了 PV 和 PVC 的概念,这样开发人员和使用者就不需要关注后端存储是什么,使用什么参数等问题。

    PV

    PersistentVolume(PV)是集群中已由管理员配置的一段网络存储。集群中的资源就像一个节点是一个集群资源。PV 是诸如卷之类的卷插件,但是具有独立于使用 PV 的任何单个 Pod 的生命周期。该 API 对象捕获存储的实现细节,即 NFS,ISCSI或云提供商特定的存储系统。

    PVC

    PersistentVolumeClaim(PVC)是用户存储的请求。它类似于 Pod。Pod 消耗节点资源,PVC 消耗存储资源。Pod 可以请求特定级别的资源(CPU 和内存)。权限要求可以请求特定的大小和访问模式。

    虽然 PersistentVolumeClaims 允许用户使用抽象存储资源,但是常见的是,用户需要具有不同属性(如性能)的 PersistentVolumes ,用于不同的问题。集群管理员需要能够提供多种不同于 PersistentVolumes 的 PersistentVolumes ,而不仅仅是大小和访问模式,而不会使用户了解这些卷的实现细节。对于这些需求,存在 StorageClass 资源。

    StorageClass 为管理员提供了一种描述他们提供的存储的“类”的方法。不同的类可能映射到服务质量级别,或备份策略,或者由集群管理员确定的任意策略。Kubernetes 本身对于什么类别代表是不言而喻的。这个概念有时在其它存储系统中称为“配置文件”。

    生命周期

    PV 是集群中的资源。PVC 是对这些资源的请求,也是对资源的索赔检查。PV 和 PVC 之间的相互作用遵循这个生命周期:

    1. Provisioning —> Binding —> Using> Releasing —> Recycling
    2. 复制代码
    1. 供应准备(Provisioning)

    PV 有两种提供方式:静态或者动态

    • Static:集群管理员创建多个 PV 。它们携带可供集群用户使用的真实存储的详细信息。它们存在于 Kubernetes API 中,可用于消费。
    • Dynamic:当管理员创建的静态 PV 都不匹配用户的 PersistentVolumesClaim 时,集群可能会尝试为 PVC 动态配置卷。此配置基于 StorageClasses:PVC 必须请求一个类,并且管理员必须已经创建并配置该类才能进行动态配置。要求该类的声明有效地为自己禁用动态配置。
    1. 绑定(Binding)

    用户创建 PVC 并指定需要的资源和访问模式。在找到可用 PV 之前,PVC 会保持未绑定状态。

    1. 使用(Using)

    用户可在 Pod 中像 volume 一样使用 PVC。

    1. 释放(Releasing)

    用户删除 PVC 来回收存储资源,PV 将变成 “released” 状态。由于还保留着之前的数据,这些数据要根据不同的策略来处理,否则这些存储资源无法被其它 PVC 使用。

    1. 回收(Recycling)

    PV 可以设置三种回收策略:保留(Retain)、回收(Recycle)和删除(Delete)。

    PV 字段说明

    PersistentVolume Spec 主要支持以下几个通用字段,用于定义 PV 的容量、访问模式、和回收策略:

    字段说明
    capacity当前PV的容量;目前,capacity仅支持空间设定,将来应该还可以指定IOPS和throughput。
    accessModes访问模式;尽管在PV层看起来并无差异,但存储设备支持及启用的功能特性却可能不尽相同。例如NFS存储支持多客户端同时挂载及读写操作,但也可能是在共享时仅启用了只读操作,其他存储系统也存在类似的可配置特性。因此,PV底层的设备或许存在其特有的访问模式,用户使用时必须在其特性范围内设定其功能。
    - ReadWribeOnce:仅可被单个节点读写挂载;命令行中简写为RWO。
    - ReadOnlyMany:可被多个节点同时只读挂载;命令行中简写为ROX。
    - ReadWriteMany:可被多个节点同时读写挂载;命令行中简写为RWX。
    persistentVolumeReclaimPolicyPV空间被释放时的处理机制;可用类型仅为Retain(默认)、Recycle或Delete,具体说明如下。
    - Retain:保持不动,由管理员随后手动回收。
    - Recycle:空间回收,即删除存储卷目录下的所有文件(包括子目录和隐藏文件),目前仅NFS和hostPath支持此操作。
    - Delete:删除存储卷,仅部分云端存储系统支持,如AWS EBS、GCE PD、Azure Disk和Cinder。
    volumeMode卷模型,用于指定此卷可被用作文件系统还是裸格式的块设备;默认为Filesystem。
    storageClassName当前PV所属的StorageClass的名称;默认为空值,即不属于任何StorageClass。
    mountOptions挂载选项组成的列表,如ro、soft和hard等。

    PVC 字段说明

    PersistentVolumeClaim 是存储卷类型的资源,它通过申请占用某个 PersistentVolume 而创建,它与 PV 是一对一的关系,用户无须关系其底层实现细节。申请时,用户只需要指定目标空间的大小、访问模式、PV标签选择器和 StorageClass 等相关信息即可。PVC 的 Spec 字段的可嵌套字段具体如下:

    字段说明
    accessModes当前PVC的访问模式,其可用模式与PV相同
    resources当前PVC存储卷需要占用的资源量最小值;目前,PVC的资源限定仅指其空间大小
    selector绑定时对PV应用的标签选择器(matchLabels)或匹配条件表达式(matchEx-pressions),用于挑选要绑定的PV;如果同时指定了两种挑选机制,则必须同时满足两种选择机制的PV才能被选出
    storageClassName所依赖的存储卷的名称
    volumeMode卷模型,用于指定此卷可被用作于文件系统还是裸格式的块设备;默认为“Filesystem”
    volumeName用于直接指定要绑定的PV的卷名

    示例使用 PV 和 PVC

    准备了一台 NFS Server 创建了几个共享目录提供给 Kubernetes 作为 PV 使用。在创建 PV 的同时指定了不同的大小和不同的访问权限,然后在创建 PVC 时候指定了大小为 6Gi ,故满足条件的 PV 只有 pv003~pv005 ,这里通过标签选择器选择了 pv003 。Pod中的容器使用了 MySQL,并将 MySQL 的数据目录挂载到 PV 上。示例图如下:

    1. 准备 NFS 服务
    1. (1)创建存储卷对应的目录
    2. [root@storage ~]# mkdir /data/volumes/v{1..5} -p
    3. (2)修改nfs的配置文件
    4. [root@storage ~]# vim /etc/exports
    5. /data/volumes/v1 192.168.1.0/24(rw,no_root_squash)
    6. /data/volumes/v2 192.168.1.0/24(rw,no_root_squash)
    7. /data/volumes/v3 192.168.1.0/24(rw,no_root_squash)
    8. /data/volumes/v4 192.168.1.0/24(rw,no_root_squash)
    9. /data/volumes/v5 192.168.1.0/24(rw,no_root_squash)
    10. (3)查看nfs的配置
    11. [root@storage ~]# exportfs -arv
    12. exporting 192.168.1.0/24:/data/volumes/v5
    13. exporting 192.168.1.0/24:/data/volumes/v4
    14. exporting 192.168.1.0/24:/data/volumes/v3
    15. exporting 192.168.1.0/24:/data/volumes/v2
    16. exporting 192.168.1.0/24:/data/volumes/v1
    17. (4)使配置生效
    18. [root@storage ~]# showmount -e
    19. Export list for storage:
    20. /data/volumes/v5 192.168.1.0/24
    21. /data/volumes/v4 192.168.1.0/24
    22. /data/volumes/v3 192.168.1.0/24
    23. /data/volumes/v2 192.168.1.0/24
    24. /data/volumes/v1 192.168.1.0/24
    25. 复制代码
    1. 创建 PV;这里创建 5 个 PV ,存储大小各不相等,是否可读也不相同
    1. vim pv-nfs-demo.yaml
    2. 复制代码
    1. apiVersion: v1
    2. kind: PersistentVolume
    3. metadata:
    4. name: pv-nfs-001
    5. labels:
    6. name: pv001
    7. spec:
    8. nfs:
    9. path: /data/volumes/v1
    10. server: 192.168.1.34
    11. readOnly: false
    12. accessModes: ["ReadWriteOnce","ReadWriteMany"]
    13. capacity:
    14. storage: 2Gi
    15. persistentVolumeReclaimPolicy: Retain
    16. ---
    17. apiVersion: v1
    18. kind: PersistentVolume
    19. metadata:
    20. name: pv-nfs-002
    21. labels:
    22. name: pv002
    23. spec:
    24. nfs:
    25. path: /data/volumes/v2
    26. server: 192.168.1.34
    27. readOnly: false
    28. accessModes: ["ReadWriteOnce"]
    29. capacity:
    30. storage: 5Gi
    31. persistentVolumeReclaimPolicy: Retain
    32. ---
    33. apiVersion: v1
    34. kind: PersistentVolume
    35. metadata:
    36. name: pv-nfs-003
    37. labels:
    38. name: pv003
    39. spec:
    40. nfs:
    41. path: /data/volumes/v3
    42. server: 192.168.1.34
    43. readOnly: false
    44. accessModes: ["ReadWriteOnce","ReadWriteMany"]
    45. capacity:
    46. storage: 10Gi
    47. persistentVolumeReclaimPolicy: Retain
    48. ---
    49. apiVersion: v1
    50. kind: PersistentVolume
    51. metadata:
    52. name: pv-nfs-004
    53. labels:
    54. name: pv004
    55. spec:
    56. nfs:
    57. path: /data/volumes/v4
    58. server: 192.168.1.34
    59. readOnly: false
    60. accessModes: ["ReadWriteOnce","ReadWriteMany"]
    61. capacity:
    62. storage: 15Gi
    63. persistentVolumeReclaimPolicy: Retain
    64. ---
    65. apiVersion: v1
    66. kind: PersistentVolume
    67. metadata:
    68. name: pv-nfs-005
    69. labels:
    70. name: pv005
    71. spec:
    72. nfs:
    73. path: /data/volumes/v5
    74. server: 192.168.1.34
    75. readOnly: false
    76. accessModes: ["ReadWriteOnce","ReadWriteMany"]
    77. capacity:
    78. storage: 20Gi
    79. persistentVolumeReclaimPolicy: Retain
    80. 复制代码
    1. kubectl apply -f pv-nfs-demo.yaml
    2. 复制代码
    1. 创建 PVC ,绑定 PV
    1. vim vol-nfs-pvc.yaml
    2. 复制代码
    1. #创建PVC
    2. apiVersion: v1
    3. kind: PersistentVolumeClaim
    4. metadata:
    5. name: nfs-pvc
    6. spec:
    7. accessModes: ["ReadWriteMany"]
    8. resources:
    9. requests:
    10. storage: 6Gi #指定PVC大小为6Gi
    11. selector: #这里通过标签选择器指定了所使用的pv卷为key为name,value为pv003的pv资源
    12. matchLabels:
    13. name: pv003
    14. ---
    15. #创建Pod
    16. apiVersion: v1
    17. kind: Pod
    18. metadata:
    19. name: pvc-mysql
    20. labels:
    21. app: mysql
    22. spec:
    23. containers:
    24. - name: pvc-mysql-pod
    25. image: mysql:latest
    26. imagePullPolicy: IfNotPresent
    27. ports:
    28. - name: mysqlport
    29. containerPort: 3306
    30. volumeMounts:
    31. - name: mysqldata
    32. mountPath: /var/lib/mysql
    33. env:
    34. - name: MYSQL_ROOT_PASSWORD
    35. value: "mysql"
    36. volumes:
    37. - name: mysqldata
    38. persistentVolumeClaim: #通过该字段定义使用pvc
    39. claimName: nfs-pvc #指定pvc的名称
    40. readOnly: false #关闭只读

  • 相关阅读:
    Can’t create body tracker for Kinect4AzureInterface0!
    2022年9月7日-天正软件CAD二次开发-C++windows桌面开发岗
    你知道怎么改善Java代码吗?
    偶数科技入选 IDC 中国分布式数据库报告,获 Innovator 殊荣
    jdk8新特性
    Anaconda安装配置
    oracle创建数据库以及用户,并导入dmp格式数据
    不可不知的USB2.0/USB3.0/HDMI静电防护方案
    Centos7 搭建 GitLab服务 下载-安装-配置-卸载 完整版
    【Command模式】C++设计模式——命令模式
  • 原文地址:https://blog.csdn.net/BASK2312/article/details/127900766