• Kubernetes(k8s)PV、PVC


    目录

    一、PV和PVC

    1、PV 概念

    2、PVC概念

    3、PV 与 PVC

    3.1、PV 与 PVC 之间的关系

    3.2、PV和PVC的生命周期

    3.3、一个PV从创建到销毁的具体流程

    3.4、三种回收策略

    3.5、查看pv、pvc的定义方式、规格

    4、PV的提供方式

    二、基于NFS创建静态 PV、PVC

    2.1、NFS服务部署

     2.2、创建PV

    2.3、定义PVC

    2.4、多路读写测试

    三、基于动态 storageclass 创建 PV、PVC

    3.1、storageclass 定义

     3.2、storageclass 用途

    3.3、基于NFS动态创建PV、PVC

    3.4、测试


    容器磁盘上的文件的生命周期是短暂的,这就使得在容器中运行重要应用时会出现一些问题。首先,当容器崩溃时,kubelet 会重启它,但是容器中的文件将丢失——容器以干净的状态(镜像最初的状态)重新启动。其次,在Pod中同时运行多个容器时,这些容器之间通常需要共享文件。Kubernetes 中的Volume抽象就很好的解决了这些问题。Pod中的容器通过Pause容器共享Volume。

    一、PV和PVC

    1、PV 概念

    1. PersistentVolume(PV) 是集群中由管理员配置的一段网络存储。集群中的资源就像一个节点是一个集群资源,可以从远程的NFS 或分布式对象存储系统中创建得来(PV 存储空间大小、访问方式)。
    2. PV 是诸如卷之类的卷插件,但是只有独立于使用 PV 的任何单个 pod 的生命周期。
    3. 该 API 对象捕获存储的实现细节,即 NFS,ISCSI 或云提供商特定的存储系统。
    4. PV 就是从存储设备中的空间创建出一个存储资源。

    2、PVC概念

    1. PersistentVolumeClaim(PVC) 是用户存储的请求。PVC 的使用逻辑:在 pod 中定义一个存储卷(该存储卷类型为PVC),定义的时候直按指定大小,PVC 必须与对应的 PV 建立关系,PVC 会根据定义去 PV 申请,而 PV是由存储空间创建出来的。PV 和 PVC 是 kubernetes 抽象出来的一种存储资源。
    2. 虽然 PersistentVolumeClaims 允许用户使用抽象存储资源,但是常见的需求是,用户需要根据不同的需求去创建PV,用于不同的场景。而此时需要集群管理员提供不同需求的 PV,而不仅仅是 PV 的大小和访问模式,但又不需要用户了解这些卷的实现细节。
    3. 对于这样的需求,此时可以采用 storageclass 资源。
       
    1. pv : 相当于磁盘分区
    2. pvc: 相当于磁盘请求

    3、PV 与 PVC

    3.1、PV 与 PVC 之间的关系

    PV 是集群中的资源,PVC 是对这些资源的请求,也是对资源的索引检查。

    3.2、PV和PVC的生命周期

    PV 和 PVC 之间的相互作用遵循这个生命周期:
    Provisioning(配置) —> Binding(绑定) —> Using(使用) —> Releasing(释放) —> Recycling(回收)

    Provisioning,即 PV 的创建,可以直接创建 PV(静态方式),也可以使用 StorageClass 动态创建

    Binding,将 PV 分配给 PVC

    Using,Pod 通过 PVC 使用该Volume,并可以通过准入控制StorageProtection(1.9及以前版本为PVCProtection) 阻止删除正在使用的PVC

    Releasing,Pod 释放 Volume 并删除 PVC

    Recycling,回收 PV,可以保留 PV 以便下次使用,也可以直接从云存储中删除

    根据这 5 个阶段,PV 的状态有以下 4 种:

    • Available(可用):表示可用状态,还未被任何 PVC 绑定

    • Bound(已绑定):表示 PV 已经绑定到 PVC

    • Released(已释放):表示 PVC 被删掉,但是资源尚未被集群回收

    • Failed(失败):表示该 PV 的自动回收失败

    3.3、一个PV从创建到销毁的具体流程

    1. 一个PV创建完后状态会变成Available,等待被PVC绑定。
    2. 一旦被PVC邦定,PV的状态会变成Bound,就可以被定义了相应PVC的Pod使用。
    3. Pod使用完后会释放PV,PV的状态变成Released。
    4. 变成Released的PV会根据定义的回收策略做相应的回收工作。

    3.4、三种回收策略

    有三种回收策略,Retain、Delete和Recycle。

    1. Retain就是保留现场,K8S集群什么也不做,等待用户手动去处理PV里的数据,处理完后,再手动删除PV。
    2. Delete策略,K8S会自动删除该PV及里面的数据。
    3. Recycle方式,K8S会将PV里的数据删除,然后把PV的状态变成Available,又可以被新的PVC绑定使用。

    3.5、查看pv、pvc的定义方式、规格

    查看pv的定义方式
    kubectl explain pv

    1. FIELDS:
    2. apiVersion: v1
    3. kind: PersistentVolume
    4. metadata: #由于 PV 是集群级别的资源,即 PV 可以跨 namespace 使用,所以 PV 的 metadata 中不用配置 namespace
    5. name:
    6. spec

    查看pv定义的规格
    kubectl explain pv.spec

    1. spec:
    2. nfs:(定义存储类型)
    3. path:(定义挂载卷路径)
    4. server:(定义服务器名称)
    5. accessModes:(定义访问模型,有以下三种访问模型,以列表的方式存在,也就是说可以定义多个访问模式)
    6. - ReadWriteOnce #(RWO)存储可读可写,但只支持被单个 Pod 挂载
    7. - ReadOnlyMany #(ROX)存储可以以只读的方式被多个 Pod 挂载
    8. - ReadWriteMany #(RWX)存储可以以读写的方式被多个 Pod 共享
    9. #nfs 支持全部三种;iSCSI 不支持 ReadWriteMany(iSCSI 就是在 IP 网络上运行 SCSI 协议的一种网络存储技术);HostPath 不支持 ReadOnlyMany 和 ReadWriteMany。
    10. capacity:(定义存储能力,一般用于设置存储空间)
    11. storage: 2Gi (指定大小)
    12. storageClassName: (自定义存储类名称,此配置用于绑定具有相同类别的PVC和PV)
    13. persistentVolumeReclaimPolicy: Retain #回收策略(Retain/Delete/Recycle)
    14. #Retain(保留):当删除与之绑定的PVC时候,这个PV被标记为released(PVC与PV解绑但还没有执行回收策略)且之前的数据依然保存在该PV上,但是该PV不可用,需要手动来处理这些数据并删除该PV。
    15. #Delete(删除):删除与PV相连的后端存储资源(只有 AWS EBS, GCE PD, Azure Disk 和 Cinder 支持)
    16. #Recycle(回收):删除数据,效果相当于执行了 rm -rf /thevolume/* (只有 NFS 和 HostPath 支持)

    查看PVC的定义方式
    kubectl explain pvc

    1. KIND: PersistentVolumeClaim
    2. VERSION: v1
    3. FIELDS:
    4. apiVersion <string>
    5. kind <string>
    6. metadata <Object>
    7. spec <Object>

    PV和PVC中的spec关键字段要匹配,比如存储(storage)大小、访问模式(accessModes)、存储类名称(storageClassName)

    1. kubectl explain pvc.spec
    2. spec:
    3. accessModes: (定义访问模式,必须是PV的访问模式的子集)
    4. resources:
    5. requests:
    6. storage: (定义申请资源的大小)
    7. storageClassName: (定义存储类名称,此配置用于绑定具有相同类别的PVC和PV)

    4、PV的提供方式

    这里有两种 PV 的提供方式:静态或者动态

    静态 —》直接固定存储空间

    • 集群管理员创建一些 PV。它们携带可供集群用户使用的真实存储的详细信息。它们存在于 Kubernetes API 中,可用于消费。

    动态 —》通过存储类进行动态创建存储空间

    • 当管理员创建的静态 PV 都不匹配用户的 PVC 时,集群可能会尝试动态地为 PVC 配置卷。此配置基于
      StorageClasses:PVC必须请求存储类,并且管理员必须已创建并配置该类才能进行动态配置。要求该类的声明有效地为自己禁用动态配置。

    二、基于NFS创建静态 PV、PVC

     环境准备

    nfs-serverk8s-master(192.168.48.22)
    nfs-clientk8s-node1(192.168.58.19),k8s-node2(192.168.58.13)

    2.1、NFS服务部署

    • 所有节点安装nfs
    yum install -y nfs-utils rpcbind
    

    以下操作均在NFS服务器上操作

    • 创建共享目录,并授权
    1. mkdir /nfsdata1
    2. mkdir /nfsdata2
    3. mkdir /nfsdata3
    4. chmod 777 /nfsdata1
    5. chmod 777 /nfsdata2
    6. chmod 777 /nfsdata3
    • 配置权限

    编辑 exports 文件

    1. vim /etc/exports
    2. /nfsdata1 192.168.58.0/24(rw,no_root_squash,sync)
    3. /nfsdata2 192.168.58.0/24(rw,no_root_squash,sync)
    4. /nfsdata3 192.168.58.0/24(rw,no_root_squash,sync)
    5. exportfs -rv

     

     所有服务器启动NFS服务

    1. #手动加载 NFS 共享服务时,应该先启动 rpcbind,再启动 nfs
    2. systemctl start rpcbind && systemctl enable rpcbind
    3. systemctl start nfs && systemctl enable nfs
    4. #查看 rpcbind 端口是否开启,rpcbind 服务默认使用 tcp 端口 111
    5. netstat -anpt | grep rpcbind

    查看本机发布的共享目录

    showmount -e
    

     

    • 创建访问页面供测试用
    1. echo '11111' > /nfsdata1/index.html
    2. echo '22222' > /nfsdata2/index.html
    3. echo '33333' > /nfsdata3/index.html

     2.2、创建PV

    • 创建PV
      定义 3 个 PV,并且定义挂载的路径以及访问模式,还有 PV 划分的大小。
      vim pv-demo.yaml
      注意自己的共享目录和主机IP
    1. apiVersion: v1
    2. kind: PersistentVolume
    3. metadata:
    4. name: pv001
    5. labels:
    6. name: pv001
    7. spec:
    8. nfs:
    9. path: /nfsdata1
    10. server: 192.168.58.22
    11. accessModes: ["ReadWriteMany","ReadWriteOnce"]
    12. capacity:
    13. storage: 1Gi
    14. ---
    15. apiVersion: v1
    16. kind: PersistentVolume
    17. metadata:
    18. name: pv002
    19. labels:
    20. name: pv002
    21. spec:
    22. nfs:
    23. path: /nfsdata2
    24. server: 192.168.58.22
    25. accessModes: ["ReadWriteOnce"]
    26. capacity:
    27. storage: 2Gi
    28. ---
    29. apiVersion: v1
    30. kind: PersistentVolume
    31. metadata:
    32. name: pv003
    33. labels:
    34. name: pv003
    35. spec:
    36. nfs:
    37. path: /nfsdata3
    38. server: 192.168.58.22
    39. accessModes: ["ReadWriteMany","ReadWriteOnce"]
    40. capacity:
    41. storage: 2Gi

    创建并查看

    1. kubectl apply -f pv-demo.yaml
    2. kubectl get pv

    2.3、定义PVC

    •  定义PVC

    这里定义了 PVC 的访问模式为多路读写,该访问模式必须在前面 PV 定义的访问模式之中。定义 PVC 申请的大小为 2Gi,此时 PVC 会自动去匹配多路读写且大小为 2Gi 的 PV ,匹配成功获取 PVC 的状态即为 Bound。

    vim pvc-demo.yaml

    1. apiVersion: v1
    2. kind: PersistentVolumeClaim
    3. metadata:
    4. name: mypvc
    5. spec:
    6. accessModes: ["ReadWriteMany"]
    7. resources:
    8. requests:
    9. storage: 2Gi
    10. ---
    11. apiVersion: v1
    12. kind: Pod
    13. metadata:
    14. name: pv-pvc
    15. spec:
    16. containers:
    17. - name: myapp
    18. image: nginx
    19. volumeMounts:
    20. - name: html
    21. mountPath: /usr/share/nginx/html
    22. volumes:
    23. - name: html
    24. persistentVolumeClaim:
    25. claimName: mypvc

     发布并查看

    1. kubectl apply -f pvc-demo.yaml
    2. kubectl get pvc

    可以看到 pv003 设定的 pvc 请求存储卷是 2Gi 并且多路可读可写。

     访问 pv003

    1. kubectl get pod -o wide
    2. curl 10.150.2.56
    3. # curl 访问,显示的内容与共享的目录内一致

    2.4、多路读写测试

    1. 1. 我们通过相同的存储卷,只修改 pod 的名称
    2. cp pvc-demo.yaml 1.yaml
    3. cp pvc-demo.yaml 2.yaml
    4. 2. 修改 pod 的名称后,apply 执行创建
    5. kubectl apply -f 1.yaml
    6. kubectl apply -f 2.yaml
    7. 3. 查看 ip
    8. kubectl get pod -o wide
    9. 4. curl 进行测试,查看是否共享存储卷,多路读写

    三、基于动态 storageclass 创建 PV、PVC

    3.1、storageclass 定义

    前面的例子中,我们提前创建了 PV,然后通过 PVC 申请 PV 并在 Pod 中使用,这种方式叫做静态供给(Static Provision)。
    与之对应的是动态供给(Dynamical Provision),即如果没有满足 PVC 条件的 PV,会动态创建 PV。相比静态供给,动态供给有明显的优势:不需要提前创建 PV,减少了管理员的工作量,效率高。

     3.2、storageclass 用途

    在 PV 和 PVC 使用过程中存在的问题,在 PVC 申请存储空间时,未必就有现成的 PV 符合 PVC 申请的需求,上面 nfs 在做 PVC 可以成功的因素是因为我们做了指定的需求处理。当 PVC 申请的存储空间不一定有满足 PVC 要求的 PV 时,Kubernetes 为管理员提供了描述存储 “class(类)” 的方法(StorageClass)。
    举个例子,在存储系统中划分一个 1TB 的存储空间提供给 Kubernetes 使用,当用户需要一个 10G 的 PVC 时,会立即通过 restful 发送请求,从而让存储空间创建一个 10G 的 image,之后在我们的集群中定义成 10G 的 PV 供给给当前的 PVC 作为挂载使用。在此之前我们的存储系统必须支持 restful 接口,比如 ceph 分布式存储,而 glusterfs 则需要借助第三方接口完成这样的请求。

    3.3、基于NFS动态创建PV、PVC

    Kubernetes支持动态供给的存储插件:https://kubernetes.io/docs/concepts/storage/storage-classes/

    因为NFS不支持动态存储,所以我们需要借用这个存储插件。

    nfs动态相关部署可以参考:​​​​​​https://github.com/kubernetes-incubator/external-storage/tree/master/nfs-client/deploy

    • 定义一个storageclass
    1. apiVersion: storage.k8s.io/v1
    2. kind: StorageClass
    3. metadata:
    4. name: nfs-storage
    5. annotations:
    6. storageclass.kubernetes.io/is-default-class: "true"
    7. provisioner: k8s-sigs.io/nfs-subdir-external-provisioner
    8. parameters:
    9. archiveOnDelete: "true" ## 删除pv的时候,pv的内容是否要备份

    授权
    因为storage自动创建pv需要经过kube-apiserver,所以要进行授权
    创建1个sa(serviceaccount)
    创建1个clusterrole,并赋予应该具有的权限,比如对于一些基本api资源的增删改查;
    创建1个clusterrolebinding,将sa和clusterrole绑定到一起;这样sa就有权限了;
    然后pod中再使用这个sa,那么pod再创建的时候,会用到sa,sa具有创建pv的权限,便可以自动创建pv;

    1. apiVersion: v1
    2. kind: ServiceAccount
    3. metadata:
    4. name: nfs-client-provisioner
    5. namespace: default
    6. ---
    7. kind: ClusterRole
    8. apiVersion: rbac.authorization.k8s.io/v1
    9. metadata:
    10. name: nfs-client-provisioner-runner
    11. rules:
    12. - apiGroups: [""]
    13. resources: ["nodes"]
    14. verbs: ["get", "list", "watch"]
    15. - apiGroups: [""]
    16. resources: ["persistentvolumes"]
    17. verbs: ["get", "list", "watch", "create", "delete"]
    18. - apiGroups: [""]
    19. resources: ["persistentvolumeclaims"]
    20. verbs: ["get", "list", "watch", "update"]
    21. - apiGroups: ["storage.k8s.io"]
    22. resources: ["storageclasses"]
    23. verbs: ["get", "list", "watch"]
    24. - apiGroups: [""]
    25. resources: ["events"]
    26. verbs: ["create", "update", "patch"]
    27. ---
    28. kind: ClusterRoleBinding
    29. apiVersion: rbac.authorization.k8s.io/v1
    30. metadata:
    31. name: run-nfs-client-provisioner
    32. subjects:
    33. - kind: ServiceAccount
    34. name: nfs-client-provisioner
    35. namespace: default
    36. roleRef:
    37. kind: ClusterRole
    38. name: nfs-client-provisioner-runner
    39. apiGroup: rbac.authorization.k8s.io
    40. ---
    41. kind: Role
    42. apiVersion: rbac.authorization.k8s.io/v1
    43. metadata:
    44. name: leader-locking-nfs-client-provisioner
    45. namespace: default
    46. rules:
    47. - apiGroups: [""]
    48. resources: ["endpoints"]
    49. verbs: ["get", "list", "watch", "create", "update", "patch"]
    50. ---
    51. kind: RoleBinding
    52. apiVersion: rbac.authorization.k8s.io/v1
    53. metadata:
    54. name: leader-locking-nfs-client-provisioner
    55. namespace: default
    56. subjects:
    57. - kind: ServiceAccount
    58. name: nfs-client-provisioner
    59. namespace: default
    60. roleRef:
    61. kind: Role
    62. name: leader-locking-nfs-client-provisioner
    63. apiGroup: rbac.authorization.k8s.io

    注意:如果名称空间不是default,请自行修改

    • 创建一个
    1. apiVersion: apps/v1
    2. kind: Deployment
    3. metadata:
    4. name: nfs-client-provisioner
    5. labels:
    6. app: nfs-client-provisioner
    7. # replace with namespace where provisioner is deployed
    8. namespace: default
    9. spec:
    10. replicas: 1
    11. strategy:
    12. type: Recreate
    13. selector:
    14. matchLabels:
    15. app: nfs-client-provisioner
    16. template:
    17. metadata:
    18. labels:
    19. app: nfs-client-provisioner
    20. spec:
    21. serviceAccountName: nfs-client-provisioner
    22. containers:
    23. - name: nfs-client-provisioner
    24. # resources:
    25. # limits:
    26. # cpu: 10m
    27. # requests:
    28. # cpu: 10m
    29. volumeMounts:
    30. - name: nfs-client-root
    31. mountPath: /persistentvolumes
    32. env:
    33. - name: PROVISIONER_NAME
    34. value: k8s-sigs.io/nfs-subdir-external-provisioner
    35. - name: NFS_SERVER
    36. value: 192.168.58.22
    37. - name: NFS_PATH
    38. value: /opt/data
    39. volumes:
    40. - name: nfs-client-root
    41. nfs:
    42. server: 192.168.58.22
    43. path: /opt/data
    1. strategy:
    2. type: Recreate Recreate:设置spec.strategy.type=Recreate,该策略下将杀掉正在运行的Pod,然后创建新的。
    3. RollingUpdate:设置spec.strategy.type=RollingUpdate,滚动更新,即逐渐减少旧Pod的同时逐渐增加新Pod
    4. 其中默认的RollingUpdate滚动更新策略的“边删除边更新”保证了在更新期间的服务可用性,在使用这个策略时,有两个可定义参数:
    5. spec.strategy.RollingUpdate.maxUnavailable:更新过程中Pod数量可以低于Pod期望副本的数量或百分比(默认25%)
    6. spec.strategy.RollingUpdate.maxSurge:更新过程中Pod数量可以超过Pod期望副本的数量或百分比(默认25%)
    • 部署
    1. #我这儿将上面的所有文件都放在了一个配置文件中,如果是分开的文件,请一个个创建
    2. kubectl apply -f nfs.yaml

    查看

    1. #查看storageclass
    2. kubectl get sc
    3. #查看sa
    4. kubctl get sa
    5. #查看deploy控制器
    6. kubctl get deploy
    7. #查看pod
    8. kubctl get pod

    3.4、测试

    部署nginx服务,测试自动创建pv

    1. apiVersion: apps/v1
    2. kind: StatefulSet
    3. metadata:
    4. name: web
    5. spec:
    6. serviceName: "nginx"
    7. replicas: 2
    8. selector:
    9. matchLabels:
    10. app: nginx
    11. template:
    12. metadata:
    13. labels:
    14. app: nginx
    15. spec:
    16. containers:
    17. - name: nginx
    18. image: nginx
    19. ports:
    20. - containerPort: 80
    21. name: web
    22. volumeMounts:
    23. - name: www
    24. mountPath: /usr/share/nginx/html
    25. volumeClaimTemplates:
    26. - metadata:
    27. name: www
    28. spec:
    29. accessModes: [ "ReadWriteOnce" ]
    30. storageClassName: "nfs-storage"
    31. resources:
    32. requests:
    33. storage: 1Gi

     发布查看

     

    kubectl get pvc,pv
    

    我们可以看到,我们在没有创建pv的时候,只是创建了一个pvc,他就会配置要求自动创建一个符合要求的pv

    进入共享目录,创建一个文件

     删除web-0,检查文件是否存在

     在有状态服务中,数据至关重要,通过测试,我们可以发现,虽然pod被删除重建,但是重建后的pod内的文件依然存在,保证了数据的安全性

  • 相关阅读:
    “箭在弦上”的边缘计算,更需要冷静和智慧
    学习笔记(9)JavaScript元素、节点
    MCAL知识点(二十七):TC275如何通过GPT12实现ABZ解码
    实现统计本周每天的数量
    leetcode93. 复原 IP 地址
    CANoe-vTESTstudio之Test Diagram编辑器(功能介绍)
    Matlab/C++源码实现RGB通道与HSV通道的转换(效果对比Halcon)
    Visual Studio Code的安装和使用
    致敬最美逆行者网页设计作品 大学生抗疫感动专题网页设计作业模板 疫情感动人物静态HTML网页模板下载
    基于BP神经网络的轨迹跟踪研究(Matlab代码实现)
  • 原文地址:https://blog.csdn.net/weixin_56270746/article/details/126277000