• k8s 1.22.3使用持久化卷之存储类StorageClass+NFS pv动态供应


    一、环境准备

    CentOS Linux release 7.7.1908 (Core) 3.10.0-1062.el7.x86_64

    kubeadm-1.22.3-0.x86_64

    kubelet-1.22.3-0.x86_64

    kubectl-1.22.3-0.x86_64

    kubernetes-cni-0.8.7-0.x86_64

    主机名IPVIP
    k8s-master01192.168.30.106192.168.30.115
    k8s-master02192.168.30.107
    k8s-master03192.168.30.108
    k8s-node01192.168.30.109
    k8s-node02192.168.30.110
    k8s-nfs192.168.30.114

    二、什么是StorageClass

    StatefulSet是为了解决有状态服务的问题(对应Deployments和ReplicaSets是为无状态服务而设计),其应用场景包括:

    稳定的持久化存储,即Pod重新调度后还是能访问到相同的持久化数据,基于PVC来实现

    稳定的网络标志,即Pod重新调度后其PodName和HostName不变,基于Headless Service(即没有Cluster IP的Service)来实现

    有序部署,有序扩展,即Pod是有顺序的,在部署或者扩展的时候要依据定义的顺序依次依次进行(即从0到N-1,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态),基于init containers来实现

    有序收缩,有序删除(即从N-1到0)

    从上面的应用场景可以发现,StatefulSet由以下几个部分组成:

    用于定义网络标志(DNS domain)的Headless Service

    用于创建PersistentVolumes的volumeClaimTemplates

    定义具体应用的StatefulSet

    StatefulSet中每个Pod的DNS格式为statefulSetName-{0..N-1}.serviceName.namespace.svc.cluster.local,其中

    serviceName为Headless Service的名字

    0..N-1为Pod所在的序号,从0开始到N-1

    statefulSetName为StatefulSet的名字

    namespace为服务所在的namespace,Headless Servic和StatefulSet必须在相同的namespace

    .cluster.local为Cluster Domain

    使用 StatefulSet

    StatefulSet 适用于有以下某个或多个需求的应用:

    稳定,唯一的网络标志。

    稳定,持久化存储。

    有序,优雅地部署和 scale。

    有序,优雅地删除和终止。

    有序,自动的滚动升级。

    在上文中,稳定是 Pod (重新)调度中持久性的代名词。 如果应用程序不需要任何稳定的标识符、有序部署、删除和 scale,则应该使用提供一组无状态副本的 controller 来部署应用程序,例如 Deployment 或 ReplicaSet 可能更适合您的无状态需求。

    三、为什么需要StorageClass

    在一个大规模的Kubernetes集群里,可能有成千上万个PVC,这就意味着运维人员必须实现创建出这个多个PV,此外,随着项目的需要,会有新的PVC不断被提交,那么运维人员就需要不断的添加新的,满足要求的PV,否则新的Pod就会因为PVC绑定不到PV而导致创建失败.而且通过 PVC 请求到一定的存储空间也很有可能不足以满足应用对于存储设备的各种需求,而且不同的应用程序对于存储性能的要求可能也不尽相同,比如读写速度、并发性能等,为了解决这一问题,Kubernetes 又为我们引入了一个新的资源对象:StorageClass,通过 StorageClass 的定义,管理员可以将存储资源定义为某种类型的资源,比如快速存储、慢速存储等,用户根据 StorageClass 的描述就可以非常直观的知道各种存储资源的具体特性了,这样就可以根据应用的特性去申请合适的存储资源了

    四、StorageClass部署流程

    要使用 StorageClass,我们就得安装对应的自动配置程序,比如我们这里存储后端使用的是 nfs,那么我们就需要使用到一个 nfs-client 的自动配置程序,我们也叫它 Provisioner,这个程序使用我们已经配置好的 nfs 服务器,来自动创建持久卷,也就是自动帮我们创建 PV。

    搭建StorageClass+NFS,大致有以下几个步骤:

    1.创建一个可用的NFS Serve

    2.创建Service Account.这是用来管控NFS provisioner在k8s集群中运行的权限

    3.创建StorageClass.负责建立PVC并调用NFS provisioner进行预定的工作,并让PV与PVC建立管理

    4.创建NFS provisioner.有两个功能,一个是在NFS共享目录下创建挂载点(volume),另一个则是建了PV并将PV与NFS的挂载点建立关联

    五、创建StorageClass

    1、创建NFS server

    这里就不作说明,可参考我开头提供的文章

    1. IP: 192.168.30.114
    2. exportfs
    3. /data/volumes 192.168.30.0/24

    2、配置account及相关权限

    vim nfs-rbac.yaml

    1. apiVersion: v1
    2. kind: ServiceAccount
    3. metadata:
    4. name: nfs-client-provisioner
    5. # replace with namespace where provisioner is deployed
    6. namespace: default #根据实际环境设定namespace,下面类同
    7. ---
    8. kind: ClusterRole
    9. apiVersion: rbac.authorization.k8s.io/v1
    10. metadata:
    11. name: nfs-client-provisioner-runner
    12. rules:
    13. - apiGroups: [""]
    14. resources: ["persistentvolumes"]
    15. verbs: ["get", "list", "watch", "create", "delete"]
    16. - apiGroups: [""]
    17. resources: ["persistentvolumeclaims"]
    18. verbs: ["get", "list", "watch", "update"]
    19. - apiGroups: ["storage.k8s.io"]
    20. resources: ["storageclasses"]
    21. verbs: ["get", "list", "watch"]
    22. - apiGroups: [""]
    23. resources: ["events"]
    24. verbs: ["create", "update", "patch"]
    25. ---
    26. kind: ClusterRoleBinding
    27. apiVersion: rbac.authorization.k8s.io/v1
    28. metadata:
    29. name: run-nfs-client-provisioner
    30. subjects:
    31. - kind: ServiceAccount
    32. name: nfs-client-provisioner
    33. # replace with namespace where provisioner is deployed
    34. namespace: default
    35. roleRef:
    36. kind: ClusterRole
    37. name: nfs-client-provisioner-runner
    38. apiGroup: rbac.authorization.k8s.io
    39. ---
    40. kind: Role
    41. apiVersion: rbac.authorization.k8s.io/v1
    42. metadata:
    43. name: leader-locking-nfs-client-provisioner
    44. # replace with namespace where provisioner is deployed
    45. namespace: default
    46. rules:
    47. - apiGroups: [""]
    48. resources: ["endpoints"]
    49. verbs: ["get", "list", "watch", "create", "update", "patch"]
    50. ---
    51. kind: RoleBinding
    52. apiVersion: rbac.authorization.k8s.io/v1
    53. metadata:
    54. name: leader-locking-nfs-client-provisioner
    55. subjects:
    56. - kind: ServiceAccount
    57. name: nfs-client-provisioner
    58. # replace with namespace where provisioner is deployed
    59. namespace: default
    60. roleRef:
    61. kind: Role
    62. name: leader-locking-nfs-client-provisioner
    63. apiGroup: rbac.authorization.k8s.io

    kubectl apply -f nfs-rbac.yaml

    3、创建NFS资源的StroageClass

    vim nfs-storageClass.yaml

    1. apiVersion: storage.k8s.io/v1
    2. kind: StorageClass
    3. metadata:
    4. name: managed-nfs-storage
    5. provisioner: test-nfs-storage #这里的名称要和provisioner配置文件中的环境变量PROVISIONER_NAME保持一致
    6. parameters:
    7. # archiveOnDelete: "false"
    8. archiveOnDelete: "true"
    9. reclaimPolicy: Retain

    kubectl apply -f nfs-storageClass.yaml

    4、创建NFS provisioner

    vim nfs-provisioner.yaml

    1. apiVersion: apps/v1
    2. kind: Deployment
    3. metadata:
    4. name: nfs-client-provisioner
    5. labels:
    6. app: nfs-client-provisioner
    7. # replace with namespace where provisioner is deployed
    8. namespace: default #与RBAC文件中的namespace保持一致
    9. spec:
    10. replicas: 1
    11. selector:
    12. matchLabels:
    13. app: nfs-client-provisioner
    14. strategy:
    15. type: Recreate
    16. selector:
    17. matchLabels:
    18. app: nfs-client-provisioner
    19. template:
    20. metadata:
    21. labels:
    22. app: nfs-client-provisioner
    23. spec:
    24. serviceAccountName: nfs-client-provisioner
    25. containers:
    26. - name: nfs-client-provisioner
    27. #image: quay.io/external_storage/nfs-client-provisioner:latest
    28. #这里特别注意,在k8s-1.20以后版本中使用上面提供的包,并不好用,这里我折腾了好久,才解决,后来在官方的github上,别人提的问题中建议使用下面这个包才解决的,我这里是下载后,传到我自已的仓库里
    29. #easzlab/nfs-subdir-external-provisioner:v4.0.1
    30. image: registry-op.test.cn/nfs-subdir-external-provisioner:v4.0.1
    31. volumeMounts:
    32. - name: nfs-client-root
    33. mountPath: /persistentvolumes
    34. env:
    35. - name: PROVISIONER_NAME
    36. value: test-nfs-storage #provisioner名称,请确保该名称与 nfs-StorageClass.yaml文件中的provisioner名称保持一致
    37. - name: NFS_SERVER
    38. value: 192.168.30.114 #NFS Server IP地址
    39. - name: NFS_PATH
    40. value: "/data/volumes" #NFS挂载卷
    41. volumes:
    42. - name: nfs-client-root
    43. nfs:
    44. server: 192.168.30.114 #NFS Server IP地址
    45. path: "/data/volumes" #NFS 挂载卷
    46. imagePullSecrets:
    47. - name: registry-op.test.cn

    kubectl apply -f nfs-provisioner.yaml

    5、查看状态

    1. # kubectl get sc
    2. NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE
    3. managed-nfs-storage test-nfs-storage Retain Immediate false 24h

    六、创建测试pod,检查是否部署成功

    1、创建PVC

    vim test-claim.yaml

    1. kind: PersistentVolumeClaim
    2. apiVersion: v1
    3. metadata:
    4. name: test-claim
    5. annotations:
    6. #与nfs-storageClass.yaml metadata.name保持一致
    7. volume.beta.kubernetes.io/storage-class: "managed-nfs-storage"
    8. spec:
    9. storageClassName: "managed-nfs-storage"
    10. accessModes:
    11. - ReadWriteMany
    12. #- ReadWriteOnce
    13. resources:
    14. requests:
    15. storage: 10Gi

    kubectl apply -f test-claim.yaml

    2、查看PVC状态

    要确保状态为Bound,如果为pending,肯定是有问题 ,需要进一步检查原因

    1. # kubectl get pvc
    2. NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
    3. test-claim Bound pvc-6324e17a-0a33-4a64-b0bb-e187f51a8f30 10Gi RWX managed-nfs-storage 3d19h

    3、创建测试pod

    vim test-pod.yaml

    1. kind: Pod
    2. apiVersion: v1
    3. metadata:
    4. name: test-pod
    5. spec:
    6. containers:
    7. - name: test-pod
    8. image: busybox:1.24
    9. command:
    10. - "/bin/sh"
    11. args:
    12. - "-c"
    13. - "touch /mnt/SUCCESS && exit 0 || exit 1" #创建一个SUCCESS文件后退出
    14. volumeMounts:
    15. - name: nfs-pvc
    16. mountPath: "/mnt"
    17. restartPolicy: "Never"
    18. volumes:
    19. - name: nfs-pvc
    20. persistentVolumeClaim:
    21. claimName: test-claim #与PVC名称保持一致

    kubectl apply -f test-pod.yaml

    4、查看pod状态

    1. # kubectl get pv
    2. NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
    3. pvc-6324e17a-0a33-4a64-b0bb-e187f51a8f30 10Gi RWX Delete Bound default/test-claim managed-nfs-storage 3d19h

    5、检查结果

    登录到192.168.30.114,查看nfs目录下是否有刚创建的文件

    1. # ll /data/volumes/default-test-claim-pvc-6324e17a-0a33-4a64-b0bb-e187f51a8f30/ #文件规则是按照${namespace}-${pvcName}-${pvName}创建的
    2. total 0
    3. -rw-r--r-- 1 root root 0 Dec 3 16:16 SUCCESS #看到这个文件,证明是成功了

    七、创建statefulset服务

    1、创建无头服务

    vim nginx-statefulset.yaml

    1. apiVersion: v1
    2. kind: Service
    3. metadata:
    4. name: nginx-headless
    5. spec:
    6. clusterIP: None #None值,就是表示无头服务
    7. selector:
    8. app: nginx
    9. ports:
    10. - name: web
    11. port: 80
    12. protocol: TCP
    13. ---
    14. apiVersion: apps/v1
    15. kind: StatefulSet
    16. metadata:
    17. name: web
    18. spec:
    19. podManagementPolicy: OrderedReady #pod名-> 0-N,删除N->0
    20. replicas: 3 #三个副本
    21. revisionHistoryLimit: 10
    22. serviceName: nginx-headless
    23. selector:
    24. matchLabels:
    25. app: nginx
    26. template:
    27. metadata: #name没写,会默认生成的
    28. labels:
    29. app: nginx
    30. spec:
    31. containers:
    32. - name: nginx
    33. image: registry-op.test.cn/nginx:1.14.9
    34. ports:
    35. - containerPort: 80
    36. volumeMounts:
    37. - name: web #填vcp名字
    38. mountPath: /var/www/html
    39. imagePullSecrets:
    40. - name: registry-op.test.cn
    41. volumeClaimTemplates:
    42. - metadata:
    43. name: web
    44. spec:
    45. accessModes: ["ReadWriteOnce"]
    46. storageClassName: managed-nfs-storage #存储类名,指向我们已经建好的
    47. volumeMode: Filesystem
    48. resources:
    49. requests:
    50. storage: 512M

    kubectl apply -f nginx-statefulset.yaml

    2、检查结果

    1. # kubectl get pods -l app=nginx
    2. NAME READY STATUS RESTARTS AGE
    3. web-0 1/1 Running 0 22h
    4. web-1 1/1 Running 0 22h
    5. web-2 1/1 Running 0 22h

    ----

    1. # kubectl get pvc
    2. NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
    3. web-web-0 Bound pvc-1fa25092-9516-41aa-ac9d-0eabdabda849 512M RWO managed-nfs-storage 23h
    4. web-web-1 Bound pvc-90cf9923-e5d8-4195-bffb-b9e5f14c11ae 512M RWO managed-nfs-storage 23h
    5. web-web-2 Bound pvc-bd4eccfd-8b65-4135-83fe-d57f8a9d9a74 512M RWO managed-nfs-storage 23h

    --

    1. # kubectl get pv
    2. NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
    3. pvc-1fa25092-9516-41aa-ac9d-0eabdabda849 512M RWO Retain Bound default/web-web-0 managed-nfs-storage 23h
    4. pvc-90cf9923-e5d8-4195-bffb-b9e5f14c11ae 512M RWO Retain Bound default/web-web-1 managed-nfs-storage 23h
    5. pvc-bd4eccfd-8b65-4135-83fe-d57f8a9d9a74 512M RWO Retain Bound default/web-web-2 managed-nfs-storage 23h

    --

    1. # kubectl get pv
    2. NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
    3. pvc-1fa25092-9516-41aa-ac9d-0eabdabda849 512M RWO Retain Bound default/web-web-0 managed-nfs-storage 23h
    4. pvc-90cf9923-e5d8-4195-bffb-b9e5f14c11ae 512M RWO Retain Bound default/web-web-1 managed-nfs-storage 23h
    5. pvc-bd4eccfd-8b65-4135-83fe-d57f8a9d9a74 512M RWO Retain Bound default/web-web-2 managed-nfs-storage 23h

    #查看NFS Server上

    1. # ll /data/volumes/
    2. total 20
    3. drwxrwxrwx 2 root root 4096 Dec 6 15:01 default-web-web-0-pvc-1fa25092-9516-41aa-ac9d-0eabdabda849
    4. drwxrwxrwx 2 root root 4096 Dec 6 15:01 default-web-web-1-pvc-90cf9923-e5d8-4195-bffb-b9e5f14c11ae
    5. drwxrwxrwx 2 root root 4096 Dec 6 15:02 default-web-web-2-pvc-bd4eccfd-8b65-4135-83fe-d57f8a9d9a74

    3、测试

    #分别往三个文件目录写入三个index.html文件

    #安装一个curl服务,对已经创建好的Statefulset服务进行测试

    #创建curl

    kubectl run curl --image=radial/busyboxplus:curl -n default -i --tty

    #进入curl容器

    kubectl exec -it curl /bin/sh -n default

    ---

    1. [ root@curl:/ ]$ nslookup nginx-headless
    2. Server: 10.96.0.10
    3. Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local
    4. Name: nginx-headless
    5. Address 1: 10.244.3.33 web-0.nginx-headless.default.svc.cluster.local
    6. Address 2: 10.244.3.35 web-2.nginx-headless.default.svc.cluster.local
    7. Address 3: 10.244.3.34 web-1.nginx-headless.default.svc.cluster.local
    8. [ root@curl:/ ]$ curl -v http://10.244.3.33/index.html
    9. > GET /index.html HTTP/1.1
    10. > User-Agent: curl/7.35.0
    11. > Host: 10.244.3.33
    12. > Accept: */*
    13. >
    14. < HTTP/1.1 200 OK
    15. < Server: nginx
    16. < Date: Tue, 07 Dec 2021 06:34:08 GMT
    17. < Content-Type: text/html; charset=utf-8
    18. < Content-Length: 6
    19. < Last-Modified: Mon, 06 Dec 2021 07:01:48 GMT
    20. < Connection: keep-alive
    21. < ETag: "61adb55c-6"
    22. < Accept-Ranges: bytes
    23. <
    24. web-0 ##注意这个是我前面写入文件的内容
    25. [ root@curl:/ ]$ curl -v http://10.244.3.34/index.html
    26. > GET /index.html HTTP/1.1
    27. > User-Agent: curl/7.35.0
    28. > Host: 10.244.3.34
    29. > Accept: */*
    30. >
    31. < HTTP/1.1 200 OK
    32. < Server: nginx
    33. < Date: Tue, 07 Dec 2021 06:35:13 GMT
    34. < Content-Type: text/html; charset=utf-8
    35. < Content-Length: 6
    36. < Last-Modified: Mon, 06 Dec 2021 07:01:59 GMT
    37. < Connection: keep-alive
    38. < ETag: "61adb567-6"
    39. < Accept-Ranges: bytes
    40. <
    41. web-1
    42. [ root@curl:/ ]$ curl -v http://10.244.3.35/index.html
    43. > GET /index.html HTTP/1.1
    44. > User-Agent: curl/7.35.0
    45. > Host: 10.244.3.35
    46. > Accept: */*
    47. >
    48. < HTTP/1.1 200 OK
    49. < Server: nginx
    50. < Date: Tue, 07 Dec 2021 06:35:29 GMT
    51. < Content-Type: text/html; charset=utf-8
    52. < Content-Length: 6
    53. < Last-Modified: Mon, 06 Dec 2021 07:02:07 GMT
    54. < Connection: keep-alive
    55. < ETag: "61adb56f-6"
    56. < Accept-Ranges: bytes
    57. <
    58. web-2

    #后续可以自已测试一下删除pod,再重新创建pod,以及扩缩容,观察pvc,pv的变化,然后可以看到pod的IP产生变化,但是名字不变,依然可以正常访问,并且还可以访问到原来的内容。

    八、关于StorageClass回收策略对数据的影响

    1、第一种配置

    1. archiveOnDelete: "false"
    2. reclaimPolicy: Delete #默认没有配置,默认值为Delete

    #测试结果

    1. 1.pod删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    2. 2.sc删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    3. 3.删除PVC后,PV被删除且NFS Server对应数据被删除

    2、第二种配置

    1. archiveOnDelete: "false"
    2. reclaimPolicy: Retain

    #测试结果

    1. 1.pod删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    2. 2.sc删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    3. 3.删除PVC后,PV不会别删除,且状态由Bound变为Released,NFS Server对应数据被保留
    4. 4.重建sc后,新建PVC会绑定新的pv,旧数据可以通过拷贝到新的PV中

    3、第三种配置

    1. archiveOnDelete: "ture"
    2. reclaimPolicy: Retain

    #测试结果

    1. 1.pod删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    2. 2.sc删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    3. 3.删除PVC后,PV不会别删除,且状态由Bound变为Released,NFS Server对应数据被保留
    4. 4.重建sc后,新建PVC会绑定新的pv,旧数据可以通过拷贝到新的PV中

    4、第四种配置

    1. archiveOnDelete: "ture"
    2. reclaimPolicy: Delete

    #测试结果

    1. 1.pod删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    2. 2.sc删除重建后数据依然存在,旧pod名称及数据依然保留给新pod使用
    3. 3.删除PVC后,PV不会别删除,且状态由Bound变为Released,NFS Server对应数据被保留
    4. 4.重建sc后,新建PVC会绑定新的pv,旧数据可以通过拷贝到新的PV中

    总结:除以第一种配置外,其他三种配置在PV/PVC被删除后数据依然保留

    九、常见问题

    1、如何设置默认的StorageClass

    有两种方法,一种是用kubectl patch,一种是在yaml文件直接注明

    #kubectl patch

    1. #设置default时是为"true"
    2. # kubectl patch storageclass managed-nfs-storage -p '{ "metadata" : { "annotations" :{"storageclass.kubernetes.io/is-default-class": "true"}}}'
    3. # kubectl get sc #名字后面有个"default"字段
    4. NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE
    5. managed-nfs-storage (default) test-nfs-storage Retain Immediate false 28h
    6. #取消default,值为"false"
    7. # kubectl patch storageclass managed-nfs-storage -p '{ "metadata" : { "annotations" :{"storageclass.kubernetes.io/is-default-class": "false"}}}'
    8. # kubectl get sc
    9. NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE
    10. managed-nfs-storage test-nfs-storage Retain Immediate false 28h

    #yaml文件

    1. apiVersion: storage.k8s.io/v1
    2. kind: StorageClass
    3. metadata:
    4. name: managed-nfs-storage
    5. annotations:
    6. "storageclass.kubernetes.io/is-default-class": "true" #添加此注释,这个变为default storageclass
    7. provisioner: test-nfs-storage #这里的名称要和provisioner配置文件中的环境变量PROVISIONER_NAME保持一致
    8. parameters:
    9. # archiveOnDelete: "false"
    10. archiveOnDelete: "true"
    11. reclaimPolicy: Retain

    2、如何使用默认的StorageClass

    1. kind: PersistentVolumeClaim
    2. apiVersion: v1
    3. metadata:
    4. name: test-www
    5. # annotations:
    6. # volume.beta.kubernetes.io/storage-class: "managed-nfs-storage" ##这里就可以不用指定
    7. spec:
    8. # storageClassName: "managed-nfs-storage" ##这里就可以不用指定
    9. accessModes:
    10. - ReadWriteMany
    11. #- ReadWriteOnce
    12. resources:
    13. requests:
    14. storage: 10Gi


    参考链接:

    k8s-1.22.3版本中使用持久化卷之StorageClass+NFS - 知乎关于k8s存储的概念在上编文章中有专门讲到,并且这编文章主要介绍了nfs和静态存储的配置( 归海听雪:K8S-v1.20中使用PVC持久卷)一、环境准备CentOS Linux release 7.7.1908 (Core) 3.10.0-1062.el7.x86_64 kubead…https://zhuanlan.zhihu.com/p/447663656

  • 相关阅读:
    python对月饼数据进行可视化,看看哪家最划算
    【蓝桥杯集训100题】scratch指令移动 蓝桥杯scratch比赛专项预测编程题 集训模拟练习题第14题
    教你三步搞定VsCode调试C++
    docker快速安装-docker一键安装脚本
    UE4 通过按键升降电梯
    vue3 中的根据某些特定的文字来筛选数组数据
    RK3568开发笔记(三):瑞芯微RK3588芯片介绍,入手开发板的核心板介绍
    SQL 常见问题汇总,持续更新
    Netty2
    nginx----(1)nginx的单机安装
  • 原文地址:https://blog.csdn.net/a772304419/article/details/126659402