• K8S:Yaml文件详解及编写示例


    一.Yaml文件详解

    1.Yaml文件格式

    (1)Kubernetes 支持 YAML 和 JSON 格式管理资源对象

    (2)JSON 格式:主要用于 api 接口之间消息的传递

    (3)YAML 格式:用于配置和管理,YAML 是一种简洁的非标记性语言,内容格式人性化,较易读

    2.YAML 语法格式

    (1)大小写敏感
    (2)使用缩进表示层级关系
    (3)不支持Tab键制表符缩进,只使用空格缩进
    (4)缩进的空格数目不重要,只要相同层级的元素左侧对齐即可,通常开头缩进两个空格
    (5)符号字符后缩进一个空格,如冒号,逗号,短横杆(-)等
    (6)“—”表示YAML格式,一个文件的开始,用于分隔文件间
    (7)“#”表示注释

    二.Yaml文件编写及相关概念

    1.查看 api 资源版本标签

    kubectl api-versions
    
    kubectl api-versions
    admissionregistration.k8s.io/v1
    admissionregistration.k8s.io/v1beta1
    apiextensions.k8s.io/v1
    apiextensions.k8s.io/v1beta1
    apiregistration.k8s.io/v1
    apiregistration.k8s.io/v1beta1
    apps/v1                             #如果是业务场景一般首选使用 apps/v1
    authentication.k8s.io/v1   
    authentication.k8s.io/v1beta1       #带有beta字样的代表的是测试版本,不用在生产环境中
    authorization.k8s.io/v1
    authorization.k8s.io/v1beta1
    autoscaling/v1
    autoscaling/v2beta1
    autoscaling/v2beta2
    batch/v1
    batch/v1beta1
    certificates.k8s.io/v1
    certificates.k8s.io/v1beta1
    coordination.k8s.io/v1
    coordination.k8s.io/v1beta1
    discovery.k8s.io/v1beta1
    events.k8s.io/v1
    events.k8s.io/v1beta1
    extensions/v1beta1
    flowcontrol.apiserver.k8s.io/v1beta1
    networking.k8s.io/v1
    networking.k8s.io/v1beta1
    node.k8s.io/v1
    node.k8s.io/v1beta1
    policy/v1beta1
    rbac.authorization.k8s.io/v1
    rbac.authorization.k8s.io/v1beta1
    scheduling.k8s.io/v1
    scheduling.k8s.io/v1beta1
    storage.k8s.io/v1
    storage.k8s.io/v1beta1
    v1
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40

    2.yaml编写案例

    (1)相关标签介绍

    #查看deployment的版本定义
    kubectl explain deployment
    
    • 1
    • 2

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #查看api的版本
    kubectl explain deployment.apiVersion
    
    • 1
    • 2

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #查看元数据信息
    kubectl explain deployment.apiVersion
    
    • 1
    • 2
    #定义标签介绍
    kubectl explain deployment.spec.selector
    #对matchLabels标签介绍
    kubectl explain deployment.spec.selector.matchLabels
    
    • 1
    • 2
    • 3
    • 4

    (2)Deployment类型编写nginx服务

    • 创建pod
    #写一个yaml文件demo
    mkdir /opt/demo
    cd demo/
    
    • 1
    • 2
    • 3
    vim nginx-deployment.yaml
    
    apiVersion: apps/v1		    #指定api版本标签
    kind: Deployment		    #定义资源的类型/角色,deployment为副本控制器,此处资源类型可以是Deployment、Job、Ingress、Service等
    metadata:					#定义资源的元数据信息,比如资源的名称、namespace、标签等信息
      name: nginx-deployment	#定义资源的名称,在同一个namespace空间中必须是唯一的
      namespace: default       #默认就是default,可以不用写
      labels:				    #定义Deployment资源标签
        app: nginx	
    spec:					    #定义deployment资源需要的参数属性,诸如是否在容器失败时重新启动容器的属性
      replicas: 3			    #定义副本数量
      selector:				    #定义标签选择器
        matchLabels:		    #定义匹配标签
          app: nginx		    #需与 .spec.template.metadata.labels 定义的标签保持一致
      template:				    #定义业务模板,如果有多个副本,所有副本的属性会按照模板的相关配置进行匹配
        metadata:
          labels:               #定义Pod副本将使用的标签,需与 .spec.selector.matchLabels 定义的标签保持一致
            app: nginx
        spec:
          containers:				#定义容器属性
          - name: nginx				#定义一个容器名,一个 - name: 定义一个容器
            image: nginx:1.15.4		#定义容器使用的镜像以及版本
            ports:
            - containerPort: 80		#定义容器的对外的端口
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #创建资源对象
    kubectl create -f nginx-deployment.yaml
    或
    kubectl apply -f nginx-deployment.yaml 
    #查看创建的资源对象,创建需等待running
    kubectl get pod
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #查看创建的pod资源
    kubectl get pods -o wide
    
    NAME                            READY   STATUS    RESTARTS   AGE     IP            NODE     NOMINATED NODE   READINESS GATES
    myapp-summer-5b5b5f6c6b-dpnw4   1/1     Running   0          3m53s   10.244.1.27   node02              
    myapp-summer-5b5b5f6c6b-qwlpq   1/1     Running   0          3m53s   10.244.2.20   node01              
    myapp-summer-5b5b5f6c6b-rgnmc   1/1     Running   0          3m53s   10.244.2.21   node01              
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    • 容器如果想对外提供访问,需创建service 发布
    #创建service服务对外提供访问并测试
    vim nginx-service.yaml
    
    apiVersion: v1  
    kind: Service  
    metadata:
      name: nginx-service
      labels:
        app: nginx  
    spec:
      type: NodePort  
      ports:
    
      - port: 80
        targetPort: 80  
          selector:
        app: nginx
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #创建资源对象
    kubectl create -f nginx-service.yaml 
    或
    kubectl apply -f nginx-service.yaml
    #查看创建的service
    [root@master01 demo]# kubectl  get svc
    NAME                     TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)           AGE
    kubernetes               ClusterIP   10.96.0.1               443/TCP           5d19h
    myapp-summer             NodePort    10.96.30.130            8080:32666/TCP    119s
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    在这里插入图片描述

    #在浏览器输入 nodeIP:nodePort 即可访问
    http://192.168.198.11:32666
    http://192.168.198.12:32666
    
    • 1
    • 2
    • 3

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    (3)k8s集群中的port介绍

    详解k8s中的port:
    ●port
    port 是 k8s 集群内部访问service的端口,即通过 clusterIP: port 可以从 Pod 所在的 Node 上访问到 service

    ●nodePort
    nodePort 是外部访问 k8s 集群中 service 的端口,通过 nodeIP: nodePort 可以从外部访问到某个 service。

    ●targetPort
    targetPort 是 Pod 的端口,从 port 或 nodePort 来的流量经过 kube-proxy 反向代理负载均衡转发到后端 Pod 的 targetPort 上,最后进入容器。

    ●containerPort

    containerPort 是 Pod 内部容器的端口,targetPort 映射到 containerPort。

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    (4)Deployment类型编写redis服务

    vim demo02-redis.yaml
    
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: redis-deployment
      namespace: default
      labels:
        app: redis
    spec:
      replicas: 2
      selector:
        matchLabels:
          app: redis
      template:                            
        metadata:
          labels:           
            app: redis
        spec:
          containers:                         
          - name: redis                            
            image: redis:latest
            ports:
            - containerPort: 6379    
          
    ---   
          
    apiVersion: v1
    kind: Service  
    metadata:
      name: redis
      labels:
        app: redis
    spec:
      type: NodePort
      ports:
      - port: 6379
        targetPort: 6379
        nodePort: 32555
      selector:
        app: redis
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    #创建资源
    kubectl apply -f demo02-redis.yaml 
    #查看创建的资源
    kubectl get pod,svc
    
    • 1
    • 2
    • 3
    • 4

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    使用Redis Desktop Manager测试redis,安装包在主页资源中

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    在这里插入图片描述

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    添加键值对

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #登入查看创建的键值对
    kubectl exec -it redis-deployment-756b4b8956-khw2m bash
    redis-cli
    keys *
    
    • 1
    • 2
    • 3
    • 4

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    (5)快速编写yaml文件

    #kubectl run --dry-run=client 打印相应的 API 对象而不执行创建(空跑)
    kubectl run nginx-test --image=nginx --port=80 --dry-run=client
    kubectl create deployment nginx-deploy --image=nginx --port=80 --replicas=3 --dry-run=client
    
    • 1
    • 2
    • 3
    #查看生成yaml格式
    kubectl run nginx-test --image=nginx --port=80 --dry-run=client -o yaml
    kubectl create deployment nginx-deploy --image=nginx --port=80 --replicas=3 --dry-run=client -o yaml
    
    • 1
    • 2
    • 3

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #查看生成json格式
    kubectl run nginx-test --image=nginx --port=80 --dry-run=client -o json
    kubectl create deployment nginx-deploy --image=nginx --port=80 --replicas=3 --dry-run=client -o json
    
    • 1
    • 2
    • 3

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #使用yaml格式导出生成模板,并进行修改以及删除一些不必要的参数
    kubectl run nginx-test --image=nginx --port=80 --dry-run=client -o yaml > nginx-test.yaml
    kubectl create deployment nginx-deploy --image=nginx --port=80 --replicas=3 --dry-run=client -o yaml  > nginx-deploy.yaml
    
    • 1
    • 2
    • 3
    vim nginx-test.yaml
    
    apiVersion: v1
    kind: Pod
    metadata:
      creationTimestamp: null     #删除
      labels:
        run: nginx-test
      name: nginx-test
    spec:
      containers:
    
      - image: nginx
        name: nginx-test
        ports:
        - containerPort: 80
          resources: {}             #删除
          dnsPolicy: ClusterFirst
          restartPolicy: Always
          status: {}                    #删除
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    #将现有的资源生成模板导出
    kubectl get svc nginx-service -o yaml
    
    • 1
    • 2
    #保存到文件中
    kubectl get svc nginx-service -o yaml > my-svc.yaml
    
    • 1
    • 2
    #查看字段帮助信息,可一层层的查看相关资源对象的帮助信息
    kubectl explain deployments.spec.template.spec.containers
    或
    kubectl explain pods.spec.containers
    
    • 1
    • 2
    • 3
    • 4
    #快速查看相关模板
    kubectl edit
    
    • 1
    • 2

    (6)案例:自主式创建service并关联上面的pod

    资源类型:pod 自主式

    资源名称:nginx-rain

    命名空间:rain

    容器镜像要求:nginx 1.14

    容器端口:80

    标签:app-rain

    #空跑
    kubectl run nginx-rain --image=nginx:1.14 --port=80 --dry-run=client -oyaml > nginx-rain。yaml
    #复制出来的模板
    kubectl create ns rain --dry-run -oyaml
    
    • 1
    • 2
    • 3
    • 4
    vim nginx-rain.yaml 
    
    ---
    apiVersion: v1
    kind: Namespace
    metadata:
      name: rain
    ---
    apiVersion: v1
    kind: Pod
    metadata:
      labels:
        run: rain
      name: nginx-rain
      namespace: rain
    spec:
      containers:
      - image: nginx:1.14
        name: nginx-rain
        ports:
        - containerPort: 80
      restartPolicy: Always
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: nginx-rain
      labels:
        run: rain
      namespace: rain
    spec:
        ports:
        - nodePort: 32333
          port: 80
          protocol: Tcp
          targetPort: 80
        selector:
          run: rain
        type: NodePort
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    kubectl apply -f nginx-rain.yaml 
    
    • 1

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #查看创建所有信息
    kubectl get pod,svc,ns -n rain
    
    • 1
    • 2

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #访问测试
    curl 10.96.80.12
    http://192.168.198.11:32333/
    
    • 1
    • 2
    • 3

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    #写yaml简洁方法
    ●用 --dry-run 命令生成
    kubectl run my-deploy --image=nginx --dry-run=client -o yaml > my-deploy.yaml
    
    ●用get命令导出
    kubectl get svc nginx-service -o yaml > my-svc.yaml
    或
    kubectl edit svc nginx-service  #复制配置,再粘贴到新文件
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    (7)Pod yaml文件详解

    apiVersion: v1			#必选,版本号,例如v1
    kind: Pod				#必选,Pod
    metadata:				#必选,元数据
      name: string			  #必选,Pod名称
      namespace: string		  #必选,Pod所属的命名空间
      labels:				  #自定义标签
        - name: string		    #自定义标签名字
      annotations:			    #自定义注释列表
        - name: string
    spec:					#必选,Pod中容器的详细定义
      containers:			  #必选,Pod中容器列表
      - name: string		    #必选,容器名称
        image: string		    #必选,容器的镜像名称
        imagePullPolicy: [Always | Never | IfNotPresent]	#获取镜像的策略:Alawys表示总是下载镜像,IfnotPresent表示优先使用本地镜像,否则下载镜像,Nerver表示仅使用本地镜像
        command: [string]		#容器的启动命令列表,如不指定,使用打包时使用的启动命令
        args: [string]			#容器的启动命令参数列表
        workingDir: string		#容器的工作目录
        volumeMounts:			#挂载到容器内部的存储卷配置
        - name: string			  #引用pod定义的共享存储卷的名称,需用volumes[]部分定义的的卷名
          mountPath: string		  #存储卷在容器内mount的绝对路径,应少于512字符
          readOnly: boolean		  #是否为只读模式
        ports:					#需要暴露的端口库号列表
        - name: string			  #端口号名称
          containerPort: int	  #容器需要监听的端口号
          hostPort: int			  #容器所在主机需要监听的端口号,默认与Container相同
          protocol: string		  #端口协议,支持TCP和UDP,默认TCP
        env:					#容器运行前需设置的环境变量列表
        - name: string			  #环境变量名称
          value: string			  #环境变量的值
        resources:				#资源限制和请求的设置
          limits:				  #资源限制的设置
            cpu: string			    #Cpu的限制,单位为core数,将用于docker run --cpu-shares参数
            memory: string			#内存限制,单位可以为Mib/Gib,将用于docker run --memory参数
          requests:				  #资源请求的设置
            cpu: string			    #Cpu请求,容器启动的初始可用数量
            memory: string		    #内存清楚,容器启动的初始可用数量
        livenessProbe:     		#对Pod内个容器健康检查的设置,当探测无响应几次后将自动重启该容器,检查方法有exec、httpGet和tcpSocket,对一个容器只需设置其中一种方法即可
          exec:					#对Pod容器内检查方式设置为exec方式
            command: [string]	  #exec方式需要制定的命令或脚本
          httpGet:				#对Pod内个容器健康检查方法设置为HttpGet,需要制定Path、port
            path: string
            port: number
            host: string
            scheme: string
            HttpHeaders:
            - name: string
              value: string
          tcpSocket:			#对Pod内个容器健康检查方式设置为tcpSocket方式
             port: number
           initialDelaySeconds: 0	#容器启动完成后首次探测的时间,单位为秒
           timeoutSeconds: 0		#对容器健康检查探测等待响应的超时时间,单位秒,默认1秒
           periodSeconds: 0			#对容器监控检查的定期探测时间设置,单位秒,默认10秒一次
           successThreshold: 0
           failureThreshold: 0
           securityContext:
             privileged:false
        restartPolicy: [Always | Never | OnFailure]		#Pod的重启策略,Always表示一旦不管以何种方式终止运行,kubelet都将重启,OnFailure表示只有Pod以非0退出码退出才重启,Nerver表示不再重启该Pod
        nodeSelector: obeject		#设置NodeSelector表示将该Pod调度到包含这个label的node上,以key:value的格式指定
        imagePullSecrets:			#Pull镜像时使用的secret名称,以key:secretkey格式指定
        - name: string
        hostNetwork:false			#是否使用主机网络模式,默认为false,如果设置为true,表示使用宿主机网络
        volumes:					#在该pod上定义共享存储卷列表
        - name: string				  #共享存储卷名称 (volumes类型有很多种)
          emptyDir: {}				  #类型为emtyDir的存储卷,与Pod同生命周期的一个临时目录。为空值
          hostPath: string			  #类型为hostPath的存储卷,表示挂载Pod所在宿主机的目录
            path: string			    #Pod所在宿主机的目录,将被用于同期中mount的目录
          secret:					#类型为secret的存储卷,挂载集群与定义的secre对象到容器内部
            scretname: string  
            items:     
            - key: string
              path: string
          configMap:				#类型为configMap的存储卷,挂载预定义的configMap对象到容器内部
            name: string
            items:
            - key: string
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75

    (8)deployment.yaml文件详解

    apiVersion: extensions/v1beta1   #接口版本
    kind: Deployment                 #接口类型
    metadata:
      name: cango-demo               #Deployment名称
      namespace: cango-prd           #命名空间
      labels:
        app: cango-demo              #标签
    spec:
      replicas: 3
      strategy:
        rollingUpdate:  ##由于replicas为3,则整个升级,pod个数在2-4个之间
          maxSurge: 1      #滚动升级时会先启动1个pod
          maxUnavailable: 1 #滚动升级时允许的最大Unavailable的pod个数
      template:         
        metadata:
          labels:
            app: cango-demo  #模板名称必填
        sepc: #定义容器模板,该模板可以包含多个容器
          containers:                                                                   
            - name: cango-demo                                                           #镜像名称
              image: swr.cn-east-2.myhuaweicloud.com/cango-prd/cango-demo:0.0.1-SNAPSHOT #镜像地址
              command: [ "/bin/sh","-c","cat /etc/config/path/to/special-key" ]    #启动命令
              args:                                                                #启动参数
                - '-storage.local.retention=$(STORAGE_RETENTION)'
                - '-storage.local.memory-chunks=$(STORAGE_MEMORY_CHUNKS)'
                - '-config.file=/etc/prometheus/prometheus.yml'
                - '-alertmanager.url=http://alertmanager:9093/alertmanager'
                - '-web.external-url=$(EXTERNAL_URL)'
        #如果command和args均没有写,那么用Docker默认的配置。
        #如果command写了,但args没有写,那么Docker默认的配置会被忽略而且仅仅执行.yaml文件的command(不带任何参数的)。
        #如果command没写,但args写了,那么Docker默认配置的ENTRYPOINT的命令行会被执行,但是调用的参数是.yaml中的args。
        #如果如果command和args都写了,那么Docker默认的配置被忽略,使用.yaml的配置。
              imagePullPolicy: IfNotPresent  #如果不存在则拉取
              livenessProbe:       #表示container是否处于live状态。如果LivenessProbe失败,LivenessProbe将会通知kubelet对应的container不健康了。随后kubelet将kill掉container,并根据RestarPolicy进行进一步的操作。默认情况下LivenessProbe在第一次检测之前初始化值为Success,如果container没有提供LivenessProbe,则也认为是Success;
                httpGet:
                  path: /health #如果没有心跳检测接口就为/
                  port: 8080
                  scheme: HTTP
                initialDelaySeconds: 60 ##启动后延时多久开始运行检测
                timeoutSeconds: 5
                successThreshold: 1
                failureThreshold: 5
              readinessProbe:
                httpGet:
                  path: /health #如果没有心跳检测接口就为/
                  port: 8080
                  scheme: HTTP
                initialDelaySeconds: 30 ##启动后延时多久开始运行检测
                timeoutSeconds: 5
                successThreshold: 1
                failureThreshold: 5
              resources:              ##CPU内存限制
                requests:
                  cpu: 2
                  memory: 2048Mi
                limits:
                  cpu: 2
                  memory: 2048Mi
              env:                    ##通过环境变量的方式,直接传递pod=自定义Linux OS环境变量
                - name: LOCAL_KEY     #本地Key
                  value: value
                - name: CONFIG_MAP_KEY  #局策略可使用configMap的配置Key,
                  valueFrom:
                    configMapKeyRef:
                      name: special-config   #configmap中找到name为special-config
                      key: special.type      #找到name为special-config里data下的key
              ports:
                - name: http
                  containerPort: 8080 #对service暴露端口
              volumeMounts:     #挂载volumes中定义的磁盘
              - name: log-cache
                mount: /tmp/log
              - name: sdb       #普通用法,该卷跟随容器销毁,挂载一个目录
                mountPath: /data/media    
              - name: nfs-client-root    #直接挂载硬盘方法,如挂载下面的nfs目录到/mnt/nfs
                mountPath: /mnt/nfs
              - name: example-volume-config  #高级用法第1种,将ConfigMap的log-script,backup-script分别挂载到/etc/config目录下的一个相对路径path/to/...下,如果存在同名文件,直接覆盖。
                mountPath: /etc/config       
              - name: rbd-pvc                #高级用法第2中,挂载PVC(PresistentVolumeClaim)
     
    #使用volume将ConfigMap作为文件或目录直接挂载,其中每一个key-value键值对都会生成一个文件,key为文件名,value为内容,
      volumes:  # 定义磁盘给上面volumeMounts挂载
      - name: log-cache
        emptyDir: {}
      - name: sdb  #挂载宿主机上面的目录
        hostPath:
          path: /any/path/it/will/be/replaced
      - name: example-volume-config  # 供ConfigMap文件内容到指定路径使用
        configMap:
          name: example-volume-config  #ConfigMap中名称
          items:
          - key: log-script           #ConfigMap中的Key
            path: path/to/log-script  #指定目录下的一个相对路径path/to/log-script
          - key: backup-script        #ConfigMap中的Key
            path: path/to/backup-script  #指定目录下的一个相对路径path/to/backup-script
      - name: nfs-client-root         #供挂载NFS存储类型
        nfs:
          server: 10.42.0.55          #NFS服务器地址
          path: /opt/public           #showmount -e 看一下路径
      - name: rbd-pvc                 #挂载PVC磁盘
        persistentVolumeClaim:
          claimName: rbd-pvc1         #挂载已经申请的pvc磁盘
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75
    • 76
    • 77
    • 78
    • 79
    • 80
    • 81
    • 82
    • 83
    • 84
    • 85
    • 86
    • 87
    • 88
    • 89
    • 90
    • 91
    • 92
    • 93
    • 94
    • 95
    • 96
    • 97
    • 98
    • 99
    • 100
    • 101
    • 102

    (9)Service yaml文件详解

    apiVersion: v1
    kind: Service
    matadata:                                #元数据
      name: string                           #service的名称
      namespace: string                      #命名空间  
      labels:                                #自定义标签属性列表
        - name: string
      annotations:                           #自定义注解属性列表  
        - name: string
    spec:                                    #详细描述
      selector: []                           #label selector配置,将选择具有label标签的Pod作为管理 
                                             #范围
      type: string                           #service的类型,指定service的访问方式,默认为 
                                             #clusterIp
      clusterIP: string                      #虚拟服务地址      
      sessionAffinity: string                #是否支持session
      ports:                                 #service需要暴露的端口列表
      - name: string                         #端口名称
        protocol: string                     #端口协议,支持TCP和UDP,默认TCP
        port: int                            #服务监听的端口号
        targetPort: int                      #需要转发到后端Pod的端口号
        nodePort: int                        #当type = NodePort时,指定映射到物理机的端口号
      status:                                #当spce.type=LoadBalancer时,设置外部负载均衡器的地址
        loadBalancer:                        #外部负载均衡器    
          ingress:                           #外部负载均衡器 
            ip: string                       #外部负载均衡器的Ip地址值
            hostname: string                 #外部负载均衡器的主机名
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27

    (10)k8s部署tomcat的yaml文件

    vim tomcat-pod.yaml
    
    apiVersion: apps/v1
    kind: Deployment
    metadata:                   #定义了 Deployment 的元数据信息,包括名称和标签
      name: mytomcat
    spec:                       #定义了 Deployment 的规范信息,包括副本数、Selector、升级策略
      replicas: 3               #指定了 Deployment 所需的 Pod 副本数
      selector:                 #定义了匹配标签的 Selector,以选择要控制的 Pod
        matchLabels: 
          app: mytomcat
      minReadySeconds: 1             #指定了 Deployment 进行滚动升级时,新 Pod 可以被认为已准备好的最小时间
      progressDeadlineSeconds: 60    #指定了 Deployment 升级的最长时间,超过此时间将标记为失败
      revisionHistoryLimit: 5        #定义了 Deployment 可以保留的版本历史数量的最大值
      strategy:                      #定义了 Deployment 进行滚动升级的策略
        type: RollingUpdate          #指定了滚动升级的类型,此处设置为 RollingUpdate。另一个选项是 Recreate
        rollingUpdate:               #定义了 RollingUpdate 策略的参数
          maxSurge: 1                #定义了在进行滚动更新时,最大可以超出指定副本数的 Pod 数量
          maxUnavailable: 1          #定义了在进行滚动更新时,最大可以不可用的 Pod 数量
      template:                      #定义了要创建的 Pod 的规范信息,包括容器、端口和卷
        metadata:
          name: mytomcat
          labels:
            app: mytomcat
        spec:
          containers:              #定义了 Pod 中的容器信息
          - name: mytomcat         #定义了容器的名称,此处设置为 mytomcat
            image: tomcat:8        #定义了容器要使用的镜像,此处设置为 Tomcat 8
            ports:                 #定义了容器要监听的端口,此处设置为 8080 端口
            - containerPort: 8080
            volumeMounts:          #定义了容器要挂载的卷
            - name: zjf-config
              mountPath: /etc/localtime
          volumes:                 #定义了卷的信息,包括名称和挂载路径
          - name: zjf-config
            hostPath:              #定义了要挂载的本地主机路径
              path: /usr/share/zoneinfo/Asia/Shanghai
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    kubectl apply -f tomcat-pod.yaml 
    
    • 1
    vim tomcat-service.yaml
    
    apiVersion: v1
    kind: Service
    metadata:
      name: mytomcat
    spec:
      type: NodePort
      ports:
       - port: 8080
         nodePort: 32222
      selector:
        app: mytomcat
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    kubectl apply -f tomcat-service.yaml 
    
    • 1
    #查看创建的pod及svc
    kubectl get pod
    kubectl get svc
    
    • 1
    • 2
    • 3

    在这里插入图片描述

    #查看tomcat的分布node节点
    kubectl get pods -o wide
    
    • 1
    • 2

    在这里插入图片描述

    #访问测试
    curl 10.244.1.34
    
    • 1
    • 2

    总:

    1.K8S集群中访问流向

    port:为service在clusterIP上暴露的端口

    targetport:对应容器映射在pod上的端口

    nodeport:可以通过在K8S集群外部使用nodeIP+nodePort来去访问service

    containerport:容器内部使用的端口

    K8S集群内部:客户端——clusterIP:port——通过target port——podIP:containerport

    K8S集群外部:客户端——nodeIP:nodeport——通过target port——podIP:containerport

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    2.语法格式

    通过缩进表示层级关系

    不能使用tab进行缩进,只能使用空格,一般开头缩进2个空格

    字符后缩进一个空格,比如冒号,逗号等

    使用—表示新的yaml文件的开始

    使用#表示注释

    3.yaml文件组成部署

    (1)控制器定义

    deployment:定义metadaea、spec、selector

    通过yaml完成副本的定义,自主式的

    (2)被控制对象

    由哪一个控制器(自主式、deployment、statusfulset等)

    4.常用字段的含义

    如何快速编写yaml

    (1)第一种使用kubectl create 命令生成yaml文件

    (2)第二种使用kubectl get 命令导出yaml文件

  • 相关阅读:
    新能源汽车行业出口ERP管理解决方案
    ipv6过渡技术-IPv4 over IPv6隧道示例
    java面试八股文收集2
    ---线程3续
    Python中列表生成器的使用
    《Solidity 简易速速上手小册》第1章:Solidity 和智能合约简介(2024 最新版)
    浅析Java反射机制
    Android Studio 快捷键及使用技巧汇总
    springcloud24:分布式事务 Seata处理分布式事务总结篇
    主流的图像—文本的多模态技术实现方法有哪些?
  • 原文地址:https://blog.csdn.net/Katie_ff/article/details/132841454