• 用K8s的公司有多少人会部署K8s?


    介绍

    容器化部署

    随着Docker技术的流行,对项目的容器化部署方式越来越流行,容器化部署的优点如下:

    可以保证每个容器拥有自己的文件系统、CPU、内存、进程空间等
    运行应用程序所需要的资源都被容器包装,并和底层基础架构解耦
    容器化的应用程序可以跨云服务商、跨Linux操作系统发行版进行部署
    虽然容器化部署可以带来很多便利,但是也会出现一些问题,比如说:

    一个容器故障停机了,怎么样让另外一个容器立刻启动去替补停机的容器
    当并发访问量变大的时候,怎么样做到横向扩展容器数量
    这些容器管理的问题统称为容器编排问题,为了解决这些容器编排问题,就产生了一些容器编排技术:

    Swarm:Docker自己的容器编排工具
    Mesos:Apache的一个资源统一管控的工具,需要和Marathon结合使用
    Kubernetes:Google开源的的容器编排工具
    目前为止Kubernetes是最为流行的一种容器编排技术。

    k8s

    ​ kubernetes,由于k和s之间有8个字符,所以简称k8s,是一个全新的基于容器技术的分布式架构领先方案,是谷歌严格保密十几年的秘密武器----Borg系统的一个开源版本,于2015年7月发布第一个正式版本,它的本质是一组服务器集群,可以在集群的每个节点上运行特定的程序,来对节点中的容器进行管理,主要提供了如下主要功能:

    自我修复:一旦某一个容器崩溃,能够在1秒中左右迅速启动新的容器
    弹性伸缩:可以根据需要,自动对集群中正在运行的容器数量进行调整
    服务发现:服务可以通过自动发现的形式找到它所依赖的服务
    负载均衡:如果一个服务起动了多个容器,能够自动实现请求的负载均衡
    版本回退:如果发现新发布的程序版本有问题,可以立即回退到原来的版本
    存储编排:可以根据容器自身的需求自动创建存储卷
    组件

    一个k8s集群主要是由控制节点(master)、工作节点(node)构成,每个节点上都会安装不同的组件。

    master:集群的控制平面,负责集群的决策 ( 管理 )

    ApiServer : 资源操作的唯一入口,接收用户输入的命令,提供认证、授权、API注册和发现等机制
    Scheduler : 负责集群资源调度,按照预定的调度策略将Pod调度到相应的node节点上
    ControllerManager : 负责维护集群的状态,比如程序部署安排、故障检测、自动扩展、滚动更新等
    Etcd :负责存储集群中各种资源对象的信息
    node:集群的数据平面,负责为容器提供运行环境 ( 干活 )

    Kubelet : 负责维护容器的生命周期,即通过控制docker,来创建、更新、销毁容器
    KubeProxy : 负责提供集群内部的服务发现和负载均衡
    Docker : 负责节点上容器的各种操作

    c94ebd12826543be824f2f370cd1b0bc.png
    下面,以部署一个nginx服务来说明kubernetes系统各个组件调用关系: 

    首先要明确,一旦kubernetes环境启动之后,master和node都会将自身的信息存储到etcd数据库中
    一个nginx服务的安装请求会首先被发送到master节点的apiServer组件
    apiServer组件会调用scheduler组件来决定到底应该把这个服务安装到哪个node节点上
    在此时,它会从etcd中读取各个node节点的信息,然后按照一定的算法进行选择,并将结果告知apiServer

    apiServer调用controller-manager去调度Node节点安装nginx服务
    kubelet接收到指令后,会通知docker,然后由docker来启动一个nginx的pod
    pod是kubernetes的最小操作单元,容器必须跑在pod中至此,一个nginx服务就运行了,如果需要访问nginx,就需要通过kube-proxy来对pod产生访问的代理

    ​ 这样,外界用户就可以访问集群中的nginx服务了

    核心概念

    Master:集群控制节点,每个集群需要至少一个master节点负责集群的管控

    Node:工作负载节点,由master分配容器到这些node工作节点上,然后node节点上的docker负责容器的运行

    Pod:kubernetes的最小控制单元,容器都是运行在pod中的,一个pod中可以有1个或者多个容器

    Controller:控制器,通过它来实现对pod的管理,比如启动pod、停止pod、伸缩pod的数量等等

    Service:pod对外服务的统一入口,下面可以维护者同一类的多个pod

    Label:标签,用于对pod进行分类,同一类pod会拥有相同的标签

    NameSpace:命名空间,用来隔离pod的运行环境

    环境搭建

    主机准备

    本次搭建的是一台Master节点和多台Node节点构成的集群
    598834d926934a4cbb70acdaf34ead47.png
    环境初始化 

    1) 检查操作系统的版本

    # 此方式下安装kubernetes集群要求Centos版本要在7.5或之上
    [root@master ~]# cat /etc/redhat-release
    CentOS Linux release 7.5.1804 (Core)
    2) 主机名解析

    为了方便后面集群节点间的直接调用,在这配置一下主机名解析,企业中推荐使用内部DNS服务器

    # 主机名成解析 编辑三台服务器的/etc/hosts文件,添加下面内容
    192.168.109.100  master
    192.168.109.101  node1
    192.168.109.102  node2
    3) 时间同步

    kubernetes要求集群中的节点时间必须精确一致,这里直接使用chronyd服务从网络同步时间。

    企业中建议配置内部的时间同步服务器

    # 启动chronyd服务
    [root@master ~]# systemctl start chronyd
    # 设置chronyd服务开机自启
    [root@master ~]# systemctl enable chronyd
    # chronyd服务启动稍等几秒钟,就可以使用date命令验证时间了
    [root@master ~]# date
    4) 禁用iptables和firewalld服务

    kubernetes和docker在运行中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则

    # 1 关闭firewalld服务
    [root@master ~]# systemctl stop firewalld
    [root@master ~]# systemctl disable firewalld
    # 2 关闭iptables服务
    [root@master ~]# systemctl stop iptables
    [root@master ~]# systemctl disable iptables
    5) 禁用selinux

    selinux是linux系统下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题

    # 编辑 /etc/selinux/config 文件,修改SELINUX的值为disabled
    # 注意修改完毕之后需要重启linux服务
    SELINUX=disabled
    6) 禁用swap分区

    swap分区指的是虚拟内存分区,它的作用是在物理内存使用完之后,将磁盘空间虚拟成内存来使用

    启用swap设备会对系统的性能产生非常负面的影响,因此kubernetes要求每个节点都要禁用swap设备

    但是如果因为某些原因确实不能关闭swap分区,就需要在集群安装过程中通过明确的参数进行配置说明

    # 编辑分区配置文件/etc/fstab,注释掉swap分区一行
    # 注意修改完毕之后需要重启linux服务
     UUID=455cc753-7a60-4c17-a424-7741728c44a1 /boot    xfs     defaults        0 0
     /dev/mapper/centos-home /home                      xfs     defaults        0 0
    # /dev/mapper/centos-swap swap                      swap    defaults        0 0
    7)修改linux的内核参数

    # 修改linux的内核参数,添加网桥过滤和地址转发功能
    # 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
    net.bridge.bridge-nf-call-ip6tables = 1
    net.bridge.bridge-nf-call-iptables = 1
    net.ipv4.ip_forward = 1

    # 重新加载配置
    [root@master ~]# sysctl -p

    # 加载网桥过滤模块
    [root@master ~]# modprobe br_netfilter

    # 查看网桥过滤模块是否加载成功
    [root@master ~]# lsmod | grep br_netfilter
    8)配置ipvs功能

    在kubernetes中service有两种代理模型,一种是基于iptables的,一种是基于ipvs的

    两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块

    # 1 安装ipset和ipvsadm
    [root@master ~]# yum install ipset ipvsadmin -y

    # 2 添加需要加载的模块写入脚本文件
    [root@master ~]# cat <  /etc/sysconfig/modules/ipvs.modules
    #!/bin/bash
    modprobe -- ip_vs
    modprobe -- ip_vs_rr
    modprobe -- ip_vs_wrr
    modprobe -- ip_vs_sh
    modprobe -- nf_conntrack_ipv4
    EOF

    # 3 为脚本文件添加执行权限
    [root@master ~]# chmod +x /etc/sysconfig/modules/ipvs.modules

    # 4 执行脚本文件
    [root@master ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules

    # 5 查看对应的模块是否加载成功
    [root@master ~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4
    9) 重启服务器

    上面步骤完成之后,需要重新启动linux系统

    [root@master ~]# reboot
    安装docker

    # 1 切换镜像源
    [root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo

    # 2 查看当前镜像源中支持的docker版本
    [root@master ~]# yum list docker-ce --showduplicates

    # 3 安装特定版本的docker-ce
    # 必须指定--setopt=obsoletes=0,否则yum会自动安装更高版本
    [root@master ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y

    # 4 添加一个配置文件
    # Docker在默认情况下使用的Cgroup Driver为cgroupfs,而kubernetes推荐使用systemd来代替cgroupfs
    [root@master ~]# mkdir /etc/docker
    [root@master ~]# cat <  /etc/docker/daemon.json
    {
      "exec-opts": ["native.cgroupdriver=systemd"],
      "registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"]
    }
    EOF

    # 5 启动docker
    [root@master ~]# systemctl restart docker
    [root@master ~]# systemctl enable docker

    # 6 检查docker状态和版本
    [root@master ~]# docker version
    安装k8s

    # 由于kubernetes的镜像源在国外,速度比较慢,这里切换成国内的镜像源
    # 编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置 
    [kubernetes]
    name=Kubernetes
    baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
    enabled=1
    gpgcheck=0
    repo_gpgcheck=0
    gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
           http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

    # 安装kubeadm、kubelet和kubectl
    [root@master ~]# yum install --setopt=obsoletes=0 kubeadm-1.17.4-0 kubelet-1.17.4-0 kubectl-1.17.4-0 -y

    # 配置kubelet的cgroup
    # 编辑/etc/sysconfig/kubelet,添加下面的配置
    KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
    KUBE_PROXY_MODE="ipvs"

    # 4 设置kubelet开机自启
    [root@master ~]# systemctl enable kubelet
    准备集群镜像

    # 在安装kubernetes集群之前,必须要提前准备好集群需要的镜像,所需镜像可以通过下面命令查看
    [root@master ~]# kubeadm config images list

    # 下载镜像
    # 此镜像在kubernetes的仓库中,由于网络原因,无法连接,下面提供了一种替代方案
    images=(
        kube-apiserver:v1.17.4
        kube-controller-manager:v1.17.4
        kube-scheduler:v1.17.4
        kube-proxy:v1.17.4
        pause:3.1
        etcd:3.4.3-0
        coredns:1.6.5
    )

    for imageName in ${images[@]} ; do
        docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
        docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName       k8s.gcr.io/$imageName
        docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
    done
    集群初始化

    下面开始对集群进行初始化,并将node节点加入到集群中

    下面的操作只需要在master节点上执行即可
    # 创建集群
    [root@master ~]# kubeadm init \
        --kubernetes-version=v1.17.4 \
        --pod-network-cidr=10.244.0.0/16 \
        --service-cidr=10.96.0.0/12 \
        --apiserver-advertise-address=192.168.109.100

    # 创建必要文件
    [root@master ~]# mkdir -p $HOME/.kube
    [root@master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
    [root@master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
    下面的操作只需要在node节点上执行即可
    # 将node节点加入集群
    [root@master ~]# kubeadm join 192.168.109.100:6443 \ 
        --token 8507uc.o0knircuri8etnw2 \
        --discovery-token-ca-cert-hash \
        sha256:acc37967fb5b0acf39d7598f8a439cc7dc88f439a3f4d0c9cae88e7901b9d3f

    # 查看集群状态 此时的集群状态为NotReady,这是因为还没有配置网络插件
    [root@master ~]# kubectl get nodes
    NAME     STATUS     ROLES    AGE     VERSION
    master   NotReady   master   6m43s   v1.17.4
    node1    NotReady     22s     v1.17.4
    node2    NotReady     19s     v1.17.4
    安装网络插件

    kubernetes支持多种网络插件,比如flannel、calico、canal等等,任选一种使用即可,本次选择flannel

    下面操作依旧只在master节点执行即可,插件使用的是DaemonSet的控制器,它会在每个节点上都运行
    # 获取fannel的配置文件
    [root@master ~]# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

    # 修改文件中quay.io仓库为quay-mirror.qiniu.com

    # 使用配置文件启动fannel
    [root@master ~]# kubectl apply -f kube-flannel.yml

    # 稍等片刻,再次查看集群节点的状态
    [root@master ~]# kubectl get nodes
    NAME     STATUS   ROLES    AGE     VERSION
    master   Ready    master   15m     v1.17.4
    node1    Ready       8m53s   v1.17.4
    node2    Ready       8m50s   v1.17.4
    至此,kubernetes的集群环境搭建完成

    服务部署

    接下来在kubernetes集群中部署一个nginx程序,测试下集群是否在正常工作。

    # 部署nginx
    [root@master ~]# kubectl create deployment nginx --image=nginx:1.14-alpine

    # 暴露端口
    [root@master ~]# kubectl expose deployment nginx --port=80 --type=NodePort

    # 查看服务状态
    [root@master ~]# kubectl get pods,service
    NAME                         READY   STATUS    RESTARTS   AGE
    pod/nginx-86c57db685-fdc2k   1/1     Running   0          18m

    NAME                 TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE
    service/kubernetes   ClusterIP   10.96.0.1              443/TCP        82m
    service/nginx        NodePort    10.104.121.45          80:30073/TCP   17m

    # 4 最后在电脑上访问下部署的nginx服务

    资源管理

    在kubernetes中,所有的内容都抽象为资源,用户需要通过操作资源来管理kubernetes。

    kubernetes的本质上就是一个集群系统,用户可以在集群中部署各种服务,也就是在kubernetes集群中运行一个个的容器,并将指定的程序跑在容器中。

    kubernetes的最小管理单元是pod而不是容器,所以只能将容器放在Pod中,而kubernetes一般也不会直接管理Pod,而是通过Pod控制器来管理Pod的。

    Pod可以提供服务之后,就要考虑如何访问Pod中服务,kubernetes提供了Service资源实现这个功能。

    k8s提供了三种资源管理方式
    命令式对象管理:直接使用命令去操作kubernetes资源
    kubectl run nginx-pod --image=nginx:1.17.1 --port=80

    命令式对象配置:通过命令配置和配置文件去操作kubernetes资源
    kubectl create/patch -f nginx-pod.yaml

    声明式对象配置:通过apply命令和配置文件去操作kubernetes资源
    kubectl apply -f nginx-pod.yaml

    命令式对象管理

    kubectl命令

    kubectl是kubernetes集群的命令行工具,通过它能够对集群本身进行管理,并能够在集群上进行容器化应用的安装部署。kubectl命令的语法如下:

    kubectl [command] [type] [name] [flags]
    comand:指定要对资源执行的操作,例如create、get、delete

    type:指定资源类型,比如deployment、pod、service

    name:指定资源的名称,名称大小写敏感

    flags:指定额外的可选参数

    # 查看所有pod
    kubectl get pod 

    # 查看某个pod
    kubectl get pod pod_name

    # 查看某个pod,以yaml格式展示结果
    kubectl get pod pod_name -o yaml
    下面以一个namespace / pod的创建和删除简单演示下命令的使用:

    # 创建一个namespace
    [root@master ~]# kubectl create namespace dev
    namespace/dev created

    # 获取namespace
    [root@master ~]# kubectl get ns
    NAME              STATUS   AGE
    default           Active   21h
    dev               Active   21s
    kube-node-lease   Active   21h
    kube-public       Active   21h
    kube-system       Active   21h

    # 在此namespace下创建并运行一个nginx的Pod
    [root@master ~]# kubectl run pod --image=nginx -n dev
    kubectl run --generator=deployment/apps.v1 is DEPRECATED and will be removed in a future version. Use kubectl run --generator=run-pod/v1 or kubectl create instead.
    deployment.apps/pod created

    # 查看新创建的pod
    [root@master ~]# kubectl get pod -n dev
    NAME                   READY   STATUS    RESTARTS   AGE
    pod-864f9875b9-pcw7x   1/1     Running   0          21s

    # 删除指定的pod
    [root@master ~]# kubectl delete pod pod-864f9875b9-pcw7x
    pod "pod-864f9875b9-pcw7x" deleted

    # 删除指定的namespace
    [root@master ~]# kubectl delete ns dev
    namespace "dev" deleted
    命令式对象配置

    命令式对象配置就是使用命令配合配置文件一起来操作kubernetes资源。

    1) 创建一个nginxpod.yaml,内容如下:

    apiVersion: v1
    kind: Namespace
    metadata:
      name: dev

    ---

    apiVersion: v1
    kind: Pod
    metadata:
      name: nginxpod
      namespace: dev
    spec:
      containers:
      - name: nginx-containers
        image: nginx:1.17.1
    2)执行create命令,创建资源:

    [root@master ~]# kubectl create -f nginxpod.yaml
    namespace/dev created
    pod/nginxpod created
    此时发现创建了两个资源对象,分别是namespace和pod

    3)执行get命令,查看资源:

    [root@master ~]#  kubectl get -f nginxpod.yaml
    NAME            STATUS   AGE
    namespace/dev   Active   18s

    NAME            READY   STATUS    RESTARTS   AGE
    pod/nginxpod    1/1     Running   0          17s
    这样就显示了两个资源对象的信息

    4)执行delete命令,删除资源:

    [root@master ~]# kubectl delete -f nginxpod.yaml
    namespace "dev" deleted
    pod "nginxpod" deleted
    此时发现两个资源对象被删除了

    总结:
        命令式对象配置的方式操作资源,可以简单的认为:命令  +  yaml配置文件(里面是命令需要的各种参数)
    声明式对象配置

    声明式对象配置跟命令式对象配置很相似,但是它只有一个命令apply。

    # 首先执行一次kubectl apply -f yaml文件,发现创建了资源
    [root@master ~]#  kubectl apply -f nginxpod.yaml
    namespace/dev created
    pod/nginxpod created

    # 再次执行一次kubectl apply -f yaml文件,发现说资源没有变动
    [root@master ~]#  kubectl apply -f nginxpod.yaml
    namespace/dev unchanged
    pod/nginxpod unchanged
    实战

    本章节将介绍如何在kubernetes集群中部署一个nginx服务,并且能够对其进行访问。
    Namespace

    ​ Namespace是kubernetes系统中的一种非常重要资源,它的主要作用是用来实现多套环境的资源隔离或者多租户的资源隔离。

    ​ 默认情况下,kubernetes集群中的所有的Pod都是可以相互访问的。但是在实际中,可能不想让两个Pod之间进行互相的访问,那此时就可以将两个Pod划分到不同的namespace下。kubernetes通过将集群内部的资源分配到不同的Namespace中,可以形成逻辑上的"组",以方便不同的组的资源进行隔离使用和管理。

    ​ 可以通过kubernetes的授权机制,将不同的namespace交给不同租户进行管理,这样就实现了多租户的资源隔离。此时还能结合kubernetes的资源配额机制,限定不同租户能占用的资源,例如CPU使用量、内存使用量等等,来实现租户可用资源的管理。

    kubernetes在集群启动之后,会默认创建几个namespace

    [root@master ~]# kubectl  get namespace
    NAME              STATUS   AGE
    default           Active   45h     #  所有未指定Namespace的对象都会被分配在default命名空间
    kube-node-lease   Active   45h     #  集群节点之间的心跳维护,v1.13开始引入
    kube-public       Active   45h     #  此命名空间下的资源可以被所有人访问(包括未认证用户)
    kube-system       Active   45h     #  所有由Kubernetes系统创建的资源都处于这个命名空间
    下面来看namespace资源的具体操作:

    查看

    # 1 查看所有的ns  命令:kubectl get ns
    [root@master ~]# kubectl get ns
    NAME              STATUS   AGE
    default           Active   45h
    kube-node-lease   Active   45h
    kube-public       Active   45h     
    kube-system       Active   45h     

    # 2 查看指定的ns   命令:kubectl get ns ns名称
    [root@master ~]# kubectl get ns default
    NAME      STATUS   AGE
    default   Active   45h

    # 3 指定输出格式  命令:kubectl get ns ns名称  -o 格式参数
    # kubernetes支持的格式有很多,比较常见的是wide、json、yaml
    [root@master ~]# kubectl get ns default -o yaml
    apiVersion: v1
    kind: Namespace
    metadata:
      creationTimestamp: "2020-04-05T04:44:16Z"
      name: default
      resourceVersion: "151"
      selfLink: /api/v1/namespaces/default
      uid: 7405f73a-e486-43d4-9db6-145f1409f090
    spec:
      finalizers:
      - kubernetes
    status:
      phase: Active

    # 4 查看ns详情  命令:kubectl describe ns ns名称
    [root@master ~]# kubectl describe ns default
    Name:         default
    Labels:      
    Annotations:  
    Status:       Active  # Active 命名空间正在使用中  Terminating 正在删除命名空间

    # ResourceQuota 针对namespace做的资源限制
    # LimitRange针对namespace中的每个组件做的资源限制
    No resource quota.
    No LimitRange resource.
    创建

    # 创建namespace
    [root@master ~]# kubectl create ns dev
    namespace/dev created
    删除

    # 删除namespace
    [root@master ~]# kubectl delete ns dev
    namespace "dev" deleted
    配置方式

    首先准备一个yaml文件:ns-dev.yaml

    apiVersion: v1
    kind: Namespace
    metadata:
      name: dev
    然后就可以执行对应的创建和删除命令了:

    ​ 创建:kubectl create -f ns-dev.yaml

    ​ 删除:kubectl delete -f ns-dev.yaml

    Pod

    Pod是kubernetes集群进行管理的最小单元,程序要运行必须部署在容器中,而容器必须存在于Pod中。

    Pod可以认为是容器的封装,一个Pod中可以存在一个或者多个容器。

    8417be0e9d764012aca5ade9aeee6fc3.png 

    kubernetes在集群启动之后,集群中的各个组件也都是以Pod方式运行的。可以通过下面命令查看:

    [root@master ~]# kubectl get pod -n kube-system
    NAMESPACE     NAME                             READY   STATUS    RESTARTS   AGE
    kube-system   coredns-6955765f44-68g6v         1/1     Running   0          2d1h
    kube-system   coredns-6955765f44-cs5r8         1/1     Running   0          2d1h
    kube-system   etcd-master                      1/1     Running   0          2d1h
    kube-system   kube-apiserver-master            1/1     Running   0          2d1h
    kube-system   kube-controller-manager-master   1/1     Running   0          2d1h
    kube-system   kube-flannel-ds-amd64-47r25      1/1     Running   0          2d1h
    kube-system   kube-flannel-ds-amd64-ls5lh      1/1     Running   0          2d1h
    kube-system   kube-proxy-685tk                 1/1     Running   0          2d1h
    kube-system   kube-proxy-87spt                 1/1     Running   0          2d1h
    kube-system   kube-scheduler-master            1/1     Running   0          2d1h
    创建并运行

    kubernetes没有提供单独运行Pod的命令,都是通过Pod控制器来实现的

    # 命令格式: kubectl run (pod控制器名称) [参数] 
    # --image  指定Pod的镜像
    # --port   指定端口
    # --namespace  指定namespace
    [root@master ~]# kubectl run nginx --image=nginx:1.17.1 --port=80 --namespace dev 
    deployment.apps/nginx created
    查看pod信息

    # 查看Pod基本信息
    [root@master ~]# kubectl get pods -n dev
    NAME                     READY   STATUS    RESTARTS   AGE
    nginx-5ff7956ff6-fg2db   1/1     Running   0          43s

    # 查看Pod的详细信息
    [root@master ~]# kubectl describe pod nginx-5ff7956ff6-fg2db -n dev
    Name:         nginx-5ff7956ff6-fg2db
    Namespace:    dev
    Priority:     0
    Node:         node1/192.168.109.101
    Start Time:   Wed, 08 Apr 2020 09:29:24 +0800
    Labels:       pod-template-hash=5ff7956ff6
                  run=nginx
    Annotations:  
    Status:       Running
    IP:           10.244.1.23
    IPs:
      IP:           10.244.1.23
    Controlled By:  ReplicaSet/nginx-5ff7956ff6
    Containers:
      nginx:
        Container ID:   docker://4c62b8c0648d2512380f4ffa5da2c99d16e05634979973449c98e9b829f6253c
        Image:          nginx:1.17.1
        Image ID:       docker-pullable://nginx@sha256:485b610fefec7ff6c463ced9623314a04ed67e3945b9c08d7e53a47f6d108dc7
        Port:           80/TCP
        Host Port:      0/TCP
        State:          Running
          Started:      Wed, 08 Apr 2020 09:30:01 +0800
        Ready:          True
        Restart Count:  0
        Environment:    
        Mounts:
          /var/run/secrets/kubernetes.io/serviceaccount from default-token-hwvvw (ro)
    Conditions:
      Type              Status
      Initialized       True
      Ready             True
      ContainersReady   True
      PodScheduled      True
    Volumes:
      default-token-hwvvw:
        Type:        Secret (a volume populated by a Secret)
        SecretName:  default-token-hwvvw
        Optional:    false
    QoS Class:       BestEffort
    Node-Selectors:  
    Tolerations:     node.kubernetes.io/not-ready:NoExecute for 300s
                     node.kubernetes.io/unreachable:NoExecute for 300s
    Events:
      Type    Reason     Age        From               Message
      ----    ------     ----       ----               -------
      Normal  Scheduled    default-scheduler  Successfully assigned dev/nginx-5ff7956ff6-fg2db to node1
      Normal  Pulling    4m11s      kubelet, node1     Pulling image "nginx:1.17.1"
      Normal  Pulled     3m36s      kubelet, node1     Successfully pulled image "nginx:1.17.1"
      Normal  Created    3m36s      kubelet, node1     Created container nginx
      Normal  Started    3m36s      kubelet, node1     Started container nginx
    访问Pod

    # 获取podIP
    [root@master ~]# kubectl get pods -n dev -o wide
    NAME                     READY   STATUS    RESTARTS   AGE    IP             NODE    ... 
    nginx-5ff7956ff6-fg2db   1/1     Running   0          190s   10.244.1.23   node1   ...

    #访问POD
    [root@master ~]# curl http://10.244.1.23:80



        Welcome to nginx!


       

    Thank you for using nginx.




    删除指定Pod

    # 删除指定Pod
    [root@master ~]# kubectl delete pod nginx-5ff7956ff6-fg2db -n dev
    pod "nginx-5ff7956ff6-fg2db" deleted

    # 此时,显示删除Pod成功,但是再查询,发现又新产生了一个 
    [root@master ~]# kubectl get pods -n dev
    NAME                     READY   STATUS    RESTARTS   AGE
    nginx-5ff7956ff6-jj4ng   1/1     Running   0          21s

    # 这是因为当前Pod是由Pod控制器创建的,控制器会监控Pod状况,一旦发现Pod死亡,会立即重建
    # 此时要想删除Pod,必须删除Pod控制器

    # 先来查询一下当前namespace下的Pod控制器
    [root@master ~]# kubectl get deploy -n  dev
    NAME    READY   UP-TO-DATE   AVAILABLE   AGE
    nginx   1/1     1            1           9m7s

    # 接下来,删除此PodPod控制器
    [root@master ~]# kubectl delete deploy nginx -n dev
    deployment.apps "nginx" deleted

    # 稍等片刻,再查询Pod,发现Pod被删除了
    [root@master ~]# kubectl get pods -n dev
    No resources found in dev namespace.
    配置操作

    创建一个pod-nginx.yaml,内容如下:

    apiVersion: v1
    kind: Pod
    metadata:
      name: nginx
      namespace: dev
    spec:
      containers:
      - image: nginx:1.17.1
        name: pod
        ports:
        - name: nginx-port
          containerPort: 80
          protocol: TCP
    然后就可以执行对应的创建和删除命令了:

    ​ 创建:kubectl create -f pod-nginx.yaml

    ​ 删除:kubectl delete -f pod-nginx.yaml

    Label

    Label是kubernetes系统中的一个重要概念。它的作用就是在资源上添加标识,用来对它们进行区分和选择。

    Label的特点:

    一个Label会以key/value键值对的形式附加到各种对象上,如Node、Pod、Service等等
    一个资源对象可以定义任意数量的Label ,同一个Label也可以被添加到任意数量的资源对象上去
    Label通常在资源对象定义时确定,当然也可以在对象创建后动态添加或者删除
    可以通过Label实现资源的多维度分组,以便灵活、方便地进行资源分配、调度、配置、部署等管理工作。

    一些常用的Label 示例如下:
    版本标签:"version":"release", "version":"stable"......
    环境标签:"environment":"dev","environment":"test","environment":"pro"
    架构标签:"tier":"frontend","tier":"backend"

    标签定义完毕之后,还要考虑到标签的选择,这就要使用到Label Selector,即:

    ​ Label用于给某个资源对象定义标识

    ​ Label Selector用于查询和筛选拥有某些标签的资源对象

    当前有两种Label Selector:

    基于等式的Label Selector
    name = slave: 选择所有包含Label中key="name"且value="slave"的对象

    env != production: 选择所有包括Label中的key="env"且value不等于"production"的对象

    基于集合的Label Selector
    name in (master, slave): 选择所有包含Label中的key="name"且value="master"或"slave"的对象

    name not in (frontend): 选择所有包含Label中的key="name"且value不等于"frontend"的对象

    标签的选择条件可以使用多个,此时将多个Label Selector进行组合,使用逗号","进行分隔即可。例如:

    ​ name=slave,env!=production

    ​ name not in (frontend),env!=production

    命令方式

    # 为pod资源打标签
    [root@master ~]# kubectl label pod nginx-pod version=1.0 -n dev
    pod/nginx-pod labeled

    # 为pod资源更新标签
    [root@master ~]# kubectl label pod nginx-pod version=2.0 -n dev --overwrite
    pod/nginx-pod labeled

    # 查看标签
    [root@master ~]# kubectl get pod nginx-pod  -n dev --show-labels
    NAME        READY   STATUS    RESTARTS   AGE   LABELS
    nginx-pod   1/1     Running   0          10m   version=2.0

    # 筛选标签
    [root@master ~]# kubectl get pod -n dev -l version=2.0  --show-labels
    NAME        READY   STATUS    RESTARTS   AGE   LABELS
    nginx-pod   1/1     Running   0          17m   version=2.0
    [root@master ~]# kubectl get pod -n dev -l version!=2.0 --show-labels
    No resources found in dev namespace.

    #删除标签
    [root@master ~]# kubectl label pod nginx-pod version- -n dev
    pod/nginx-pod labeled
    配置方式

    apiVersion: v1
    kind: Pod
    metadata:
      name: nginx
      namespace: dev
      labels:
        version: "3.0" 
        env: "test"
    spec:
      containers:
      - image: nginx:1.17.1
        name: pod
        ports:
        - name: nginx-port
          containerPort: 80
          protocol: TCP
    然后就可以执行对应的更新命令了:kubectl apply -f pod-nginx.yaml

    Deployment

    ​ 在kubernetes中,Pod是最小的控制单元,但是kubernetes很少直接控制Pod,一般都是通过Pod控制器来完成的。Pod控制器用于pod的管理,确保pod资源符合预期的状态,当pod的资源出现故障时,会尝试进行重启或重建pod。

    ​ 在kubernetes中Pod控制器的种类有很多,本章节只介绍一种:Deployment。

    35b9b1717384493fa3446df91f66c385.png 

    命令操作

    # 命令格式: kubectl run deployment名称  [参数] 
    # --image  指定pod的镜像
    # --port   指定端口
    # --replicas  指定创建pod数量
    # --namespace  指定namespace
    [root@master ~]# kubectl run nginx --image=nginx:1.17.1 --port=80 --replicas=3 -n dev
    deployment.apps/nginx created

    # 查看创建的Pod
    [root@master ~]# kubectl get pods -n dev
    NAME                     READY   STATUS    RESTARTS   AGE
    nginx-5ff7956ff6-6k8cb   1/1     Running   0          19s
    nginx-5ff7956ff6-jxfjt   1/1     Running   0          19s
    nginx-5ff7956ff6-v6jqw   1/1     Running   0          19s

    # 查看deployment的信息
    [root@master ~]# kubectl get deploy -n dev
    NAME    READY   UP-TO-DATE   AVAILABLE   AGE
    nginx   3/3     3            3           2m42s

    # UP-TO-DATE:成功升级的副本数量
    # AVAILABLE:可用副本的数量
    [root@master ~]# kubectl get deploy -n dev -o wide
    NAME    READY UP-TO-DATE  AVAILABLE   AGE     CONTAINERS   IMAGES              SELECTOR
    nginx   3/3     3         3           2m51s   nginx        nginx:1.17.1        run=nginx

    # 查看deployment的详细信息
    [root@master ~]# kubectl describe deploy nginx -n dev
    Name:                   nginx
    Namespace:              dev
    CreationTimestamp:      Wed, 08 Apr 2020 11:14:14 +0800
    Labels:                 run=nginx
    Annotations:            deployment.kubernetes.io/revision: 1
    Selector:               run=nginx
    Replicas:               3 desired | 3 updated | 3 total | 3 available | 0 unavailable
    StrategyType:           RollingUpdate
    MinReadySeconds:        0
    RollingUpdateStrategy:  25% max unavailable, 25% max surge
    Pod Template:
      Labels:  run=nginx
      Containers:
       nginx:
        Image:        nginx:1.17.1
        Port:         80/TCP
        Host Port:    0/TCP
        Environment:  
        Mounts:      
      Volumes:        
    Conditions:
      Type           Status  Reason
      ----           ------  ------
      Available      True    MinimumReplicasAvailable
      Progressing    True    NewReplicaSetAvailable
    OldReplicaSets:  
    NewReplicaSet:   nginx-5ff7956ff6 (3/3 replicas created)
    Events:
      Type    Reason             Age    From                   Message
      ----    ------             ----   ----                   -------
      Normal  ScalingReplicaSet  5m43s  deployment-controller  Scaled up replicaset nginx-5ff7956ff6 to 3

    # 删除 
    [root@master ~]# kubectl delete deploy nginx -n dev
    deployment.apps "nginx" deleted
    配置操作

    创建一个deploy-nginx.yaml,内容如下:

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: nginx
      namespace: dev
    spec:
      replicas: 3
      selector:
        matchLabels:
          run: nginx
      template:
        metadata:
          labels:
            run: nginx
        spec:
          containers:
          - image: nginx:1.17.1
            name: nginx
            ports:
            - containerPort: 80
              protocol: TCP
    然后就可以执行对应的创建和删除命令了:

    ​ 创建:kubectl create -f deploy-nginx.yaml

    ​ 删除:kubectl delete -f deploy-nginx.yaml

    Service

    通过上节课的学习,已经能够利用Deployment来创建一组Pod来提供具有高可用性的服务。

    虽然每个Pod都会分配一个单独的Pod IP,然而却存在如下两问题:

    Pod IP 会随着Pod的重建产生变化
    Pod IP 仅仅是集群内可见的虚拟IP,外部无法访问
    这样对于访问这个服务带来了难度。因此,kubernetes设计了Service来解决这个问题。

    Service可以看作是一组同类Pod对外的访问接口。借助Service,应用可以方便地实现服务发现和负载均衡。

    5cbce24e18124e49a832f326661583c6.png 

    操作一:创建集群内部可访问的Service

    # 暴露Service
    [root@master ~]# kubectl expose deploy nginx --name=svc-nginx1 --type=ClusterIP --port=80 --target-port=80 -n dev
    service/svc-nginx1 exposed

    # 查看service
    [root@master ~]# kubectl get svc svc-nginx -n dev -o wide
    NAME         TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)   AGE     SELECTOR
    svc-nginx1   ClusterIP   10.109.179.231          80/TCP    3m51s   run=nginx

    # 这里产生了一个CLUSTER-IP,这就是service的IP,在Service的生命周期中,这个地址是不会变动的
    # 可以通过这个IP访问当前service对应的POD
    [root@master ~]# curl 10.109.179.231:80



    Welcome to nginx!


    Welcome to nginx!


    .......


    操作二:创建集群外部也可访问的Service

    # 上面创建的Service的type类型为ClusterIP,这个ip地址只用集群内部可访问
    # 如果需要创建外部也可以访问的Service,需要修改type为NodePort
    [root@master ~]# kubectl expose deploy nginx --name=svc-nginx2 --type=NodePort --port=80 --target-port=80 -n dev
    service/svc-nginx2 exposed

    # 此时查看,会发现出现了NodePort类型的Service,而且有一对Port(80:31928/TC)
    [root@master ~]# kubectl get svc  svc-nginx-1  -n dev -o wide
    NAME          TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)        AGE    SELECTOR
    svc-nginx2    NodePort    10.100.94.0              80:31928/TCP   9s     run=nginx

    # 接下来就可以通过集群外的主机访问 节点IP:31928访问服务了
    # 例如在的电脑主机上通过浏览器访问下面的地址
    http://192.168.109.100:31928/
    删除Service

    [root@master ~]# kubectl delete svc svc-nginx-1 -n dev                                   service "svc-nginx-1" deleted
    配置方式

    创建一个svc-nginx.yaml,内容如下:

    apiVersion: v1
    kind: Service
    metadata:
      name: svc-nginx
      namespace: dev
    spec:
      clusterIP: 10.109.179.231
      ports:
      - port: 80
        protocol: TCP
        targetPort: 80
      selector:
        run: nginx
      type: ClusterIP
    然后就可以执行对应的创建和删除命令了:

    ​ 创建:kubectl create -f svc-nginx.yaml

    ​ 删除:kubectl delete -f svc-nginx.yaml

    小结
    ​ 至此,已经掌握了Namespace、Pod、Deployment、Service资源的基本操作,有了这些操作,就可以在kubernetes集群中实现一个服务的简单部署和访问了,但是如果想要更好的使用kubernetes,就需要深入学习这几种资源的细节和原理。

  • 相关阅读:
    001、Nvidia Jetson Nano Developer KIT(b01)-系统与登录
    Spring事务简介、事务管理器
    聊一聊异构系统间数据一致性
    计算机系统基础第六周作业
    mininet 和 ryu 的安装
    java计算机毕业设计springboot+vue网络体检服务系统
    docker容器导出报错
    yum小bug
    不懂就问,快速成为容器服务进阶玩家!
    数字化文化的守护之星:十八数藏的非遗创新之道
  • 原文地址:https://blog.csdn.net/m0_72088858/article/details/126926240