• k8s集群搭建及对一些组件的简单理解(二)


    背景#

    前面写了一篇,k8s集群搭建及对一些组件的简单理解(一),主要讲了下背景和对一些组件的理解。

    今天讲一下正式的安装,有网环境的,后续再说下无外网环境纯内网的。

    k8s集群节点、组件#

    控制面节点,一般就是部署了如下组件:etcd、apiserver、kube-scheduler、kube-controller-manager,由于这些组件都是面向用户,通过kubectl或者UI来接收用户的请求,并对用户请求做出响应。

    这些组件收到请求后,开始处理请求,如用户希望运行pod,则这些组件会寻找某个合适的node来部署pod,因此,实际运行用户pod的节点,一般认为是数据面节点。

    这些概念可参考:https://kubernetes.io/docs/concepts/overview/components/

    控制面中的组件,理论上是可以分布在任意node,但是安装脚本一般选择将这些组件安装在同一台机器上,并且不在这些机器上运行用户的pod;为了高可用,还会在多台机器上来部署这些控制面组件,因此,我们可以把这些机器叫做控制面节点。

    image-20240623115937949

    上图可以看出,控制面节点中只包含了api-server/etcd/kube-scheduler等组件,实际上,控制面并没有强制说一定不能运行用户pod,而且,在我们使用kubeadm搭建集群时,一般控制面节点会同时包含控制面组件和数据面节点的组件(kubelet、kube-proxy、容器运行时等)。

    下面是我整理的图,利用kubeadm搭建完控制面节点后,里面包含了:

    • 6个pod(4个绿色部分的:etcd、api-server、scheduler、control-manager;2个灰色部分:coredns、kube-proxy),这些pod可以理解为6个后台进程

    • 3个由systemctl管理的service:

      /usr/lib/systemd/system/kubelet.service

      /usr/lib/systemd/system/cri-docker.service

      /usr/lib/systemd/system/docker.service

      这3个service,也可以理解为3个后台进程,只是不是pod容器方式运行的;

      这3个service,也变相地提供了3个二进制文件给我们用:kubelet、cri-docker、dokcer

    • 2个cli:kubectl和kubeadm,这两个不是后台进程,只是单纯的cli客户端

    k8s控制面节点组件

    第一次装的时候,面对这近10个进程、几个cli,几个cli名字还像,真是有点晕。搞了几次后,稍微清晰点了,下面就正式开始安装的部署。

    我们的机器配置:

    virtualbox搞了两个干净的虚拟机,里面啥都没安装,但是有外网。

    10.0.2.8 node4,准备作为主节点

    10.0.2.9 node5,准备作为工作节点

    操作系统都是centos 7.9。

    容器运行时#

    参考文档:

    https://kubernetes.io/docs/setup/production-environment/container-runtimes/

    这里选择docker,这个个人用习惯了,空了再学其他的吧。

    前置条件#

    • ip转发

    文档里提到,linux默认未开启ip转发,而k8s的很多网络插件都需要这个特性,所以需要打开。

    By default, the Linux kernel does not allow IPv4 packets to be routed between interfaces. Most Kubernetes cluster networking implementations will change this setting (if needed)

    Copy
    # sysctl params required by setup, params persist across reboots cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf net.ipv4.ip_forward = 1 EOF # Apply sysctl params without reboot sudo sysctl --system 检查是否已经设为1: sysctl net.ipv4.ip_forward
    • cgroup drivers

    https://kubernetes.io/docs/setup/production-environment/container-runtimes/

    在linux中,control group用于对进程可以使用的资源进行限制。而kubelet和容器运行时,都需要和control group打交道,对pod和容器的资源进行管理、对其可以使用的cpu、内存等资源进行限制。要和control group打交道,也不是直接打交道,而是要通过一个control group driver,感觉可以理解为驱动。很重要的一点是,容器运行时和kubelet,需要保证使用同样的cgroup driver。

    目前有两种cgroup driver:cgroupfs、systemd。

    cgroupfs是kubelet中默认的driver,fs表示文件系统file system的意思,它是 cgroup 的文件系统接口,用户可以操作对应的文件来进行资源控制。

    默认的目录为:/sys/fs/cgroup。我们系统下:

    Copy
    [root@node4 ~]# ll /sys/fs/cgroup total 0 drwxr-xr-x. 2 root root 0 Jun 23 12:53 blkio lrwxrwxrwx. 1 root root 11 Jun 23 12:53 cpu -> cpu,cpuacct lrwxrwxrwx. 1 root root 11 Jun 23 12:53 cpuacct -> cpu,cpuacct drwxr-xr-x. 2 root root 0 Jun 23 12:53 cpu,cpuacct drwxr-xr-x. 2 root root 0 Jun 23 12:53 cpuset drwxr-xr-x. 4 root root 0 Jun 23 12:53 devices drwxr-xr-x. 2 root root 0 Jun 23 12:53 freezer drwxr-xr-x. 2 root root 0 Jun 23 12:53 hugetlb drwxr-xr-x. 2 root root 0 Jun 23 12:53 memory lrwxrwxrwx. 1 root root 16 Jun 23 12:53 net_cls -> net_cls,net_prio drwxr-xr-x. 2 root root 0 Jun 23 12:53 net_cls,net_prio lrwxrwxrwx. 1 root root 16 Jun 23 12:53 net_prio -> net_cls,net_prio drwxr-xr-x. 2 root root 0 Jun 23 12:53 perf_event drwxr-xr-x. 2 root root 0 Jun 23 12:53 pids drwxr-xr-x. 4 root root 0 Jun 23 12:53 systemd

    总之,简单理解,这种driver是直接操作这个目录下的文件来和内核中的control group交互,比如可以在这边创建一个group,然后把某些进程的pid加入,这样,这些pid就会应用这个group的资源限制配置。

    但是,在systemd管理的系统中(比如centos 7基本就是systemd管理的),就不推荐使用这种cgroupfs驱动了。

    因为,在这种系统中,systemd会为每一个unit配置一个control group,比如:

    https://serverfault.com/questions/683911/use-of-cpuquota-in-systemd

    Copy
    [Unit] Description=Virtual Distributed Ethernet [Service] ExecStart=/usr/bin/ddcommand CPUQuota=10% [Install] WantedBy=multi-user.target

    这里面就通过CPUQuota限制了可以使用的cpu为10%。

    关于systemd的资源限制这块,可以查看: man systemd.resource-control

    因此,在这种systemd系统中,就得统一都使用systemd这种cgroup driver。

    后面再说说具体怎么设置。

    docker 安装#

    我们准备采用yum安装,这种安装之后,rpm包就找不到了,由于我们需要把rpm包保存下来供后面搭建内网k8s,所以我们就先把rpm包下载下来再手动安装。

    参考文档:https://docs.docker.com/engine/install/centos/

    在yum安装前,得先安装docker的yum仓库,否则,你直接yum安装的话,可能版本会非常老。比如,在centos 7.9中:

    Copy
    [root@node4 ~]# yum info docker Available Packages Name : docker Arch : x86_64 Epoch : 2 Version : 1.13.1 Release : 210.git7d71120.el7.centos Size : 17 M Repo : extras/7/x86_64

    这个就是1.13.1,该版本是2017年的:https://docs.docker.com/engine/release-notes/prior-releases/

    后来改成了17.03这样的格式(一开始说是YY.MM格式,现在也不是很遵从了),最近几年的几个版本是23.0/24.0/25.0/26.0,目前最新是26.1。

    所以,要安装新版本,先弄一下docker的yum仓库。

    Copy
    官方是这个,但是被q了: sudo yum install -y yum-utils sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo 那就搞个镜像,如果大家使用云服务器的话,可以找找自己云厂商提供的docker镜像,有的是只给自己的云服务器用的,这种一般速度比较快: wget -O /etc/yum.repos.d/docker-ce.repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

    下载rpm包:

    Copy
    [root@node4 ~]# mkdir /root/docker-package [root@node4 ~]# cd /root/docker-package/ [root@node4 docker-package]# yumdownloader --resolve --destdir=. docker-ce docker-ce-cli containerd.io 我们没安装docker-buildx-plugin docker-compose-plugin,暂时感觉用不上。 下载完成后,查看: [root@node4 docker-package]# ll total 118488 -rw-r--r--. 1 root root 78256 Aug 23 2019 audit-libs-python-2.8.5-4.el7.x86_64.rpm -rw-r--r--. 1 root root 302068 Nov 12 2018 checkpolicy-2.5-8.el7.x86_64.rpm -rw-r--r--. 1 root root 37045876 Jun 21 18:38 containerd.io-1.6.33-3.1.el7.x86_64.rpm ...

    使用rpm包安装:

    Copy
    rpm -ivh *.rpm

    安装完成后,会有多个systemd管理的unit:

    Copy
    cd /usr/lib/systemd/system ll -rw-r--r-- 1 root root 1264 Jun 5 16:36 containerd.service -rw-r--r-- 1 root root 295 Jun 5 19:31 docker.socket -rw-r--r-- 1 root root 1962 Jun 5 19:31 docker.service

    然后就是设置下docker的配置文件(没有就新建):

    Copy
    [root@app1 ~]# vim /etc/docker/daemon.json { "exec-opts": ["native.cgroupdriver=systemd"], "log-driver": "json-file", "log-opts": { "max-size": "100m" }, "debug": true }

    如果需要配私服、镜像的,也基本就是改这个文件,比如增加如下行,我就先不加了:

    Copy
    "registry-mirrors": ["http://10.0.218.xxx:8083"], "insecure-registries": ["http://10.0.218.xxx:8083"]

    启动服务:

    Copy
    systemctl start docker systemctl status docker 开机启动: systemctl enable docker 检查是否cgroup driver为systemd: [root@app1 cri-docker]# docker info|grep group Cgroup Driver: systemd Cgroup Version: 1

    检查下能拉不:

    Copy
    [root@node4 docker-package]# docker pull hello-world Using default tag: latest latest: Pulling from library/hello-world c1ec31eb5944: Retrying in 1 second error pulling image configuration: download failed after attempts=6: dial tcp 103.252.114.61:443: i/o timeout 拉不下来,也可以查看下日志: journalctl -u docker 实时查看: journalctl -u docker -f

    嗯,不能。。。因为docker pull的时候要去访问一些网站https://production.cloudflare.docker.com,被q了。

    那如果不学上网技术,就只能使用docker.io这个官方仓库的国内镜像仓库了。

    我一开始看到网上总结的几个镜像站:

    docker.io mirror.ccs.tencentyun.com 仅腾讯云vpc内部访问, registry2 proxy
    docker.nju.edu.cn 南京大学开源镜像站, nexus3
    docker.mirrors.sjtug.sjtu.edu.cn 上海交通大学, registry2 proxy
    docker.m.daocloud.io 国内可用, 带宽低
    *****.mirror.aliyuncs.com 国内可用,更新慢

    除了腾讯是内部用(云服务器上可以用),其他的,除了倒数第二个,其他的几个全用不了了。(当前时间20240623)。

    Copy
    docker pull docker.m.daocloud.io/hello-world [root@node4 docker-package]# docker images REPOSITORY TAG IMAGE ID CREATED SIZE docker.m.daocloud.io/hello-world latest d2c94e258dcb 13 months ago 13.3kB

    另外,可以关注下docker对外部提供的接口,为domain unix socket:

    Copy
    [root@node4 docker-package]# netstat -nlp |grep docker unix 2 [ ACC ] STREAM LISTENING 40562 1/systemd /run/docker.sock

    cri-docker 安装#

    https://mirantis.github.io/cri-dockerd/

    cri-docker是docker公司和Mirantis 公司(docker商业化公司)来维护,实现了k8s的CRI接口,将CRI接口进行适配,转换为对docker的调用并响应。

    安装的话,最简单就是安装rpm包 ,https://github.com/Mirantis/cri-dockerd/releases这里下载即可。

    我这边下载的是cri-dockerd-0.3.14-3.el7.x86_64.rpm。

    Copy
    cd /root/upload 上传rpm rpm -ivh cri-dockerd-0.3.14-3.el7.x86_64.rpm

    安装完成后,会有如下service:

    Copy
    /usr/lib/systemd/system/cri-docker.service 查看内容,主要命令就是: ExecStart=/usr/bin/cri-dockerd --container-runtime-endpoint fd://

    查看帮助:

    Copy
    /usr/bin/cri-dockerd -h 这个里面选项不少,要多看看。 比如这里就可以指定docker的socket的地址: --docker-endpoint string Use this for the docker endpoint to communicate with. (default "unix:///var/run/docker.sock") 还可以指定pod中的基础容器的镜像坐标: --pod-infra-container-image string The image whose network/ipc namespaces containers in each pod will use (default "registry.k8s.io/pause:3.9")

    启动:

    Copy
    [root@node4 upload]# systemctl start cri-docker [root@node4 upload]# systemctl status cri-docker

    它监听的端口为/run/cri-dockerd.sock或者/var/run/cri-dockerd.sock,这两个指向同一个文件:

    Copy
    [root@node4 upload]# netstat -nlxp|grep cri unix 2 [ ACC ] STREAM LISTENING 68693 1/systemd /run/cri-dockerd.sock

    日志查看:

    Copy
    journalctl -u cri-docker

    kubelet安装#

    https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/install-kubeadm/

    前置#

    https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/install-kubeadm/#before-you-begin

    关闭SeLinux:

    Copy
    sudo setenforce 0 sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config

    关闭swap:

    Copy
    sudo vi /etc/fstab 注释掉如下行: # /dev/mapper/centos-swap swap swap defaults 0 0 [root@app1 ~]# sudo swapoff -a 检查: [root@app1 ~]# free -h

    安装kubelet#

    Copy
    cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=https://pkgs.k8s.io/core:/stable:/v1.30/rpm/ enabled=1 gpgcheck=1 gpgkey=https://pkgs.k8s.io/core:/stable:/v1.30/rpm/repodata/repomd.xml.key exclude=kubelet kubeadm kubectl cri-tools kubernetes-cni EOF

    然后,首先安装kubelet:

    Copy
    rpm安装: mkdir /root/kubelet-kubeadm cd /root/kubelet-kubeadm yumdownloader --resolve --destdir=. kubelet --disableexcludes=kubernetes rpm -ivh *.rpm 如果直接装就是: yum install kubelet --disableexcludes=kubernetes

    可以观察到,其依赖于:kubernetes-cni这个包。

    Copy
    /usr/lib/systemd/system/kubelet.service systemctl status kubelet cd /usr/lib/systemd/system/ [root@node4 system]# ll kubelet* -rw-r--r--. 1 root root 278 Jun 12 05:15 kubelet.service

    我们如果此时启动,大家看看效果:

    Copy
    systemctl start kubelet systemctl enable kubelet systemctl status kubelet 是启动失败的。 查看日志: journalctl -u kubelet

    image-20240623152551701

    可以发现,此时进入的是standalone模式,这个模式下,kubelet可以独立管理pod,不需要api-server的存在,具体大家可以搜一下。

    安装kubeadm#

    Copy
    rpm安装: cd /root/kubelet-kubeadm yumdownloader --resolve --destdir=. kubeadm --disableexcludes=kubernetes rpm -ivh *.rpm 如果直接装就是: yum install kubeadm --disableexcludes=kubernetes 发现其会依赖cri-tools

    对kubelet的影响#

    安装完成后,我们再去看kubelet的service目录下:

    Copy
    cd /usr/lib/systemd/system/ [root@node4 system]# ll kubelet* -rw-r--r--. 1 root root 278 Jun 12 05:15 kubelet.service kubelet.service.d: total 4 -rw-r--r--. 1 root root 900 Jun 12 05:14 10-kubeadm.conf

    发现多了个目录,目录下还有配置文件10-kubeadm.conf. 这个配置文件其实就是给kubelet指定了些配置,比如后续怎么去连接api-server(就不在是standalone模式了)、以及指定了一些kubelet自身的配置项

    image-20240623153350228

    另外,也可以查看下kubelet的选项,非常多:

    Copy
    [root@node4 system]# /usr/bin/kubelet -h

    kubeadm的流程#

    此时,其实就可以准备创建集群了。语法很简单:

    Copy
    kubeadm init --pod-network-cidr=192.168.0.0/16 --cri-socket unix:///var/run/cri-dockerd.sock --kubernetes-version v1.30.1 --v=5

    具体选项可以看:

    Copy
    kubeadm init -h

    我们指定的选项的意思:

    Copy
    --pod-network-cidr,这个是部分cni插件需要指定,我们选的是calico,去calico官网查看文档,发现其默认需要这么指定:192.168.0.0/16,意思就是pod的ip的网段 --cri-socket,这个是因为我们机器上,既有cri-docker,又有containerd,两个cri实现,必须手动指定一个。 --kubernetes-version v1.30.1,联网环境下可以不指定,就是指定k8s的版本;离线环境下指定了就不用去联网发请求 --v,日志级别

    但,实际这样还不够,k8s的控制面组件不是有好几个pod吗,pod内容器的镜像,是维护在registry.k8s.io这个仓库下的。

    我们直接去拉取镜像会失败:

    Copy
    [root@node4 system]# docker pull registry.k8s.io/kube-apiserver:v1.30.1 Error response from daemon: Head "https://asia-east1-docker.pkg.dev/v2/k8s-artifacts-prod/images/kube-apiserver/manifests/v1.30.1": dial tcp: lookup asia-east1-docker.pkg.dev on 10.0.2.1:53: no such host

    这些网址是由Google团队提供的,被q了。

    所以,我们只能找找registry.k8s.io的镜像仓库,我这边用的registry-k8s-io.mirrors.sjtug.sjtu.edu.cn。

    因此,最后命令是:

    Copy
    kubeadm init --image-repository registry-k8s-io.mirrors.sjtug.sjtu.edu.cn --pod-network-cidr=192.168.0.0/16 --cri-socket unix:///var/run/cri-dockerd.sock --kubernetes-version v1.30.1 --v=5

    另外,我们加上--dry-run,先试着跑一下,但是,我建议,还是先提前拉取好镜像,再来跑这个好一点:

    Copy
    kubeadm init --image-repository registry-k8s-io.mirrors.sjtug.sjtu.edu.cn --pod-network-cidr=192.168.0.0/16 --cri-socket unix:///var/run/cri-dockerd.sock --kubernetes-version v1.30.1 --v=5 --dry-run

    为啥呢,因为k8s这几个组件的镜像大小有大几百兆,所以界面会一直卡在这里,不知道后台到底怎么样了,是卡死了还是怎么了。

    我们如果要提前拉取镜像,先得知道要拉取哪些镜像:

    Copy
    [root@node4 system]# kubeadm config images list registry.k8s.io/kube-apiserver:v1.30.2 registry.k8s.io/kube-controller-manager:v1.30.2 registry.k8s.io/kube-scheduler:v1.30.2 registry.k8s.io/kube-proxy:v1.30.2 registry.k8s.io/coredns/coredns:v1.11.1 registry.k8s.io/pause:3.9 registry.k8s.io/etcd:3.5.12-0

    然后,转换为:

    Copy
    docker pull registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/kube-apiserver:v1.30.2 docker pull registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/kube-controller-manager:v1.30.2 docker pull registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/kube-scheduler:v1.30.2 docker pull registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/kube-proxy:v1.30.2 docker pull registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/coredns/coredns:v1.11.1 docker pull registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/pause:3.9 docker pull registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/etcd:3.5.12-0

    docker images,确保镜像都存在了,再次运行:

    发现会卡在一个拉取coreDns的地方,

    Copy
    pulling: registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/coredns:v1.11.1

    这个主要是两个仓库的标签打得有点不一样,我们就把我们已经存在的镜像,重新打个tag:

    Copy
    docker tag registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/coredns/coredns:v1.11.1 registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/coredns:v1.11.1

    结果再次运行,发现还是卡:

    Copy
    [api-check] Waiting for a healthy API server. This can take up to 4m0s

    检查了几个服务的日志,发现docker日志显示还在拉取:

    Copy
    ... registry.k8s.io/pause from https://registry.k8s.io

    后面查了下,是因为就是我们忽略了一句kubeadm打印的提示:

    Copy
    W0623 16:26:12.928077 22235 checks.go:844] detected that the sandbox image "registry.k8s.io/pause:3.9" of the container runtime is inconsistent with that used by kubeadm.It is recommended to use "registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/pause:3.9" as the CRI sandbox image.

    我们在cri-docker那里,需要修改下镜像坐标。

    Copy
    ExecStart=/usr/bin/cri-dockerd --container-runtime-endpoint fd:// --pod-infra-container-image registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/pause:3.9
    Copy
    systemctl daemon-reload systemctl restart cri-docker

    再次执行,又说一堆东西已经存在了。我们可以先reset下:

    Copy
    kubeadm reset -f --cri-socket unix:///var/run/cri-dockerd.sock

    这次基本就能成功了,把最下面的命令存下来:

    Copy
    Your Kubernetes control-plane has initialized successfully! To start using your cluster, you need to run the following as a regular user: mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config Alternatively, if you are the root user, you can run: export KUBECONFIG=/etc/kubernetes/admin.conf You should now deploy a pod network to the cluster. Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at: https://kubernetes.io/docs/concepts/cluster-administration/addons/ Then you can join any number of worker nodes by running the following on each as root: kubeadm join 10.0.2.x:6443 --token k3nmtk.kx1k6cbxbsuaqysd \ --discovery-token-ca-cert-hash sha256:9659ceb5bf342b1a9fa1ef1888a3ce26a1f9c881dbbf4bbadcbb62d5dcde37dd

    安装kubectl#

    这个东西是啥呢,只是个cli,客户端工具,给我们用的,就像redis-cli和mysql命令行客户端一样,主要是和控制面组件中的api-server进行交互。

    事实上,各个容器厂商都是做一套界面出来给用户用的,也是直接对接api-server。

    这里我们安装下。

    Copy
    rpm安装: cd /root/kubelet-kubeadm yumdownloader --resolve --destdir=. kubectl --disableexcludes=kubernetes rpm -ivh *.rpm 如果直接装就是: yum install kubectl --disableexcludes=kubernetes

    然后执行下:

    Copy
    [root@node4 system]# kubectl get pods -A E0623 16:40:18.035470 25920 memcache.go:265] couldn't get current server API group list: Get "http://localhost:8080/api?timeout=32s": dial tcp [::1]:8080: connect: connection refused

    因为还需要指定api-server的地址:

    Copy
    mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config

    再来:

    Copy
    [root@node4 system]# kubectl get pods -A NAMESPACE NAME READY STATUS RESTARTS AGE kube-system coredns-86c4446b65-6sr2p 0/1 Pending 0 7m13s kube-system coredns-86c4446b65-n4xcl 0/1 Pending 0 7m13s kube-system etcd-node4 1/1 Running 0 7m28s kube-system kube-apiserver-node4 1/1 Running 0 7m28s kube-system kube-controller-manager-node4 1/1 Running 0 7m28s kube-system kube-proxy-rxxc9 1/1 Running 0 7m13s kube-system kube-scheduler-node4 1/1 Running 0 7m28s

    可以发现,coreDns这两个pod是pending状态。看一下这个pod的状态:发现是说没有可用的ready的node。

    Copy
    [root@node4 system]# kubectl get nodes -A NAME STATUS ROLES AGE VERSION node4 NotReady control-plane 13m v1.30.2

    我们的node确实是NotReady。

    Copy
    [root@node4 system]# kubectl describe node node4 ... Ready False Sun, 23 Jun 2024 16:43:43 +0800 Sun, 23 Jun 2024 16:33:18 +0800 KubeletNotReady container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized

    里面可以看到,是因为cni网络插件尚未ready的原因。

    安装网络插件calico#

    网络插件有好多种,主流用的也有好几种,各种的差别后面我们再讲,其中呢,calico算是一款优秀的网络插件。

    https://docs.tigera.io/calico/latest/getting-started/kubernetes/quickstart

    安装operator#

    Copy
    wget https://raw.githubusercontent.com/projectcalico/calico/v3.28.0/manifests/tigera-operator.yaml 执行: k create -f tigera-operator.yaml 执行完后,会新增一个pod: [root@node4 calico-install]# kubectl get pods -A |grep tigera tigera-operator tigera-operator-5ddc799ffd-fqsps 0/1 ContainerCreating 0 49s

    这里又涉及到拉取镜像,这次的镜像是在:

    Copy
    [root@node4 calico-install]# grep image tigera-operator.yaml |grep quay image: quay.io/tigera/operator:v1.34.0

    还好,这个quay.io/tigera/operator:v1.34.0直接网络可以拉取。。不需要镜像

    运行网络插件相关pod#

    https://docs.tigera.io/calico/latest/getting-started/kubernetes/quickstart

    Copy
    wget https://raw.githubusercontent.com/projectcalico/calico/v3.28.0/manifests/custom-resources.yaml // 这个动作又要拉取镜像,有大几百兆 kubectl create -f custom-resources.yaml

    我在我以前成功的机器上看了下,拉取了这些(版本不一定和最新一样):

    Copy
    [root@app1 ~]# docker images |grep calico calico/typha v3.28.0 a9372c0f51b5 71.1MB calico/kube-controllers v3.28.0 428d92b02253 79.1MB calico/apiserver v3.28.0 6c07591fd1cf 97.9MB calico/cni v3.28.0 107014d9f4c8 209MB calico/node-driver-registrar v3.28.0 0f80feca743f 23.5MB calico/csi v3.28.0 1a094aeaf152 18.3MB calico/pod2daemon-flexvol v3.28.0 587b28ecfc62 13.4MB calico/node v3.28.0 4e42b6f329bc 353MB

    我看了下docker日志,发现又跑去docker.io这个官方仓库拉取calico镜像去了,这尼玛。还是得配个镜像仓库啊。

    Copy
    vim /etc/docker/daemon.json { "exec-opts": ["native.cgroupdriver=systemd"], "log-driver": "json-file", "log-opts": { "max-size": "100m" }, "debug": true, "registry-mirrors": ["https://docker.m.daocloud.io"] }

    只要镜像下下来了,就没问题了,等一会,pod就会就绪,coreDns也会就绪:

    image-20240623173939648

    worker节点安装#

    10.0.2.9 node5

    容器运行时#

    参照主节点,全都需要执行。

    rpm包我们scp拷贝过去。

    Copy
    scp * 10.0.2.9:/root/docker-package
    Copy
    scp /etc/docker/daemon.json 10.0.2.9:/etc/docker/daemon.json
    Copy
    systemctl start docker systemctl status docker systemctl enable docker

    cri-docker安装#

    参照主节点。

    记得修改service文件:

    Copy
    /usr/lib/systemd/system/cri-docker.service 加参数: --pod-infra-container-image registry-k8s-io.mirrors.sjtug.sjtu.edu.cn/pause:3.9 systemctl start cri-docker systemctl status cri-docker systemctl enable cri-docker

    kubelet安装#

    Copy
    直接装,或者拿主节点的rpm来装: yum install kubelet --disableexcludes=kubernetes
    Copy
    systemctl start kubelet systemctl enable kubelet

    kubeadm安装#

    Copy
    直接装,或者拿主节点的rpm来装: yum install kubeadm --disableexcludes=kubernetes

    拷贝并加载镜像#

    从主节点中,执行:

    Copy
    [root@node4 docker-package]# docker save -o calico_images.tar $(docker images --format "{{.Repository}}:{{.Tag}}" | grep "^calico") [root@node4 docker-package]# docker save -o pause.tar $(docker images --format "{{.Repository}}:{{.Tag}}" | grep "pause") [root@node4 docker-package]# docker save -o kube-proxy.tar $(docker images --format "{{.Repository}}:{{.Tag}}" | grep "kube-proxy") [root@node4 docker-package]# scp calico_images.tar pause.tar kube-proxy.tar 10.0.2.9:/root/images-for-load

    在worker节点上:

    Copy
    cd /root/images-for-load docker load < kube-proxy.tar docker load < calico_images.tar docker load < pause.tar docker images

    join集群#

    找出之前存下来的join语句:

    Copy
    kubeadm join 10.0.2.8:6443 --token k3nmtk.kx1k6cbxbsuaqysd \ --discovery-token-ca-cert-hash sha256:9659ceb5bf342b1a9fa1ef1888a3ce26a1f9c881dbbf4bbadcbb62d5dcde37dd --cri-socket unix:///var/run/cri-dockerd.sock --v=5

    image-20240623182820091

    注意,worker节点不能执行kubectl是正常的,因为一般是在控制节点上执行kubectl。当然,如果有需要,也可以像主节点那样操作,弄一下就行了。

    测试#

    我这边在主节点上:

    Copy
    kubectl create deploy www-nginx-demo --image nginx --replicas=2

    如果发现调度到了两台机器上,等nginx镜像拉取完成后(在主、工作节点都要拉取),可以看到pod状态变成正常。

    image-20240623183525165

    在主节点上,直接访问pod:

    image-20240623183608453

    在工作节点上,直接访问pod:

    image-20240623183644084

    容器到容器的网络也是通的,只是容器内太简单了,缺少ping这些基础的工具,以后再说说这块。

    总结#

    后续再讲下完全没有网络的环境中的安装吧,也算是给自己备忘了。




  • 相关阅读:
    SHC加密sh脚本
    阿里低代码Low Code Engine快速上手
    JVM性能——垃圾回收器的优化策略
    【LeetCode】Day187-分割回文串
    Javase.String 类
    宝,运维100+服务器很头疼怎么办?用行云管家!
    java 下对字符串的格式化
    (二)Pytorch快速搭建神经网络模型实现气温预测回归(代码+详细注解)
    手机怎么看WiFi的IP地址
    NOI评测系统使用指南,在家实现评测自由
  • 原文地址:https://www.cnblogs.com/grey-wolf/p/18268158