• K8S-高可用集群


    高可用集群

    架构

    为了防止Master节点掉线,可用通过一些高可用方案对集群进行改造

    对于apiserver的访问通过Haproxy或Nginx集群进行反向代理,反向代理集群中使用Keepalived

    Haproxy和Nginx

    Nginx 负载均衡器的特点是:

    1. 工作在网络的 7 层之上,可以针对 http 应用做一些分流的策略,比如针对域名、目录结构;
    2. Nginx 安装和配置比较简单,测试起来比较方便;
    3. 也可以承担高的负载压力且稳定,一般能支撑超过上万次的并发;
    4. Nginx 可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点,不过其中缺点就是不支持 url 来检测;
    5. Nginx 对请求的异步处理可以帮助节点服务器减轻负载;
    6. Nginx 能支持 http 和 Email,这样就在适用范围上面小很多;
    7. 默认有三种调度算法: 轮询、weight 以及 ip_hash(可以解决会话保持的问题),还可以支持第三方的 fair 和 url_hash 等调度算法;

    HAProxy 的特点是:

    1. HAProxy 是工作在网络 7 层之上;
    2. 支持 Session 的保持,Cookie 的引导等;
    3. 支持 url 检测后端的服务器出问题的检测会有很好的帮助;
    4. 支持的负载均衡算法:动态加权轮循(Dynamic Round Robin),加权源地址哈希(Weighted Source Hash),加权 URL 哈希和加权参数哈希(Weighted Parameter Hash);
    5. 单纯从效率上来讲 HAProxy 更会比 Nginx 有更出色的负载均衡速度;
    6. HAProxy 可以对 Mysql 进行负载均衡,对后端的 DB 节点进行检测和负载均衡。
    Keepalived

    Keepalived 的主要功能是实现真实机的故障隔离及负载均衡器间的失败切换,提高系统的可用性。Keepalived以VRRP协议为实现基础,VRRP是Virtual Router Redundancy Protocol(虚拟路由冗余协议)的缩写,VRRP协议将两台或多台路由器设备虚拟成一个设备,对外提供虚拟路由器IP(一个或多个)。

    运行原理:keepalived 通过选举(看服务器设置的权重)挑选出一台热备服务器做 MASTER 机器,MASTER 机器会被分配到一个指定的虚拟 ip,外部程序可通过该 ip 访问这台服务器,如果这台服务器出现故障(断网,重启,或者本机器上的 keepalived crash 等),keepalived 会从其他的备份机器上重选(还是看服务器设置的权重)一台机器做 MASTER 并分配同样的虚拟 IP,充当前一台 MASTER 的角色。

    选举策略:选举策略是根据 VRRP 协议,完全按照权重大小,权重最大(0~255)的是 MASTER 机器,下面几种情况会触发选举

    1. keepalived 启动的时候;
    2. master 服务器出现故障(断网,重启,或者本机器上的 keepalived crash 等,而本机器上其他应用程序 crash 不算);
    3. 有新的备份服务器加入且权重最大。

    集群构建环境初始化

    # 设置主机名
    hostnamectl set-hostname k8s-master01
    # 让每台机子可以相互解析 在添加
    vi /etc/hosts
    192.168.1.10 k8s-master01
    192.168.1.20 k8s-master02
    192.168.1.21 k8s-master03
    192.168.1.100 k8s-vip
    # hosts复制到别的虚拟机
    scp /etc/hosts root@k8s-master02:/etc/hosts
    
    # 安装依赖包
    yum install -y conntrack ntpdate ntp ipvsadm ipset jq iptables curl sysstat libseccomp wget vim net-tools git
    # 关闭防火墙
    swapoff -a && sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
    setenforce 0 && sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config
    
    # 调整内核参数,对于K8S
    cat > /etc/sysctl.d/kubernetes.conf << EOF
    net.bridge.bridge-nf-call-iptables=1
    net.bridge.bridge-nf-call-ip6tables=1
    net.ipv4.ip_forward=1
    net.ipv4.ip_nonlocal_bind = 1
    net.ipv4.tcp_tw_recycle=0
    vm.swappiness=0 # 禁止使用 swap 空间,只有当系统 OOM 时才允许使用它
    vm.overcommit_memory=1 # 不检查物理内存是否够用
    vm.panic_on_oom=0 # 开启 OOM
    fs.inotify.max_user_instances=8192
    fs.inotify.max_user_watches=1048576
    fs.file-max=52706963
    fs.nr_open=52706963
    net.ipv6.conf.all.disable_ipv6=1
    net.netfilter.nf_conntrack_max=2310720
    EOF
    
    sysctl -p /etc/sysctl.d/kubernetes.conf
    
    # 调整系统时区
    #设置系统时区为 中国/上海
    timedatectl set-timezone Asia/Shanghai 
    #将当前的 UTC 时间写入硬件时钟 
    timedatectl set-local-rtc 0
    #重启依赖于系统时间的服务
    systemctl restart rsyslog
    systemctl restart crond
    # 关闭不需要的服务
    systemctl stop postfix && systemctl disable postfix
    
    # 设置 rsyslogd 和 systemd journald
    #创建持久化保存日志的目录
    mkdir /var/log/journal
    mkdir /etc/systemd/journald.conf.d
    cat > /etc/systemd/journald.conf.d/99-prophet.conf <<EOF
    [Journal]
    #持久化保存到磁盘
    Storage=persistent
    #压缩历史日志
    Compress=yes
    SyncIntervalSec=5m
    RateLimitInterval=30s
    RateLimitBurst=1000
    #最大占用空间 10G 
    SystemMaxUse=10G
    #单日志文件最大 200M
    SystemMaxFileSize=200M
    #日志保存时间 2 周
    MaxRetentionSec=2week
    #不将日志转发到 syslog
    ForwardToSyslog=no
    EOF
    
    systemctl restart systemd-journald
    
    # 升级系统内核为 4.44(可选)
    # CentOS 7.x 系统自带的 3.10.x 内核存在一些 Bugs,导致运行的 Docker、Kubernetes 不稳定,查看内核命令uname -r,升级步骤如下:
    rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-3.el7.elrepo.noarch.rpm
    #安装完成后检查 /boot/grub2/grub.cfg 中对应内核 menuentry 中是否包含 initrd16 配置,如果没有,再安装一次!
    yum --enablerepo=elrepo-kernel install -y kernel-lt
    #设置开机从新内核启动
    grub2-set-default "CentOS Linux (4.4.182-1.el7.elrepo.x86_64) 7 (Core)"
    # 重启后产看内核变化啦
    reboot
    uname -r
    sudo setenforce 0
    sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config
    
    # 关闭防火墙和ipttables 如果不设置后面加入节点可能有问题如:couldn't validate the identity of the API Server
    cat <<EOF >  /etc/sysctl.d/k8s.conf
    net.bridge.bridge-nf-call-ip6tables = 1
    net.bridge.bridge-nf-call-iptables = 1
    net.ipv4.ip_forward=1
    EOF
    sudo sysctl --system
    
    # 关闭NUMA 加上numa=off
    cp /etc/default/grub{,.bak}
    vim /etc/default/grub
    GRUB_CMDLINE_LINUX="crashkernel=auto spectre_v2=retpoline rd.lvm.lv=centos/root rd.lvm.lv=centos/swap rhgb quiet numa=off"
    cp /boot/grub2/grub.cfg{,.bak}
    grub2-mkconfig -o /boot/grub2/grub.cfg
    
    sudo systemctl stop firewalld
    sudo systemctl disable firewalld
    sudo swapoff -a
    yes | cp /etc/fstab /etc/fstab_bak
    cat /etc/fstab_bak |grep -v swap > /etc/fstab
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75
    • 76
    • 77
    • 78
    • 79
    • 80
    • 81
    • 82
    • 83
    • 84
    • 85
    • 86
    • 87
    • 88
    • 89
    • 90
    • 91
    • 92
    • 93
    • 94
    • 95
    • 96
    • 97
    • 98
    • 99
    • 100
    • 101
    • 102
    • 103
    • 104
    • 105
    • 106

    虚拟机Kubeadm部署安装

    (1)kube-proxy开启ipvs的前置条件

    # 由于ipvs已经加入到了内核的主干,所以为kube-proxy开启ipvs的前提需要加载以下的内核模块
    modprobe br_netfilter
    cat > /etc/sysconfig/modules/ipvs.modules <<EOF
    #!/bin/bash
    modprobe -- ip_vs
    modprobe -- ip_vs_rr
    modprobe -- ip_vs_wrr
    modprobe -- ip_vs_sh
    modprobe -- nf_conntrack_ipv4
    EOF
    chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4
    # 脚本创建了的/etc/sysconfig/modules/ipvs.modules文件, 保证在节点重启后能自动加载所需模块。 使用lsmod | grep -e ip_vs -e nf_conntrack_ipv4命令查看是否已经正确加载所需的内核模块。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    (2)安装docker软件

    # 安装依赖库
    sudo yum install -y yum-utils device-mapper-persistent-data lvm2
    # 导入阿里云的镜像仓库
    sudo yum-config-manager \
          --add-repo \
          http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
    # 下载安装docker docker 19.03
    yum update -y && yum install -y docker-ce
    # 创建/etc/docker目录
    mkdir /etc/docker
    # 设置一下daemon中cgroup为syetemd 默认有两个cgroup 存储文件格式为json-flle,大小为100Mb
    cat > /etc/docker/daemon.json <<EOF
    {
      "exec-opts": ["native.cgroupdriver=systemd"],
      "log-driver": "json-file",
      "log-opts": {
        "max-size": "100m"
      },
      "registry-mirrors": ["https://0stg88gt.mirror.aliyuncs.com"]
    }
    EOF
    # 创建目录存放docker配置文件
    mkdir -p /etc/systemd/system/docker.service.d
    #重启docker服务
    systemctl daemon-reload && systemctl restart docker && systemctl enable docker
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25

    在主节点启动Haproxy和Keepalived容器

    导入脚本 > 运行 > 查看可用节点
    复制到其他节点
    docker load -i haproxy.tar
    docker load -i  keepalived.tar
    # 修改脚本目录批量导入
    tar -zvxf kubeadm-basic.images.tar.gz
    sh load-images.sh
    
    # 主节点
    tar -zvxf start.keep.tar.gz
    mv data / && cd /data/lb
    # 修改haproxy配置文件 先保留一个 防止负载到未启动节点上而报错
    vim etc/haproxy.cfg
    server rancher01 192.168.1.10:6443
    # server rancher02 192.168.1.20:6443
    # server rancher03 192.168.1.21:6443
    # 修改部署文件 start-haproxy.sh
    vi start-haproxy.sh
    MasterIP1=192.168.1.10
    MasterIP2=192.168.1.20
    MasterIP3=192.168.1.21
    sh start-haproxy.sh
    netstat -anpt | grep :6444
    
    # 修改部署文件 start-keepalived.sh 
    vim start-keepalived.sh 
    VIRTUAL_IP=192.168.1.100
    INTERFACE=ens33
    sh start-keepalived.sh 
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29

    安装Kubeadm

    # 配置K8S的yum源
    cat <<EOF > /etc/yum.repos.d/kubernetes.repo
    [kubernetes]
    name=Kubernetes
    baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
    enabled=1
    gpgcheck=0
    repo_gpgcheck=0
    gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
           http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
    EOF
    # 安装kubeadm, kubectl, and kubelet.
    sudo yum install -y kubelet-1.15.1 kubeadm-1.15.1 kubectl-1.15.1
    sudo systemctl restart kubelet
    sudo systemctl enable kubelet
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15

    初始化主节点

    # 生成默认初始化模板
    kubeadm config print init-defaults > kubeadm-config.yaml
    
    # 修改默认初始化模板
    apiVersion: kubeadm.k8s.io/v1beta2
    bootstrapTokens:
    - groups:
      - system:bootstrappers:kubeadm:default-node-token
      token: abcdef.0123456789abcdef
      ttl: 24h0m0s
      usages:
      - signing
      - authentication
    kind: InitConfiguration
    localAPIEndpoint:
      advertiseAddress: 192.168.1.10 # 注意
      bindPort: 6443
    nodeRegistration:
      criSocket: /var/run/dockershim.sock
      name: k8s-master # 注意
      - effect: NoSchedule
        key: node-role.kubernetes.io/master
    ---
    apiServer:
      timeoutForControlPlane: 4m0s
    apiVersion: kubeadm.k8s.io/v1beta2
    certificatesDir: /etc/kubernetes/pki
    clusterName: kubernetes
    controlPlaneEndpoint: "192.168.1.100:6444" # 注意
    controllerManager: {}
    dns:
      type: CoreDNS
    etcd:
      local:
        dataDir: /var/lib/etcd
    imageRepository: k8s.gcr.io
    kind: ClusterConfiguration
    kubernetesVersion: v1.15.1 # 注意
    networking:
      dnsDomain: cluster.local
      podSubnet: 10.244.0.0/16 # 注意
      serviceSubnet: 10.96.0.0/12
    scheduler: {}
    --- # 注意
    apiVersion: kubeproxy.config.k8s.io/v1alpha1
    kind: KubeProxyConfiguration
    featureGates:
      SupportIPVSProxyMode: true
    mode: ipvs
    
    # 镜像拉取
    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver:v1.15.1
    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager:v1.15.1
    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler:v1.15.1
    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy:v1.15.1
    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.1
    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.3.10
    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:1.3.1
    docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver:v1.15.1 k8s.gcr.io/kube-apiserver:v1.15.1
    docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager:v1.15.1 k8s.gcr.io/kube-controller-manager:v1.15.1
    docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler:v1.15.1 k8s.gcr.io/kube-scheduler:v1.15.1
    docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy:v1.15.1 k8s.gcr.io/kube-proxy:v1.15.1
    docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.1 k8s.gcr.io/pause:3.1
    docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.3.10 k8s.gcr.io/etcd:3.3.10
    docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:1.3.1 k8s.gcr.io/coredns:1.3.1
    
    # 根据模板初始化节点
    kubeadm init --config=kubeadm-config.yaml --upload-certs | tee kubeadm-init.log
    
    # 配置一下
    mkdir -p $HOME/.kube
    sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
    sudo chown $(id -u):$(id -g) $HOME/.kube/config
    
    # 输出结果有两个 第一个添加高可用主节点
    kubeadm join 192.168.1.100:6444 --token abcdef.0123456789abcdef --discovery-token-ca-cert-hash sha256:b59a47effc8f6881d73109ae8e00dc71c3dc1ccd0367438130fc2495de4fb938 --control-plane --certificate-key 208aa794c5cba79f10232b03540f88d9b8778c6abe1b83380129161350ab1468
    
    # 第二个添加 node 节点
    kubeadm join 192.168.1.100:6444 --token abcdef.0123456789abcdef \
        --discovery-token-ca-cert-hash sha256:b59a47effc8f6881d73109ae8e00dc71c3dc1ccd0367438130fc2495de4fb938
    
    # 安装fannel网络插件
    kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
    # 用来拉取文件到xshell中
    yum -y install lrzsz
    # 如果拉取镜像失败
    docker pull registry.cn-shanghai.aliyuncs.com/yijindami/flannel:v0.12.0-amd64
    docker tag  registry.cn-shanghai.aliyuncs.com/yijindami/flannel:v0.12.0-amd64  quay.io/coreos/flannel:v0.12.0-amd64
    docker load < flanneld-v0.12.0-arm64.docker
    sudo systemctl restart kubelet
    kubectl get nodes
    kubectl get pod --all-namespaces
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75
    • 76
    • 77
    • 78
    • 79
    • 80
    • 81
    • 82
    • 83
    • 84
    • 85
    • 86
    • 87
    • 88
    • 89
    • 90
    • 91
    • 92

    添加其他主节点

    1. Haproxy与Keepalived容器启动。
    2. 安装kubelet-1.15.1 kubeadm-1.15.1 kubectl-1.15.1
    3. 通过加入高可用主节点命令加入
    kubeadm join 192.168.1.100:6444 --token abcdef.0123456789abcdef \
        --discovery-token-ca-cert-hash sha256:b59a47effc8f6881d73109ae8e00dc71c3dc1ccd0367438130fc2495de4fb938 \
        --control-plane --certificate-key 208aa794c5cba79f10232b03540f88d9b8778c6abe1b83380129161350ab1468
    
    mkdir -p $HOME/.kube
    sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
    sudo chown $(id -u):$(id -g) $HOME/.kube/config
    # 关闭掉10 在20上 发现三下后卡住
    kubectl get node
    # 修改配置 把100该成本机即可
    vim .kube/config
    server: https://192.168.1.20:6444/
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    Etcd集群状态查看

    # 主节点状态
    kubectl get endpoints kube-controller-manager --namespace=kube-system
    # 普通节点状态
    kubectl get endpoints kube-scheduler --namespace=kube-system -o yaml
    # 查看健康节点
    kubectl -n kube-system exec etcd-k8s-master01 --etcdctl --endpoints=https://192.168.1.10:2379 --
    ca-file=/etc/kubernetes/pki/etcd/ca.crt --cert-file=/etc/kubernetes/pki/etcd/server.crt --key-file=/etc/kubernetes/pki/etcd/server.key cluster-health
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
  • 相关阅读:
    性能测试知识
    阿里、腾讯、百度大厂的程序员编程指南规范
    算法练习16——O(1) 时间插入、删除和获取随机元素
    字符串5——左旋转字符串
    Reactor 之 多任务并发执行,结果按顺序返回第一个
    【明日方舟 人工智能】在罗德岛学习人工智能的日子 (一)
    MobileViT v3论文超详细解读(翻译+精读)
    【排序算法】冒泡排序
    Linux fcntl函数
    python 之字典的相关知识
  • 原文地址:https://blog.csdn.net/qq_44766883/article/details/126549312