目录
1、所有节点,关闭防火墙规则,关闭selinux,关闭swap交换
6、所有节点安装kubeadm,kubelet和kubectl
7、部署 kubernetes Master 节点(master 节点上执行)
9、k8s-node 节点加入 master 节点(两个 node 执行)
10、master节点安装部署pod网络插件(flannel)
14、测试K8s集群,在集群中创建pod,验证是否能正常运行
在所有节点上安装Dcoker和kubeadm
部署Kubernetes Master
部署Kubernetes Node,将节点加入Kubernetes集群中
部署Dashboard Web页面,可视化查看Kubernetes资源
服务器类型 | IP地址 |
---|---|
master | 192.168.127.130 |
node01 | 192.168.127.140 |
node02 | 192.168.127.150 |
- #所有节点,关闭防火墙规则,关闭selinux,关闭swap交换
- systemctl stop firewalld
- systemctl disable firewalld
- setenforce 0
- iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X
- swapoff -a #交换分区必须要关闭
- sed -ri 's/.*swap.*/#&/' /etc/fstab #永久关闭swap分区,&符号在sed命令中代表上次匹配的结果
- free -g #查看
这里只用一台机子做展示
- cat >> /etc/hosts << EOF
- 192.168.109.11 master
- 192.168.109.12 node01
- 192.168.109.13 node02
- EOF
将桥接的 IPV4 流量传递到 iptables 链
- #调整内核参数
-
- cat > /etc/sysctl.d/kubernetes.conf << EOF
- #开启网桥模式,可将网桥的流量传递给iptables链
- net.bridge.bridge-nf-call-ip6tables=1
- net.bridge.bridge-nf-call-iptables=1
- #关闭ipv6协议
- net.ipv6.conf.all.disable_ipv6=1
- net.ipv4.ip_forward=1
- EOF
-
- #加载参数
- sysctl --system
同样所有节点都要操作
- yum install -y yum-utils device-mapper-persistent-data lvm2
- yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
- yum install -y docker-ce docker-ce-cli containerd.io
-
- mkdir /etc/docker
- cat > /etc/docker/daemon.json <<EOF
- {
- "exec-opts": ["native.cgroupdriver=systemd"],
- "log-driver": "json-file",
- "log-opts": {
- "max-size": "100m"
- }
- }
- EOF
- #使用Systemd管理的Cgroup来进行资源控制与管理,因为相对Cgroupfs而言,Systemd限制CPU、内存等资源更加简单和成熟稳定。
- #日志使用json-file格式类型存储,大小为100M,保存在/var/log/containers目录下,方便ELK等日志系统收集和管理日志。
-
- systemctl daemon-reload
- systemctl restart docker.service
- systemctl enable docker.service
-
- docker info | grep "Cgroup Driver"
- Cgroup Driver: system
这里仅用一台机子做展示
- #定义kubernetes源
- cat > /etc/yum.repos.d/kubernetes.repo << EOF
- [kubernetes]
- name=Kubernetes
- baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
- enabled=1
- gpgcheck=0
- repo_gpgcheck=0
- gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
- EOF
- yum install -y kubelet-1.21.3 kubeadm-1.21.3 kubectl-1.21.3
-
- #开机自启kubelet
- systemctl enable kubelet.service
- systemctl start kubelet
- #K8S通过kubeadm安装出来以后都是以Pod方式存在,即底层是以容器方式运行,所以kubelet必须设置开机自启
- kubeadm init \
- --apiserver-advertise-address=192.168.109.11 \
- --image-repository registry.aliyuncs.com/google_containers \
- --kubernetes-version v1.21.3 \
- --service-cidr=10.96.0.0/12 \
- --pod-network-cidr=10.244.0.0/16
参数说明
- kubeadm init \
- --apiserver-advertise-address=10.0.0.116 \ #指定master监听的地址,修改为自己的master地址
- --image-repository registry.aliyuncs.com/google_containers \ #指定为aliyun的下载源,最好用国内的
- --kubernetes-version v1.18.0 \ #指定k8s版本,1.18.0版本比较稳定
- --service-cidr=10.96.0.0/12 \ #设置集群内部的网络
- --pod-network-cidr=10.244.0.0/16 #设置pod的网络
- # service-cidr 和 pod-network-cidr 最好就用这个,不然需要修改后面的 kube-flannel.yaml 文件
执行以下命令可使用kubectl管理工具
node 节点加入集群需要生成的 token,token 有效期为 24 小时,过期需要重新创建
创建命令为
kubeadm token create --print-join-command
- 获取前面创建好的token令牌
- kubeadm join 192.168.127.130:6443 --token ha0ff0.97fy3ct6e1wuic5p --discovery-token-ca-cert-hash sha256:34d027bbe915253bfe2011362c124badbb0cceccbfec08a6a94d579387b3a018
节点显示NotReady状态,需要安装网络插件
token 过期重新生成 token
kubeadm token create --print-join-command
- #github仓库下载
- wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
- #国内站点下载证书
- wget http://120.78.77.38/file/kube-flannel.yaml
- #安装
- kubectl apply -f kube-flannel.yml
kubectl get node #查看node状态
kubectl get pods -A
- kubectl label node node1 node-role.kubernetes.io/node=node1
- kubectl label node node2 node-role.kubernetes.io/node=node2
- #获取节点信息
- kubectl get nodes
- #查询master是否正常
- kubectl get cs
- #若为unhealthy
- vim /etc/kubernetes/manifests/kube-scheduler.yaml
- vim /etc/kubernetes/manifests/kube-controller-manager.yaml
- #将- --port=0注释掉
- #查询所有pod是否正常运行
- kubectl get pods -A
- #查询master是否正常
- kubectl get cs
- #查询node节点是否ready
- kubectl get nodes
- #部署服务
- kubectl create deployment nginx --image=nginx
- #暴露端口
- kubectl expose deployment nginx --port=80 --type=NodePort
- kubectl get pods
- kubectl get svc(service)
- #删除pod与svc
- kubectl delete deploy/nginx
- kubectl delete svc/nginx
测试一下,master和node都能通过自己的IP的31757端口去访问