目录
6.所有节点安装kubeadm,kubelet和kubectl
7、部署 kubernetes Master 节点(master 节点上执行)
9、k8s-node 节点加入 master 节点(两个 node 执行)
10、master节点安装部署pod网络插件(flannel)
13、测试 k8s 集群,在集群中创建一个 pod,验证是否能正常运行
在所有节点上安装Docker和kubeadm
部署Kubernetes Master
部署容器网络插件
部署 Kubernetes Node,将节点加入Kubernetes集群中
部署 Dashboard Web 页面,可视化查看Kubernetes资源
服务器类型 IP地址
master 192.168.239.128
node01 192.168.239.129
node02 192.168.239.132
- systemctl stop firewalld
-
- setenforce 0
-
- iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X
-
- swapoff -a #交换分区必须要关闭
-
- sed -ri 's/.*swap.*/#&/' /etc/fstab #永久关闭swap分区
cat >> /etc/hosts << EOF
192.168.239.128 master
192.168.239.129 node01
192.168.239.132 node02
EOF
这里我后来将node02改成了192.168.239.132
将桥接的ipv4流量传递到iptables
- cat > /etc/sysctl.d/kubernetes.conf << EOF
-
- net.bridge.bridge-nf-call-ip6tables=1
-
- net.bridge.bridge-nf-call-iptables=1
-
- net.ipv6.conf.all.disable_ipv6=1
-
- net.ipv4.ip_forward=1
-
- EOF
-
-
-
- #加载参数
-
- sysctl --system
三台都做
- yum install -y yum-utils device-mapper-persistent-data lvm2
-
- yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
-
- yum install -y docker-ce docker-ce-cli containerd.io
-
-
-
- mkdir /etc/docker
-
- cat > /etc/docker/daemon.json <<EOF
-
- {
-
- "exec-opts": ["native.cgroupdriver=systemd"],
-
- "log-driver": "json-file",
-
- "log-opts": {
-
- "max-size": "100m"
-
- }
-
- }
-
- EOF
-
- #使用Systemd管理的Cgroup来进行资源控制与管理,因为相对Cgroupfs而言,Systemd限制CPU、内存等资源更加简单和成熟稳定。
-
- #日志使用json-file格式类型存储,大小为100M,保存在/var/log/containers目录下,方便ELK等日志系统收集和管理日志。
-
-
-
- systemctl daemon-reload
-
- systemctl restart docker.service
-
- systemctl enable docker.service
-
-
-
- docker info | grep "Cgroup Driver"
-
- Cgroup Driver: system
- #定义kubernetes源
-
- cat > /etc/yum.repos.d/kubernetes.repo << EOF
-
- [kubernetes]
-
- name=Kubernetes
-
- baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
-
- enabled=1
-
- gpgcheck=0
-
- repo_gpgcheck=0
-
- gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
-
- EOF
yum install -y kubelet-1.21.3 kubeadm-1.21.3 kubectl-1.21.3
#开机自启kubelet
systemctl enable kubelet.service
systemctl start kubelet
#K8S通过kubeadm安装出来以后都是以Pod方式存在,即底层是以容器方式运行,所以kubelet必须设置开机自启
- kubeadm init \
-
- --apiserver-advertise-address=192.168.239.128 \
-
- --image-repository registry.aliyuncs.com/google_containers \
-
- --kubernetes-version v1.21.3 \
-
- --service-cidr=10.96.0.0/12 \
-
- --pod-network-cidr=10.244.0.0/16
-
- 各项参数说明
-
- kubeadm init \
-
- --apiserver-advertise-address=10.0.0.116 \ #指定master监听的地址,修改为自己的master地址
-
- --image-repository registry.aliyuncs.com/google_containers \ #指定为aliyun的下载源,最好用国内的
-
- --kubernetes-version v1.18.0 \ #指定k8s版本,1.18.0版本比较稳定
-
- --service-cidr=10.96.0.0/12 \ #设置集群内部的网络
-
- --pod-network-cidr=10.244.0.0/16 #设置pod的网络
-
- # service-cidr 和 pod-network-cidr 最好就用这个,不然需要修改后面的 kube-flannel.yaml 文件
执行以下命令可使用kubectl管理工具
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
node 节点加入集群需要生成的 token,token 有效期为 24 小时,过期需要重新创建
创建命令为
kubeadm token create --print-join-command
- kubeadm join 192.168.239.128:6443 --token x9vnku.titck6xbu46bhu0l \
-
- --discovery-token-ca-cert-hash sha256:662060560b511d9d753d5680b1d898465ac07f451d7e814364de4df223c6f252这里需要复制下来的,将来node节点想要加入k8s集群就需要输入token代码
获取前面创建好的token令牌
kubeadm join 192.168.239.128:6443 --token fav55t.68omf6avhieu04y9 --discovery-token-ca-cert-hash sha256:6adf7f7d26c45c64cbf37eacee55255f34a4ed42443d643191ad6117d8f10287
但是此处显示无让罗状态,需要安装网络插件
token 过期重新生成 token命令:
kubeadm token create --print-join-command
-
- 下载插件yaml插件
-
- wget http://120.78.77.38/file/kube-flannel.yaml(国内)
-
- wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml(国外)
-
-
kubectl apply -f kube-flannel.yaml
- 如果这里运行不起来的话解决方法:
-
- #修改 flannel 插件文件,这个版本比较低,高版本 k8s 尽量选择一些高一些的版本 flannel
-
- sed -i -r "s#quay.io/coreos/flannel:.*-amd64#lizhenliang/flannel:v0.12.0-amd64#g" kube-flannel.yaml
-
- kubectl apply -f kube-flannel.yaml
-
- kubectl get pods -n kube-system
-
- kubectl get node #部署好网络插件,node 准备就绪
这里显示我的coredns运行是失败的,这里表示有一个容器运行的容器为0,如果不解决,节点状态将一直是notready状态解决方法:
cd /etc/kubernets/
cd manifests/
ls
vim kube-scheduler.yaml
vim kube-controller-manager.yaml
kubectl get cs
发现全部为健康状态
cd ~(注意这里我的yml文件在家目中)
ls
kube apply -f kube-flannel.yml
全部running
kubectl label node node01 node-role.kubernetes.io/node=node1
kubectl label node node02 node-role.kubernetes.io/node=node2
#获取节点信息
kubectl get nodes
监测K8s集群是否正常后,再运行服务部署
#查询所有pod是否正常运行
kubectl get pods -A
#查询master是否正常
kubectl get cs
#查询node节点是否ready
kubectl get nodes
- #部署服务
-
- kubectl create deployment nginx --image=nginx:1.14
-
- #暴露端口
-
- kubectl expose deployment nginx --port=80 --type=NodePort
-
- kubectl get pods
-
- kubectl get svc(service)
-
- #删除pod与svc
-
- kubectl delete deploy/nginx
-
- kubectl delete svc/nginx
kubectl delete deploy/nginx
kubectl delete svc/nginx
删除pod与svc