安装Docker、Kubeadm、kubectl
所有节点安装Docker/kubeadm/kubelet ,Kubernetes默认CRI(容器运行时)为Docker,因此先安装Docker
安装Docker
首先配置一下Docker的阿里yum源
cat >/etc/yum.repos.d/docker.repo<<EOF [docker-ce-edge] name=Docker CE Edge - \$basearch baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/\$basearch/edge enabled=1 gpgcheck=1 gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg EOF
然后yum方式安装docker
# yum安装 yum -y install docker-ce # 查看docker版本 docker --version # 启动docker systemctl enable docker systemctl start docker 配置docker的镜像源 cat >> /etc/docker/daemon.json << EOF { "registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"] } EOF
然后重启docker
systemctl restart docker
添加kubernetes软件源
然后我们还需要配置一下yum的k8s软件源
cat > /etc/yum.repos.d/kubernetes.repo << EOF [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=0 repo_gpgcheck=0 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF
安装kubeadm,kubelet和kubectl
由于版本更新频繁,这里指定版本号部署:
# 安装kubelet、kubeadm、kubectl,同时指定版本 yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0 # 设置开机启动 systemctl enable kubelet
部署Kubernetes Master【master节点】
创建kubeadm配置文件
在具有vip的master上进行初始化操作,这里为master1
# 创建文件夹 mkdir /usr/local/kubernetes/manifests -p # 到manifests目录 cd /usr/local/kubernetes/manifests/ # 新建yaml文件 vi kubeadm-config.yaml
yaml内容如下所示:
apiServer: certSANs: - master1 - master2 - master.k8s.io - 192.168.44.158 - 192.168.44.155 - 192.168.44.156 - 127.0.0.1 extraArgs: authorization-mode: Node,RBAC timeoutForControlPlane: 4m0s apiVersion: kubeadm.k8s.io/v1beta1 certificatesDir: /etc/kubernetes/pki clusterName: kubernetes controlPlaneEndpoint: "master.k8s.io:16443" controllerManager: {} dns: type: CoreDNS etcd: local: dataDir: /var/lib/etcd imageRepository: registry.aliyuncs.com/google_containers kind: ClusterConfiguration kubernetesVersion: v1.18.0 networking: dnsDomain: cluster.local podSubnet: 10.244.0.0/16 serviceSubnet: 10.1.0.0/16 scheduler: {}
然后我们在 master1 节点执行
kubeadm init --config kubeadm-config.yaml
执行提示中的语句:
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
按照提示保存以下内容,一会要使用:
kubeadm join master.k8s.io:16443 --token rhbcl9.rzv0rktd95tsry01 \ --discovery-token-ca-cert-hash sha256:e24060c1bd81641d3c7dedfda94640ac13c1cf1040dc39cb0869e51b96e6d4fb \ --control-plane
--control-plane : 只有在添加master节点的时候才有
查看集群状态
# 查看集群状态 kubectl get cs # 查看pod kubectl get pods -n kube-system
安装集群网络
从官方地址获取到flannel的yaml,在master1上执行,
# 创建文件夹 mkdir flannel cd flannel # 下载yaml文件 wget -c https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml #执行 kubectl apply -f kube-flannel.yml
raw.githubusercontent.com网址拒绝访问解决办法:在host文件中添加映射此域名的ip,ip一直在变化,每次下载前都要查,域名IP在IP网站上查
vim /etc/hosts 185.199.109.133 raw.githubusercontent.com
master2节点加入集群
复制密钥及相关文件
从master1复制密钥及相关文件到master2
# ssh root@192.168.44.156 mkdir -p /etc/kubernetes/pki/etcd # scp /etc/kubernetes/admin.conf root@192.168.44.156:/etc/kubernetes # scp /etc/kubernetes/pki/{ca.*,sa.*,front-proxy-ca.*} root@192.168.44.156:/etc/kubernetes/pki # scp /etc/kubernetes/pki/etcd/ca.* root@192.168.44.156:/etc/kubernetes/pki/etcd
master2加入集群
执行在master1上init后输出的join命令,需要带上参数--control-plane表示把master控制节点加入集群
kubeadm join master.k8s.io:16443 --token rhbcl9.rzv0rktd95tsry01 \ --discovery-token-ca-cert-hash sha256:e24060c1bd81641d3c7dedfda94640ac13c1cf1040dc39cb0869e51b96e6d4fb \ --control-plane
检查状态
kubectl get node kubectl get pods --all-namespaces
master2执行输出的提示
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
加入Kubernetes Node
在node1上执行
向集群添加新节点,执行在kubeadm init输出的kubeadm join命令:
注意需要把node1 的host文件更改的和master2一样
kubeadm join master.k8s.io:16443 --token rhbcl9.rzv0rktd95tsry01 \ --discovery-token-ca-cert-hash sha256:e24060c1bd81641d3c7dedfda94640ac13c1cf1040dc39cb0869e51b96e6d4fb \
集群网络重新安装,因为添加了新的node节点
重新安装flannel,安装见上面步骤
检查状态
kubectl get node kubectl get pods --all-namespaces
如果node长时间未ready,
查看状态:kubectl describe node node1
发现是 Kubelet stopped posting node status
可以尝试重启,node1的kubectl
测试下: