不知道大伙是如何安装 K8s,特别还是集群的时候,我上一次安装搭建的时候,那个恶心到我了,真的是一步一个脚印走完整个搭建流程,爬了不少坑。
于是,才有了今天的文章,到底有没有可以一键完美部署 k8s 并且附带 Dashboard……?那这么问了肯定是有的,否则岂不是在这自作多情~ 哈哈哈,不废话直接 3 2 1 上干货!

kubeasz 致力于提供快速部署高可用k8s集群的工具, 同时也努力成为k8s实践、使用的参考书;基于二进制方式部署和利用ansible-playbook实现自动化;既提供一键安装脚本, 也可以根据安装指南分步执行安装各个组件。
kubeasz 从每一个单独部件组装到完整的集群,提供最灵活的配置能力,几乎可以设置任何组件的任何参数;同时又为集群创建预置一套运行良好的默认配置,甚至自动化创建适合大规模集群的BGP Route Reflector网络模式。
[news] kubeasz 通过cncf一致性测试 详情
推荐版本对照
| Kubernetes version | 1.22 | 1.23 | 1.24 | 1.25 | 1.26 | 1.27 | 1.28 |
| kubeasz version | 3.1.1 | 3.2.0 | 3.6.2 | 3.6.2 | 3.6.2 | 3.6.2 | 3.6.2 |
能够支持大部分使用systemd的linux发行版,如果安装有问题先请查看文档;如果某个能够支持安装的系统没有在列表中,请留言。
| 常用插件+ | DNS | dashboard | metrics-server | prometheus | efk |
| 集群管理+ | 管理node节点 | 管理master节点 | 管理etcd节点 | 升级集群 | 备份恢复 |
| 特性实验 | NetworkPolicy | RollingUpdate | HPA | ||
| 周边生态 | harbor | helm | jenkins | gitlab | argocd |
Ubuntu 16.04 server或者CentOS 7 Minimal注意: 确保在干净的系统上开始安装,不能使用曾经装过kubeadm或其他k8s发行版的环境
- export release=3.5.0
-
- wget https://github.com/easzlab/kubeasz/releases/download/${release}/ezdown
-
- chmod +x ./ezdown
下载kubeasz代码、二进制、默认容器镜像
- # 国内环境
- ./ezdown -D
-
- # 海外环境
- #./ezdown -D -m standard
【可选】下载额外容器镜像(cilium,flannel,prometheus等)
- # 按需下载
- ./ezdown -X flannel
- ./ezdown -X prometheus
- ...
【可选】下载离线系统包 (适用于无法使用yum/apt仓库情形)
./ezdown -P
上述脚本运行成功后,所有文件(kubeasz代码、二进制、离线镜像)均已整理好放入目录/etc/kubeasz
/etc/kubeasz 包含 kubeasz 版本为 ${release} 的发布代码/etc/kubeasz/bin 包含 k8s/etcd/docker/cni 等二进制文件/etc/kubeasz/down 包含集群安装时需要的离线容器镜像/etc/kubeasz/down/packages 包含集群安装时需要的系统基础软件./ezdown -S
- docker exec -it kubeasz ezctl start-aio
-
- # 如果安装失败,查看日志排除后,使用如下命令重新安装aio集群
- # docker exec -it kubeasz ezctl setup default all
- source ~/.bashrc
-
- kubectl version # 验证集群版本
-
- kubectl get node # 验证节点就绪 (Ready) 状态
-
- kubectl get pod -A # 验证集群pod状态,默认已安装网络插件、coredns、metrics-server等
-
- kubectl get svc -A # 验证集群服务状态
以上步骤创建的K8S开发测试环境请尽情折腾,碰到错误尽量通过查看日志、上网搜索、提交issues等方式解决;当然你也可以清理集群后重新创建。
在宿主机上,按照如下步骤清理
docker exec -it kubeasz ezctl destroy default 基于 dashboard 2.2 版本,k8s 1.22 版本,因 dashboard 1.7 以后默认开启了自带的登录验证机制,因此不同版本登录有差异:
参考 GitHub - kubernetes/dashboard: General-purpose web UI for Kubernetes clusters
api-server方式访问dashboardNodePort方式暴露服务,这样集群外部可以使用 https://NodeIP:NodePort (注意是https不是http,区别于1.6.3版本) 直接访问 dashboard。- # ezctl 集成部署组件,xxxx 代表集群部署名
- # dashboard 部署文件位于 /etc/kubeasz/clusters/xxxx/yml/dashboard/ 目录
- ./ezctl setup xxxx 07
- # 查看 pod 运行状态
- kubectl get pod -n kube-system | grep dashboard
- dashboard-metrics-scraper-856586f554-l6bf4 1/1 Running 0 35m
- kubernetes-dashboard-698d4c759b-67gzg 1/1 Running 0 35m
-
- # 查看 dashboard service(重点)
- kubectl get svc -n kube-system|grep dashboard
- kubernetes-dashboard NodePort 10.68.219.38
443:24108/TCP 53s -
- # 查看pod 运行日志
- kubectl logs -n kube-system kubernetes-dashboard-xxxxxxxx
因为dashboard 作为k8s 原生UI,能够展示各种资源信息,甚至可以有修改、增加、删除权限,所以有必要对访问进行认证和控制,为演示方便这里使用 https://NodeIP:NodePort 方式访问 dashboard,支持两种登录方式:Kubeconfig、令牌(Token)
注意: 使用chrome浏览器访问 https://NodeIP:NodePort 可能提示安全风险无法访问,可以换firefox浏览器设置安全例外,继续访问。
选择 Token 方式登录,复制下面输出的admin token 字段到输入框
- # 获取 Bearer Token,找到输出中 ‘token:’ 开头的后面部分
- $ kubectl describe -n kube-system secrets admin-user
选择 Token 方式登录,复制下面输出的read token 字段到输入框
- # 获取 Bearer Token,找到输出中 ‘token:’ 开头的后面部分
- $ kubectl describe -n kube-system secrets dashboard-read-user
/root/.kube/config,该文件中默认没有token字段,使用Kubeconfig方式登录,还需要将token追加到该文件中,完整的文件格式如下:- apiVersion: v1
- clusters:
- - cluster:
- certificate-authority-data: LS0tLS1CRUdxxxxxxxxxxxxxx
- server: https://192.168.1.2:6443
- name: kubernetes
- contexts:
- - context:
- cluster: kubernetes
- user: admin
- name: kubernetes
- current-context: kubernetes
- kind: Config
- preferences: {}
- users:
- - name: admin
- user:
- client-certificate-data: LS0tLS1CRUdJTiBDRxxxxxxxxxxx
- client-key-data: LS0tLS1CRUdJTxxxxxxxxxxxxxx
- token: eyJhbGcixxxxxxxxxxxxxxxx