目录
| 主机 | 主机名 | IP | 备注 |
| 客户端 | client | 192.168.2.10 | 关闭selinux和firewalld |
| OSD+MON | node1 | 192.168.2.20 | 关闭selinux和firewalld 添加2块磁盘,sdb和sdc |
| OSD+MON | node2 | 192.168.2.30 | 关闭selinux和firewalld 添加2块磁盘,sdb和sdc |
| OSD+MON | node3 | 192.168.2.40 | 关闭selinux和firewalld 添加2块磁盘,sdb和sdc |
补充说明:Ceph组件
本次环境,本次环境需要1台服务器作为客户端,3台服务器作为OSD存储,3台作为Monitor集群监控,为节省服务器,将OSD和Monitor共享部署在一台服务器上,集群拓扑如下:

如上图,客户端只是通过MON服务器找到map,map记录的是OSD存储信息,当通过map找到OSD存储信息后,client端是直接根据map访问OSD存储服务器的,不会再经过MON服务器,所以不存在MON导致性能瓶颈的问题。
离线ceph iso文件可下载:
链接:https://pan.baidu.com/s/1BNkLkhiQzXcTaSaWRM8fpA?pwd=1234
提取码:1234
将ceph iso挂载到本地,会有三个仓库:

对应配置本地ceph安装源:
vim /etc/yum.repos.d/ceph.repo
- [mon]
- name=mon
- baseurl=file:///ceph-repo/MON #以实际ceph.iso挂载路径为准,这里以/ceph-repo路径为例
- gpgcheck=0
-
- [osd]
- name=osd
- baseurl=file:///ceph-repo/OSD
- gpgcheck=0
-
- [tools]
- name=tools
- baseurl=file:///ceph-repo/Tools
- gpgcheck=0
yum repolist

如上图,本地安装源添加成功,4台主机都做如上添加ceph源操作。
(1)配置主机名解析
- #4台主机都配置
- vim /etc/hosts
- 192.168.2.10 client
- 192.168.2.20 node1
- 192.168.2.30 node2
- 192.168.2.40 node3
(2)配置SSH互信
非交互生成密钥对
- #4台主机都配置
- ssh-keygen -f /root/.ssh/id_rsa -N '' #2个单引号
发布密钥到各节点主机(包括自己)
- #4台主机都配置
- for i in client node1 node2 node3; do ssh-copy-id $i; done
Client做时间服务器,所有node主机与服务器同步时间
- #仅client主机操作
- vim /etc/chrony.conf
- #新增如下内容
- allow 192.168.2.0/24
- local stratum 10
systemctl restart chronyd
配置node节点,向client进行时间同步
- #3台node节点都配置
- vim /etc/chrony.conf
- #新增如下内容,把默认自带得server删掉
- server 192.168.2.10 iburst

systemctl restart chronyd
在node1安装ceph-deploy脚本:
yum install ceph-deploy -y #ceph-deploy是一个python写的集群部署脚本,这里仅在node1安装即可,后面会通过node1,使用ceph-deploy工具对所有node节点进行配置
给所有node节点安装ceph所有组件:
- #在node1执行即可
- #ceph-mon负责监控和绘制地图,ceph-osd负责共享磁盘,ceph-mds作文件系统共享,ceph-radosgw作对象存储共享
- for i in node1 node2 node3;do ssh $i "yum install ceph-mon ceph-osd ceph-mds ceph-radosgw -y"; done
(1)初始化MON配置(仅node1操作)
主配置文件为ceph.conf(在ceph-cluster当前目录下)
- mkdir ceph-cluster #创建目录,名称可自定义
- cd ceph-cluster #下面命令一定要先cd进去再执行,不然会报错
-
- ceph-deploy new node1 node2 node3 #创建主配置文件,new参数是新建集群,后面跟node集群节点

如上图,会在node1生成如上配置文件。

如上图,ceph.conf里记录了mon集群节点信息。
(2)配置并启动ceph-mon服务(仅node1操作)
(配置文件被拷贝到/etc/ceph/ceph.conf)
- cd /root/ceph-cluster/ #一定要先cd到ceph执行脚本目录里再执行下面命令,不然报错
-
- ceph-deploy mon create-initial #会远程所有node主机,拷贝配置文件至/etc/ceph目录,并启动ceph-mon服务


如上图可以看到,会自动远程所有节点主机,先拷贝主配置文件至/etc/ceph目录,然后启动各节点ceph-mon服务。
【常见错误】:
如果提示如下信息:
[node2][DEBUG] write cluster configuration to /etc/ceph/{cluster}.conf
[ceph_deploy.config][ERROR] RuntimeError:config file
/etc/ceph/ceph.conf exists with different content; use --overwrite-conf to overwrite
解决方式:
说明目标主机已经有ceph.conf配置文件,而且内容和当前目录的配置文件不一样,如果需要覆盖则使用--overwrite-conf选项
如:[root@node1 ceph-cluster]# ceph-deploy --overwrite-conf mon create-initial
ls /etc/ceph

如上图,其中:ceph.conf是主配置文件, ceph.client.admin.keyring文件存放的是ceph的用户名和密码。
查看各节点ceph-mon服务启动状态:
- #node1查看
- systemctl status ceph-mon@node1.service
-
- #node2查看
- systemctl status ceph-mon@node2.service
-
- #node3查看
- systemctl status ceph-mon@node3.service
查看整个ceph集群状态:
ceph -s #在任何一个node节点执行都可以,-s是status意思
如下图,集群监控状态目前是error,因为制作了monitor,还没做osd,但是可以看到目前已经有3个节点在monitor集群里:

(1)清空磁盘并创建分区表(仅在node1操作)
- #以下所有仅在node1操作
- cd /root/ceph-cluster/ #所有ceph-deploy操作都要在一开始创建的ceph-cluster目录执行
-
- #清空磁盘,并初始化分区表为GPT格式
- ceph-deploy disk zap node1:sdb node1:sdc node2:sdb node2:sdc node3:sdb node3:sdc
(2)启动OSD服务、共享OSD磁盘(仅在node1操作)
- #以下所有仅在node1操作
- cd /root/ceph-cluster/ #所有ceph-deploy操作都要在一开始创建的ceph-cluster目录执行
-
- #将sdc作为数据盘共享出去,sdb作为对应缓存盘
- ceph-deploy osd create node1:sdc:/dev/sdb node2:sdc:/dev/sdb node3:sdc/dev/sdb
-
- #ceph-deploy后可跟多个参数,也可单独执行,如下:
- #ceph-deploy osd create node1:sdc:/dev/sdb
- #ceph-deploy osd create node2:sdc:/dev/sdb
- #ceph-deploy osd create node3:sdc:/dev/sdb
常见错误:
如果提示错误信息:[ceph_deploy][ERROR]RuntimeError:bootstrap-osd keyring not found;run 'gatherkeys'
解决方案:
[root@node1 ceph-cluster]# ceph-deploy gatherkeys node1 node2 node3
(3)检查ceph集群状态
ceph -s #如下图,状态为HEALTH_OK
如上图可以看到ceph集群状态,有3个osd(不算缓存盘),3个盘加起来可用容量为60G。
如果ceph -s查看状态是"HEALTH_WARN clock shew detected"字样,表示各节点主机时间不同步,需要同步下时间。
查看各节点磁盘状态,如下以node1为例:

查看osd服务器状态:
- #以node1为例,ceph-osd@后面跟数字,数字以0开始,具体可以对应上图数据盘sdc1对应的挂载点ceph编号
- systemctl status ceph-osd@0.service

查看有几个共享盘:
ceph osd tree
