操作系统:centos8
三台服务器:
192.168.6.22:mon,mgr,mds,osd
192.168.6.23:mon,mgr,mds,osd
192.168.6.24:mon,mgr,mds,osd
正式环境osd和mon不应该在一个节点,建议osd单独服务器安装。
ceph版本:18.1.3
- # 关闭防火墙
- systemctl stop firewalld
- systemctl disable firewalld
-
-
- # 关闭selinux
- setenforce 0
- sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config
然后安装ceph的密钥,centos7和8都要执行,下面不特别说明都是centos7/8都执行命令:
rpm --import 'https://download.ceph.com/keys/release.asc'
把基础centos镜像传上去,才能执行下面
- # 更新yum源
- yum install epel-release
- yum install snappy leveldb gdisk gperftools-libs
把ceph镜像源加进去,才能安装ceph
或者vim /etc/yum.repos.d/ceph.repo
- [ceph]
- name=ceph
- baseurl=http://mirrors.aliyun.com/ceph/rpm-18.1.3/el8//x86_64/
- enabled=1
- gpgcheck=1
- priority=2
- gpgkey=https://mirrors.aliyun.com/ceph/keys/release.asc
-
- [ceph-noarch]
- name=cephnoarch
- baseurl=http://mirrors.aliyun.com/ceph/rpm-18.1.3/el8//noarch/
- gpgcheck=1
- priority=2
- enabled=1
- gpgkey=https://mirrors.aliyun.com/ceph/keys/release.asc
-
- [ceph-source]
- name=Ceph source packages
- baseurl=http://mirrors.aliyun.com/ceph/rpm-18.1.3/el8//SRPMS
- gpgcheck=1
- enabled=0
- priority=2
- gpgkey=https://mirrors.aliyun.com/ceph/keys/release.asc
每个节点都安装
yum install ceph
安装过程中会自动安装python3.6以及相关
的依赖等,安装完成之后最好再确认一下下面两个python模块是否存在,不存在就需要安装一下:
pip3 install pecan pip3 install werkzeug
在第一个节点执行
uuidgen 生成id
创建配置文件 vim /etc/ceph/ceph.conf
fsid, public netword (网络按cidr设置),mon_initial_members ,mon_host 默认端口6789,
osd pool default size = 3(正常数据会复制多少个副本)
osd pool default min size = 2(降级状态下,数据最少有多少副本,如果副本数小于它说明出问题了不能正常用)
osd pool default pg num(pg的数量,官方建议 (100*osd数量)/副本数量, 并且最接近2的幂,这里是 (100*3)/3=100,最接近2的幂是128)
osd pool default pgp num的值和osd pool default pg num相等
这些配置都需要改
- [global]
- fsid = 88ad70c0-b814-426b-bd92-745cea0e9dd5
- mon_initial_members = server22,server23,server24
- mon_host = 192.168.6.22,192.168.6.23,192.168.6.24
- public network = 192.168.6.0/22
- auth cluster required = cephx
- auth service required = cephx
- auth client required = cephx
- osd journal size = 1024
- osd pool default size = 3
- osd pool default min size = 2
- osd pool default pg num = 128
- osd pool default pgp num = 128
- osd crush chooseleaf type = 1
- mon_allow_pool_delete = true
创建秘钥
- # 为集群创建1个密钥环,作为监视器密钥 注意其中的点.不要丢
- ceph-authtool --create-keyring /tmp/ceph.mon.keyring --gen-key -n mon. --cap mon 'allow *'
- # 生成管理员密钥环 创建admin用户 也是第一个客户端用户
- ceph-authtool --create-keyring /etc/ceph/ceph.client.admin.keyring --gen-key -n client.admin --cap mon 'allow *' --cap osd 'allow *' --cap mds 'allow *' --cap mgr 'allow *'
- # 生成bootstrap密钥环和用户
- ceph-authtool --create-keyring /var/lib/ceph/bootstrap-osd/ceph.keyring --gen-key -n client.bootstrap-osd --cap mon 'profile bootstrap-osd' --cap mgr 'allow r'
- # 然后将刚才生成的密钥追加到ceph.mon.keyring
- ceph-authtool /tmp/ceph.mon.keyring --import-keyring /etc/ceph/ceph.client.admin.keyring
- ceph-authtool /tmp/ceph.mon.keyring --import-keyring /var/lib/ceph/bootstrap-osd/ceph.keyring
- # 修改ceph.mon.keyring的权限为ceph ceph用户安装时已经自动创建
- chown ceph:ceph /tmp/ceph.mon.keyring
安装监控
- # 使用主机名,主机IP地址和FSID生成monitor map。另存为/tmp/monmap:
- #node1 注意修改 hostname和ip地址
- monmaptool --create --add server22 192.168.6.22 --add server23 192.168.6.23 --add server23 192.168.6.23 --fsid 88ad70c0-b814-426b-bd92-745cea0e9dd5 /tmp/monmap
-
- # 复制monitor map到另外2个节点
- #node1
- scp /tmp/monmap root@server23:/tmp
- scp /tmp/monmap root@server24:/tmp
-
- # 复制ceph.client.admin.keyring到另外2个节点
- #node1
- scp /etc/ceph/ceph.client.admin.keyring root@server23:/etc/ceph/
- scp /etc/ceph/ceph.client.admin.keyring root@server24:/etc/ceph/
-
- # 复制ceph.mon.keyring到另外2个节点
- #node1
- scp /tmp/ceph.mon.keyring root@server23:/tmp/
- scp /tmp/ceph.mon.keyring root@server24:/tmp/
-
- #复制conf
- scp /etc/ceph/ceph.conf root@server23:/etc/ceph/
- scp /etc/ceph/ceph.conf root@server24:/etc/ceph/
-
- #注意修改文件权限
- #node1
- chown ceph:ceph /tmp/ceph.mon.keyring
- #node2
- chown ceph:ceph /tmp/ceph.mon.keyring
- #node3
- chown ceph:ceph /tmp/ceph.mon.keyring
-
- # 创建monitor数据目录. {集群名}-{节点名}
- #node1
- sudo -u ceph mkdir /var/lib/ceph/mon/ceph-server22
- #node2
- sudo -u ceph mkdir /var/lib/ceph/mon/ceph-server23
- #node3
- sudo -u ceph mkdir /var/lib/ceph/mon/ceph-server24
-
- # 用monitor map和keyring填充monitor守护程序。 注意修改节点名
- #node1
- sudo -u ceph ceph-mon --mkfs -i server22 --monmap /tmp/monmap --keyring /tmp/ceph.mon.keyring
- #node2
- sudo -u ceph ceph-mon --mkfs -i server23 --monmap /tmp/monmap --keyring /tmp/ceph.mon.keyring
- #node3
- sudo -u ceph ceph-mon --mkfs -i server24 --monmap /tmp/monmap --keyring /tmp/ceph.mon.keyring
- 执行这如果出错报/var/lib/ceph/mon/ceph-server23已经存在,就手动把这个目录删了,再次执行
-
- # 查看生成的文件
- #node1
- ls /var/lib/ceph/mon/ceph-server22/
- keyring kv_backend store.db
-
- # 启动monitor服务
- #node1
- systemctl restart ceph-mon@server22
- systemctl enable ceph-mon@server22
- #node2
- systemctl restart ceph-mon@server23
- systemctl enable ceph-mon@server23
- #node3
- systemctl restart ceph-mon@server24
- systemctl enable ceph-mon@server24
查看集群状态
ceph -s,此时应该有三个监控启动
- # 若异常则启用msgr2
- # ceph mon enable-msgr2
- 在三个节点分别执行
-
- #server22
- # 创建mgr密钥目录, 命名为: 集群名-主机名
- mkdir /var/lib/ceph/mgr/ceph-server22
- # 创建mgr身份验证密钥 注意里面的mgr.server22,为主机名
- ceph auth get-or-create mgr.server22 mon 'allow profile mgr' osd 'allow *' mds 'allow *' > /var/lib/ceph/mgr/ceph-server22/keyring
- # 修改权限
- chown -R ceph:ceph /var/lib/ceph/mgr/ceph-server22/
-
- #server23
- # 创建mgr密钥目录, 命名为: 集群名-主机名
- mkdir /var/lib/ceph/mgr/ceph-server23
- # 创建mgr身份验证密钥 注意里面的mgr.server23,为主机名
- ceph auth get-or-create mgr.server23 mon 'allow profile mgr' osd 'allow *' mds 'allow *' > /var/lib/ceph/mgr/ceph-server23/keyring
- # 修改权限
- chown -R ceph:ceph /var/lib/ceph/mgr/ceph-server23/
-
- #server24
- # 创建mgr密钥目录, 命名为: 集群名-主机名
- mkdir /var/lib/ceph/mgr/ceph-server24
- # 创建mgr身份验证密钥 注意里面的mgr.server24,node1为主机名
- ceph auth get-or-create mgr.server24 mon 'allow profile mgr' osd 'allow *' mds 'allow *' > /var/lib/ceph/mgr/ceph-server24/keyring
- # 修改权限
- chown -R ceph:ceph /var/lib/ceph/mgr/ceph-server24/
-
- # 注意官网这里用$name代替主机名,这里说的很含糊,建议使用主机名,无论如何和前面指定的那个host保持一致,这样后面就不会有一些奇怪的问题导致集群不能用,然后启动ceph-mgr守护进程:
- ceph-mgr -i server22
- ceph-mgr -i server23
- ceph-mgr -i server24
-
- # 启动ceph-mgr守护程序:
- #node1
- systemctl restart ceph-mgr@server22
- systemctl enable ceph-mgr@server22
- #node2
- systemctl restart ceph-mgr@server23
- systemctl enable ceph-mgr@server23
- #node3
- systemctl restart ceph-mgr@server24
- systemctl enable ceph-mgr@server24
-
- # 通过ceph status查看输出来检查mgr是否出现
- 这时候应该有三个mgr
[root@server24 ceph-server24]# ceph -s
cluster:
id: 88ad70c0-b814-426b-bd92-745cea0e9dd5
health: HEALTH_WARN
mons are allowing insecure global_id reclaim
OSD count 0 < osd_pool_default_size 3
services:
mon: 3 daemons, quorum server22,server23,server24 (age 2h)
mgr: server22(active, since 2h), standbys: server24, server23
osd: 0 osds: 0 up, 0 in
data:
pools: 0 pools, 0 pgs
objects: 0 objects, 0 B
usage: 0 B used, 0 B / 0 B avail
pgs:
- # 复制keyring到其他2个节点
- #node1
- scp /var/lib/ceph/bootstrap-osd/ceph.keyring root@server23:/var/lib/ceph/bootstrap-osd/
- scp /var/lib/ceph/bootstrap-osd/ceph.keyring root@server24:/var/lib/ceph/bootstrap-osd/
-
- # 创建OSD
- [root@node1 ~]# lsblk
- NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
- sda 8:0 0 100G 0 disk
- ├─sda1 8:1 0 1G 0 part /boot
- └─sda2 8:2 0 99G 0 part
- ├─cs-root 253:0 0 61.2G 0 lvm /
- ├─cs-swap 253:1 0 7.9G 0 lvm
- └─cs-home 253:2 0 29.9G 0 lvm /home
- sdb 8:16 0 10G 0 disk
-
-
- # 3个节点上执行
- ceph-volume lvm create --data /dev/sdb
-
- # 启动各个节点osd进程
- #node1
- systemctl restart ceph-osd@0
- systemctl enable ceph-osd@0
- #node2
- systemctl restart ceph-osd@1
- systemctl enable ceph-osd@1
- #node3
- systemctl restart ceph-osd@2
- systemctl enable ceph-osd@2
-
-
- # 查看集群状态
- ceph -s
- cluster:
- id: 8d2cfd33-9132-48a7-8c00-3ef10cb5ddeb
- health: HEALTH_WARN
- mons are allowing insecure global_id reclaim
-
- services:
- mon: 3 daemons, quorum node1,node2,node3 (age 5m)
- mgr: node3(active, since 4m), standbys: node1, node2
- osd: 3 osds: 3 up (since 7s), 3 in (since 62s)
-
- data:
- pools: 1 pools, 1 pgs
- objects: 2 objects, 577 KiB
- usage: 18 MiB used, 30 GiB / 30 GiB avail
- pgs: 1 active+clean
-
- io:
- client: 1.2 KiB/s rd, 36 KiB/s wr, 1 op/s rd, 1 op/s wr
- recovery: 27 KiB/s, 0 objects/s
- # 创建mds数据目录。
- #node1
- sudo -u ceph mkdir -p /var/lib/ceph/mds/ceph-server22
- #node2
- sudo -u ceph mkdir -p /var/lib/ceph/mds/ceph-server23
- #node3
- sudo -u ceph mkdir -p /var/lib/ceph/mds/ceph-server24
-
-
- # 创建keyring:
- #node1
- ceph-authtool --create-keyring /var/lib/ceph/mds/ceph-server22/keyring --gen-key -n mds.server22
- #node2
- ceph-authtool --create-keyring /var/lib/ceph/mds/ceph-server23/keyring --gen-key -n mds.server23
- #node3
- ceph-authtool --create-keyring /var/lib/ceph/mds/ceph-server24/keyring --gen-key -n mds.server24
-
- # 导入keyring并设置权限:
- #node1
- ceph auth add mds.server22 osd "allow rwx" mds "allow" mon "allow profile mds" -i /var/lib/ceph/mds/ceph-server22/keyring
- chown ceph:ceph /var/lib/ceph/mds/ceph-server22/keyring
- #node2
- ceph auth add mds.server23 osd "allow rwx" mds "allow" mon "allow profile mds" -i /var/lib/ceph/mds/ceph-server23/keyring
- chown ceph:ceph /var/lib/ceph/mds/ceph-server23/keyring
- #node3
- ceph auth add mds.server24 osd "allow rwx" mds "allow" mon "allow profile mds" -i /var/lib/ceph/mds/ceph-server24/keyring
- chown ceph:ceph /var/lib/ceph/mds/ceph-server24/keyring
- 所有节点修改ceph.conf配置文件,追加以下内容
-
- cat >> /etc/ceph/ceph.conf <
- [mds.server22]
- host = server22
-
- [mds.server23]
- host = server23
-
- [mds.server24]
- host = server24
- EOF
-
- 重新启动所有服务
-
- #node1
- systemctl restart ceph-mon@server22
- systemctl restart ceph-mgr@server22
- systemctl restart ceph-mds@server22
- systemctl enable ceph-mds@server22
- systemctl restart ceph-osd@0
-
- #node2
- systemctl restart ceph-mon@server23
- systemctl restart ceph-mgr@server23
- systemctl restart ceph-mds@server23
- systemctl enable ceph-mds@server23
- systemctl restart ceph-osd@1
-
- #node3
- systemctl restart ceph-mon@server24
- systemctl restart ceph-mgr@server24
- systemctl restart ceph-mds@server24
- systemctl enable ceph-mds@server24
- systemctl restart ceph-osd@2
ceph所有的存储都是基于存储池才能分配,因此要先创建存储池,初始情况至少创建两个存储池(RADOS):1个用于存储数据,1个用于存储元数据信息,创建命令如下:
这个大小需要再研究
# 创建名字为cephfs_data的数据池 pg大小为128 ceph osd pool create cephfs_data 128 # 创建名字为cephfs_metadata的存储池 pg大小为64 ceph osd pool create cephfs_metadata 64
存储池可以创建多个,并且所有的存储池共享底层的存储空间,比如A存储池占用了一部分,那个B存储池就只能用剩下的部分了,而且之后挂载后剩余大小的显示也会变小,这个后面可以验证
另外就是注意这里pg大小正常指定128或64就够了,正常默认1个pool最多支持250个pg,可以通过参数调整限制大小,这里两个池都是一样的数据池,后续创建文件系统会指定哪个用于数据,哪个用于元数据存储,这里名字只是个代号,然后基于存储池创建文件系统,命令如下:
# ceph fs new<元数据池> <数据池> ceph fs new cephfs cephfs_metadata cephfs_data
执行成功之后通过命令: ceph fs ls 查看存在的文件系统,正常显示如下:

然后还可以执行 ceph mds stat 查看mds当前的活动状态
挂载文件系统有两种方式,一种是基于操作系统内核直接挂载,另一种是使用ceph fuse挂载,通常推荐第一种方式挂载,这样性能和效率都是最高的,如果第一种方式挂载不成功的话,可以尝试使用fuse方式挂载,看看能否定位到什么问题,下面我们直接使用内核方式挂载:
使用内核方式挂载要确认mount是否支持ceph: stat /sbin/mount.ceph ,正常安装好ceph包都会有/sbin/mount.ceph这个文件,说明支持ceph的文件系统,然后创建挂载点使用admin用户挂载:
在服务端节点直接挂载:
mkdir /home/unity-data mount -t ceph :/ /home/unity-data/ -o name=admin
在客户端节点挂载:
- # 获取最小配置 这里ssh的是ceph-mon节点机器 注意配置hosts 执行按照提示输入密码
- ssh root@server22 "ceph config generate-minimal-conf" | tee /etc/ceph/ceph.conf
- # 设置默认权限
- chmod 644 /etc/ceph/ceph.conf
- # 创建用户密钥环 cephfs是文件系统名称 这里用户名是zzy 对根目录/有rw权限
- ssh root@server22 "ceph fs authorize cephfs client.zzy / rw" | tee /etc/ceph/ceph.client.zzy.keyring
- # 设置密钥文件的权限
- chmod 600 /etc/ceph/ceph.client.zzy.keyring
- # 创建挂载点
- mkdir /home/unity-data
- mount -t ceph :/ /home/unity-data/ -o name=zzy
删除挂载:
umount /home/unity-data
开启插件。
#ceph mgr module enable dashboard
禁用SSL。
#ceph config set mgr mgr/dashboard/ssl false
配置监听IP。
#ceph config set mgr mgr/dashboard/server_addr 0.0.0.0
温馨提醒
此处必须设置监控地址为0.0.0.0,而不能是直接IP地址,因为其监控的是所有本地地址包括IPV4和IPV6,同时也不能禁用IPV6地址。
配置监听端口。
#ceph config set mgr mgr/dashboard/server_port 8443
在一个文件里写下密码,比如 vim /etc/ceph/dashboard_pwd.txt
设置用户及密码。
#ceph dashboard ac-user-create admin -i /etc/ceph/dashboard_pwd.txt administrator
查看已开启模块信息。
#ceph mgr services
使用配置生效。
- #ceph mgr module disable dashboard
- #ceph mgr module enable dashboard
通过查看ceph mgr services命令输出地址。
- #ceph mgr services
- {
- "dashboard": "http://ceph-node1.localdomain:8443/"
- }
访问Ceph Dashboard地址http://192.168.123.199:8443/#
如果发现用户权限有问题,登录不了,可以先删除用户,再创建
删除命令:ceph dashboard ac-user-delete admin
查看有几个client连接。对mds主查
ceph daemon mds.server23 session ls
健康:ceph health detail
查询osd状态和权重: ceph osd tree
查看osd服务: systemctl status ceph-osd@2
查看mon服务: systemctl status ceph-mon@server24
查看mgr服务:systemctl status ceph-mgr@server24
查看mds服务:systemctl status ceph-mds@server24
查询文件在哪个pg,哪个osd上,[1,2,0]代表三个osd都有文件,p1代表1是primary osd:
ceph osd map cephfs_data /home/unity-data/out22-.txt
结果:osdmap e3313 pool 'cephfs_data' (2) object '/home/unity-data/out22-.txt' -> pg 2.b65944d6 (2.16) -> up ([1,2,0], p1) acting ([1,2,0], p1)
查询pg在哪个osd:
ceph pg map 2.16
osdmap e3313 pg 2.16 (2.16) -> up [1,2,0] acting [1,2,0]
查询fs状态、查mds主、及状态:ceph fs status
查询文件池名称:ceph fs ls