• 离线安装ceph集群(ceph-13.2.10)


    记录:332

    场景:在CentOS 7.9操作系统上,使用ceph的rpm-mimic的ceph-13.2.10安装ceph集群。应用ceph对象存储(ceph object store);应用ceph块设备(ceph block device);应用ceph文件系统(ceph file system)。

    版本:

    操作系统:CentOS 7.9

    ceph版本:ceph-13.2.10

    名词:

    Ceph:一个开源的分布式存储系统。

    Ceph: Ceph uniquely delivers object, block, and file storage in one unified system.

    Monitors: A Ceph Monitor (ceph-mon) maintains maps of the cluster state, including the monitor map, manager map, the OSD map, the MDS map, and the CRUSH map.

    Managers: A Ceph Manager daemon (ceph-mgr) is responsible for keeping track of runtime metrics and the current state of the Ceph cluster, including storage utilization, current performance metrics, and system load.

    Ceph OSDs: An Object Storage Daemon (Ceph OSD, ceph-osd) stores data, handles data replication, recovery, rebalancing, and provides some monitoring information to Ceph Monitors and Managers by checking other Ceph OSD Daemons for a heartbeat.

    MDSs: A Ceph Metadata Server (MDS, ceph-mds) stores metadata on behalf of the Ceph File System (i.e., Ceph Block Devices and Ceph Object Storage do not use MDS).

    来源官网:https://docs.ceph.com/en/quincy/start/intro/

    1.主机规划

    1.1主机磁盘规划

    (1)安装ceph集群节点主机规划

    主节点app161;内存:4GB;硬盘(SCSI):50GB;硬盘2(SCSI):40GB。

    从节点app162;内存:4GB;硬盘(SCSI):50GB;硬盘2(SCSI):40GB。

    从节点app163;内存:4GB;硬盘(SCSI):50GB;硬盘2(SCSI):40GB。

    要求:主机app161、app162、app163都挂载一个干净硬盘,该硬盘是专门给集群挂载ceph文件系统使用。

    (2)安装ceph客户端挂载ceph文件系统节点主机

    从节点app164;内存:4GB;硬盘(SCSI):50GB。

    从节点app165;内存:4GB;硬盘(SCSI):50GB。

    1.2主机软件规划

    ceph集群和ceph客户端的主机、IP以及组件分布规划。

    2.下载安装包

    (1)在公网下载ceph的rpm包

    主机:可连接公网的机器。

    下载rpm包:使用reposync命令下载。

    下载地址:https://mirrors.aliyun.com/ceph

    ceph-13.2.10版本noarch包:https://mirrors.aliyun.com/ceph/rpm-mimic/el7/noarch

    ceph-13.2.10版本x86_64包:https://mirrors.aliyun.com/ceph/rpm-mimic/el7/x86_64

    (2)已下载的rpm包拷贝到内网机器

    (3)在内网制作本地ceph镜像仓库

    主机:内网主机。

    制作本地镜像:使用createrepo命令。

    发布本地镜像:使用httpd发布。

    (4)满足使用yum命令安装ceph需求

    确认本地镜像仓库包含版本:ceph-13.2.10。

    查看命令:yum list --showduplicates ceph-13.2.10

    (5)搭建本地镜像仓库参考博文

    参考博文:https://blog.csdn.net/zhangbeizhen18/article/details/128010070

    3.主机基础环境

    (1)JDK环境

    查看版本:java -version

    打印信息:java version "1.8.0_281"

    (2)设置主机名称

    B161机器:hostnamectl  set-hostname  app161

    B162机器:hostnamectl  set-hostname  app162

    B163机器:hostnamectl  set-hostname  app163

    B164机器:hostnamectl  set-hostname  app164

    B165机器:hostnamectl  set-hostname  app165

    (3)hosts文件

    修改命令:vi /etc/hosts

    修改内容:

    1. 192.168.19.161  app161
    2. 192.168.19.162  app162
    3. 192.168.19.163  app163
    4. 192.168.19.164  app164
    5. 192.168.19.165  app165

    (4)关闭SELinux

    修改指令:vi /etc/selinux/config

    修改内容:把SELINUX=enforcing改成SELINUX=disabled

    (5)关闭防火墙

    设置开机禁用防火墙:systemctl stop firewalld

    (6)设置swappiness

    设置swappiness命令:echo vm.swappiness = 10 >> /etc/sysctl.conf

    (7)关闭透明大页面

    编辑指令:vi /etc/rc.d/rc.local

    1. if test -f /sys/kernel/mm/transparent_hugepage/enabled;
    2. then echo never > /sys/kernel/mm/transparent_hugepage/enabled
    3. fi
    4. if test -f /sys/kernel/mm/transparent_hugepage/defrag;
    5. then echo never > /sys/kernel/mm/transparent_hugepage/defrag
    6. fi

    添加可执行命令:chmod +x /etc/rc.d/rc.local

    (8)设置最大文件句柄数

    修改指令:vi /etc/security/limits.conf

    修改内容:

    * soft nofile 102400

    * hard nofile 102400

    (9)配置免密登录

    公钥和秘钥生成指令:ssh-keygen -t rsa

    拷贝公钥到目标主机:ssh-copy-id app162

    验证免密登录:ssh root@app162

    (10)配置ntp时间同步服务器

    查看ntp状态命令:ntpstat

    (11)配置本地yum源镜像仓库

    查看仓库中ceph包:yum list --showduplicates ceph

    (12)其它工具

    安装命令:yum install -y net-tools.x86_64 yum-utils

    安装命令:yum install -y python-setuptools

    安装命令:yum install -y perl

    4.ceph集群安装软件说明

    ceph集群由ceph、mon、mgr、osd、rgw等模块组成,需逐个模块创建,才能完成部署。

    (1)主从节点安装软件包说明

    在主节点app161安装ceph-deploy、ceph、ceph-radosgw软件包。

    在从节点app162、app163安装ceph、ceph-radosgw软件包。

    (2)主节点使用ceph-deploy说明

    在主节点使用ceph-deploy命令,完成ceph集群的ceph、mon、mgr、mds、osd、rgw等模块创建和部署。

    5.主节点安装ceph

    主机app161是主节点,ceph的组件:mon、mgr、osd、rgw创建集群等操作都在主节点操作。

    (1)安装ceph-deploy和ceph

    安装命令:yum install -y ceph-deploy ceph-13.2.10

    (2)安装ceph-radosgw

    安装命令:yum install -y ceph-radosgw-13.2.10

    (3)安装完成后目录和文件说明

    配置文件目录:/etc/ceph/

    日志目录:/var/log/ceph

    查看ceph:ll /usr/bin/ | grep ceph

    查看radosgw:ll /usr/bin/ | grep radosgw

    6.从节点安装ceph

    主机app162和app163是从节点。

    (1)安装ceph

    安装命令:yum install -y ceph-13.2.10

    (2)安装ceph-radosgw

    安装命令:yum install -y ceph-radosgw-13.2.10

    (3)安装完成后目录和文件说明

    配置文件目录:/etc/ceph/

    日志目录:/var/log/ceph

    查看ceph:ll /usr/bin/ | grep ceph

    查看radosgw:ll /usr/bin/ | grep radosgw

    7.创建ceph的mon模块

    在主节点app161操作,操作目录:cd /etc/ceph。操作工具:ceph-deploy。

    (1)创建ceph集群

    命令:ceph-deploy new app161 app162 app163

    解析:使用ceph-deploy new命令创建一个集群。在/etc/ceph目录下,生成的配置文件:ceph.conf、ceph-deploy-ceph.log、ceph.mon.keyring、rbdmap。

    (2)创建并初始化mon模块

    命令:ceph-deploy mon create-initial

    解析:在ceph集群中创建并初始mon,创建Ceph的mon守护进程管理器。

    在主节点/etc/ceph下生成并写配置文件:ceph.bootstrap-mds.keyring、ceph.bootstrap-mgr.keyring、ceph.bootstrap-osd.keyring、ceph.bootstrap-rgw.keyring、ceph.client.admin.keyring、ceph.conf、ceph-deploy-ceph.log、ceph.mon.keyring、rbdmap。

    在从节点/etc/ceph下生成并写配置文件:ceph.conf、rbdmap、tmp5mSKU7。

    (3)查看集群状态

    命令:ceph -s

    解析:集群安装完成后,可以使用ceph -s,查看集群状态。包括cluster、services、data三个模块。

    8.创建ceph的osd模块

    在主节点app161操作,操作目录:cd /etc/ceph。操作工具:ceph-deploy。

    (1)确认每个节点挂载的磁盘

    主节点app161磁盘:/dev/sdb

    从节点app162磁盘:/dev/sdb

    从节点app163磁盘:/dev/sdb

    查看命令:ceph-deploy disk list app161

    解析:使用ceph-deploy disk list查主机磁盘。

    (2)格式化每个节点挂载磁盘

    app161节点硬盘格式化:ceph-deploy disk zap app161 /dev/sdb

    app162节点硬盘格式化:ceph-deploy disk zap app162 /dev/sdb

    app163节点硬盘格式化:ceph-deploy disk zap app163 /dev/sdb

    解析:格式化需挂载的磁盘。

    (3)创建osd并挂载到磁盘

    将每个主机的/dev/sdb磁盘挂载为osd盘。

    app161节点:ceph-deploy osd create --data /dev/sdb app161

    app162节点:ceph-deploy osd create --data /dev/sdb app162

    app163节点:ceph-deploy osd create --data /dev/sdb app163

    (3)查看集群状态

    命令:ceph -s

    解析:集群安装完成后,可以使用ceph -s,查看集群状态。包括cluster、services、data三个模块。

    9.创建ceph的mgr模块

    在主节点app161操作,操作目录:cd /etc/ceph。操作工具:ceph-deploy。

    9.1创建mgr模块

    (1)创建mgr

    命令:ceph-deploy mgr create app161 app162 app163

    解析:创建mgr,收集ceph集群状态,提供可视化界面用于监控集群。

    (2)查看集群状态

    命令:ceph -s

    解析:集群安装完成后,可以使用ceph -s,查看集群状态。包括cluster、services、data三个模块。

     9.2配置dashboard

    (1)开启dashboard功能

    命令:ceph mgr module enable dashboard

    解析:开启dashboard功能。

    (2)创建证书

    命令:ceph dashboard create-self-signed-cert

    解析:创建证书。

    (3)配置web登录的用户名和密码

    命令:ceph dashboard set-login-credentials hangzhou demo123456

    解析:在web页面登录的用户名和口令。

    (4)修改dashboard默认端口

    配置端口,默认端口是8443,修改为18443,修改后需重启mgr,修改端口才生效。

    修改端口命令:ceph config set mgr mgr/dashboard/server_port 18443

    重启mgr命令:systemctl restart ceph-mgr.target

    (5)查看发布服务地址

    命令:ceph mgr services

    解析:

    (6)登录ceph的dashboard

    默认登录地址:https://192.168.19.161:8443/

    修改后登录地址:

    https://192.168.19.161:18443/

    https://192.168.19.162:18443/

    https://192.168.19.163:18443/

    执行ceph -s查看,哪个可用。

    用户名/口令:hangzhou/demo123456

    10.创建ceph的mds模块

    在主节点app161操作,操作目录:cd /etc/ceph。操作工具:ceph-deploy。

    (1)创建mds

    命令:ceph-deploy mds create app161 app162 app163

    解析:创建mds,使用cephfs文件系统服务时,需安装mds。作用:数据元服务。

    (2)查看集群状态

    命令:ceph -s

    解析:集群安装完成后,可以使用ceph -s,查看集群状态。包括cluster、services、data三个模块。

    11.创建ceph的rgw模块

    在主节点app161操作,操作目录:cd /etc/ceph。操作工具:ceph-deploy。

    (1)创建rgw

    命令:ceph-deploy rgw create app161 app162 app163

    解析:创建rgw,使用对象网关。

    (2)查看集群状态

    命令:ceph -s

    解析:集群安装完成后,可以使用ceph -s,查看集群状态。包括cluster、services、data三个模块。

    12.启动和停止ceph组件

    在主节点app161操作,操作目录:cd /etc/ceph。

    12.1启动服务

    systemctl start ceph.target

    systemctl start ceph-mds.target

    systemctl start ceph-mgr.target

    systemctl start ceph-mon.target

    systemctl start ceph-osd.target

    systemctl start ceph-radosgw.target

    12.2停止服务

    systemctl stop ceph.target

    systemctl stop ceph-mds.target

    systemctl stop ceph-mgr.target

    systemctl stop ceph-mon.target

    systemctl stop ceph-osd.target

    systemctl stop ceph-radosgw.target

    12.3重启服务

    systemctl restart ceph.target

    systemctl restart ceph-mds.target

    systemctl restart ceph-mgr.target

    systemctl restart ceph-mon.target

    systemctl restart ceph-osd.target

    systemctl restart ceph-radosgw.target

    13.操作存储池pool

    在主节点app161操作,操作目录:cd /etc/ceph。

    存储池作用是存放数据和元数据。默认三个副本。

    13.1创建存储池pool

    (1)创建pool

    命令:ceph osd pool create hz_data 16

    解析:创建一个存储池,名称hz_data,分配16个pg。

    (2)查看pool的pg数量

    命令:ceph osd pool get hz_data pg_num

    解析:查看pool的pg_num数量。

    (3)指定pool的pg数量

    命令:ceph osd pool set hz_data pg_num 18

    解析:设置pool的pg_num数量。

    (4)查看集群状态

    命令:ceph -s

    解析:查看集群状态。包括cluster、services、data三个模块。

    13.2删除存储池pool

    (1)设置允许删除pool

    修改文件:vi /etc/ceph/ceph.conf

    修改内容:mon_allow_pool_delete=true

    分发配置到每个主机:ceph-deploy --overwrite-conf admin app161 app162 app163

    重启ceph-mon命令(3个主机):systemctl restart ceph-mon.target

    (2)删除pool

    命令:ceph osd pool delete hz_data hz_data --yes-i-really-really-mean-it

    解析:删除pool时,pool的名称需要传两次。

    (4)查看集群状态

    命令:ceph -s

    解析:查看集群状态。包括cluster、services、data三个模块。

    14.操作ceph文件系统

    使用ceph文件系统存储,需部署mds。

    14.1创建ceph文件系统

    在主节点app161操作,操作目录:cd /etc/ceph。

    (1)查看mds确定已安装mds

    查看命令:ceph mds stat

    解析:查看mds状态,如果没安装mds,那么需安装mds。

    安装命令:ceph-deploy  mds create app161 app162 app163

    (2)创建两个存储池

    一个ceph文件系统至少要两个RADOS存储池,一个用于存放数据,一个用于存放元数据。

    创建存放数据pool:ceph osd pool create xihu_data 16

    创建存放元数据pool:ceph osd pool create xihu_metadata 8

    解析:创建存储池xihu_data和xihu_metadata。

    (3)创建ceph文件系统

    命令:ceph fs new hangzhoufs xihu_metadata xihu_data

    解析:使用ceph fs new创建ceph文件系统;文件系统名称:hangzhoufs;存储池xihu_data和xihu_metadata。

    (4)查ceph文件系统

    命令:ceph fs ls

    解析:查看ceph文件系统,打印文件系统名称和存储池。

    打印信息:name: hangzhoufs, metadata pool: xihu_metadata, data pools: [xihu_data ]

    (5)查看集群状态

    命令:ceph -s

    解析:查看集群状态。包括cluster、services、data三个模块。mds下已经看到hangzhoufs文件系统。

    14.2开启客户端认证

    在主节点app161操作,操作目录:cd /etc/ceph。

    (1)确认ceph.conf文件

    文件:/etc/ceph/ceph.conf

    内容:auth_client_required = cephx

    (2)确认客户端秘钥

    秘钥文件名称:/etc/ceph/ceph.client.admin.keyring

    秘钥内容:

    1. [client.admin]
    2. key = AQDtioBjVwefMBAAu0/oJPK2khWK+juNOQkyZw==
    3. caps mds = "allow *"
    4. caps mgr = "allow *"
    5. caps mon = "allow *"
    6. caps osd = "allow *"

    14.3客户端挂载ceph文件系统

    在客户端节app166操作,操作目录:cd /etc/ceph。

    挂载ceph文件系统目的就是把ceph文件系统挂载到客户端app166中。

    14.3.1安装客户端

    安装客户端:yum install -y ceph-common

    14.3.2配置户端

    (1)创建配置目录

    命令:mkdir -p /etc/ceph

    解析:如果没有则创建目录。

    (2)生成配置文件

    配置内容取自主节点app161的/etc/ceph/ceph.client.admin.keyring中的key值。

    方式一:

    创建文件:vi client-admin.key

    添加内容:AQDtioBjVwefMBAAu0/oJPK2khWK+juNOQkyZw==

    方式二:

    命令:echo 'AQDtioBjVwefMBAAu0/oJPK2khWK+juNOQkyZw==' >>client-admin.key

    (3)创建挂载文件系统的目录

    命令:mkdir /hangzhoufs_data

    解析:此目录就是为了把远程文件系统挂载到本地使用。

    (4)挂载文件系统

    挂载ceph文件系统命令:mount.ceph  192.168.19.161:6789:/ /hangzhoufs_data/ -o name=admin,secretfile=/etc/ceph/client-admin.key

    解析:mount.ceph,挂载命令。192.168.19.161:6789:/,指定主机和端口,其中端口6789是mon的端口,/斜杆表示从文件系统根目录。/hangzhoufs_data/,表示挂载到本地的目录。-o表示指定参数选项。name=admin,表示用户名,实际就是ceph.client.admin.keyring文件中的admin。secretfile,表示秘钥文件。

    (5)查看客户端挂载文件系统

    命令:df -h

    解析:挂载后:192.168.19.161:6789:/ 37G 0 37G 0% /hangzhoufs_data;从磁盘挂载信息看到已经挂载成功。

    (6)在客户端操作挂载目录

    目录:cd /hangzhoufs_data

    14.4删除ceph文件系统

    14.4.1删除客户端数据

    在客户端节app166操作,操作目录:cd /hangzhoufs_data。

    (1)删除数据

    命令:rm -rf /hangzhoufs_data/*

    解析:删除已经挂载目录数据。

    (2)卸载已挂载的目录

    命令:umount  /hangzhoufs_data/

    解析:卸载已挂载的目录

    (3)查看磁盘

    命令:df -h

    解析:查看磁盘情况。

    14.4.2停止mds守护进程

    节点app161:systemctl stop ceph-mds.target

    节点app162:systemctl stop ceph-mds.target

    节点app163:systemctl stop ceph-mds.target

    14.4.3删除ceph文件系统

    命令:ceph fs rm hangzhoufs --yes-i-really-mean-it

    解析:hangzhoufs是已创建的ceph文件系统名称。

    14.4.4删除ceph存储池pool

    删除元数据池:ceph osd pool delete xihu_metadata xihu_metadata  --yes-i-really-really-mean-it

    删除数据池:ceph osd pool delete xihu_data xihu_data --yes-i-really-really-mean-it

    解析:删除pool时,需传递两次pool的名称。

    14.4.5重启mds守护进程

    节点app161:systemctl start ceph-mds.target

    节点app162:systemctl start ceph-mds.target

    节点app163:systemctl start ceph-mds.target

    解析:重启mds。

    15操作ceph块存储

    15.1同步主节点配置文件到客户端

    在主节点app161操作,操作目录:cd /etc/ceph。

    (1)执行同步配置文件操作

    命令:ceph-deploy admin 192.168.19.166

    解析:ceph-deploy admin,执行同步配置命令;192.168.19.166,是客户端主机ip,如果没有配置免密,那么就需要输入密码确认。

    (2)同步的文件列表

    从主节点app161同步到客户端节点的配置文件:

    ceph.client.admin.keyring、ceph.con、tmpW4qEGF。

    15.2创建块存储

    在客户端app166操作,操作目录:cd /etc/ceph。

    15.2.1客户端创建存储池与初始化

    (1)创建存储池

    命令:ceph osd pool create hz_rbd_pool 32

    解析:存储池名称:hz_rbd_pool。

    (2)初始化存储池

    命令:rbd pool init hz_rbd_pool

    解析:存储池名称:hz_rbd_pool。

    15.2.2客户端创建image

    在主节点app161操作,操作目录:cd /etc/ceph。

    (1)创建image

    命令:rbd create hz_volume --pool hz_rbd_pool --size 1024

    解析:创建image名称:hz_volume;对应存储池:hz_rbd_pool;指定大小:1024MB。

    (2)查看image

    命令:rbd ls hz_rbd_pool

    解析:查看hz_rbd_pool,会打印出 hz_volume。

    (3)查看rbd image详细信息

    命令:rbd info hz_volume -p hz_rbd_pool

    解析:查看rbd image详细信息

    15.2.3把image映射成块存储

    在主节点app161操作,操作目录:cd /etc/ceph。

    (1)image映射成块存

    映射步骤一:rbd feature disable hz_rbd_pool/hz_volume object-map fast-diff deep-flatten

    映射步骤二:rbd map hz_rbd_pool/hz_volume

    解析:映射成功后,打印信息:/dev/rbd0。映射到rbd0.

    (2)查看映射

    查看映射命令:rbd showmapped

    解析:能查看映射目的目录。

    (3)取消映射

    命令:rbd unmap /dev/rbd0

    解析:取消映射。

    (4)查看映射的块

    命令:lsblk

    解析:已经看到块rdb0.

    15.2.4块存储分区、创建文件系统和挂载

    15.2.4.1块分区

    (1)块分区

    分区:fdisk /dev/rbd0

    解析:把磁盘/dev/rbd0块分区;按提示分区。

    (2)查看结果

    查看分区结果:lsblk

    15.2.4.2创建文件系统

    命令:mkfs.xfs /dev/rbd0p1

    解析:创建为/dev/rbd0p1文件系统。

    15.2.4.3挂载磁盘

    (1)创建挂载目录

    命令:mkdir -p /mnt/hz_data

    (2)挂载磁盘

    命令:mount /dev/rbd0p1 /mnt/hz_data

    解析:磁盘挂载到/mnt/hz_data。

    (3)查看挂载结果

    命令:df -h

    15.2.5应用块存储

    (1)写入一条数据到文件。

    命令:echo 'Hangzhou is a city.'>>/mnt/hz_data/hz.txt

    解析:写入到挂载目录,需求全路径名称。

    15.3块存储在线扩容

    在客户端app166操作。对块存储/dev/rbd0,做块存储在线扩容。

    注意:块存储在线扩容必须在/dev/rbd0块设备上才支持;在块存储分区/dev/rbd0p1上不能扩容。

    (1)卸载已挂载的块存储

    卸载命令:umount /mnt/hz_data

    解析:使用umount命令,卸载已挂载到/mnt/hz_data目录的块设备/dev/rbd0。

    (2)删除/dev/rbd0分区

    删除分区:fdisk /dev/rbd0

    解析:在执行过程中根据提示,选择d代表删除、w代表写入和保存。

    (3)对/dev/rbd0设备格式化

    命令:mkfs.xfs -f /dev/rbd0

    解析:格式化文件系统。

    (4)挂载设备

    命令:mount /dev/rbd0 /mnt/hz_data

    解析:使用mount挂载设备。

    (5)在线扩容

    命令:rbd resize --size 1800 hz_rbd_pool/hz_volume

    解析:使用rbd resize在线扩容。

    (6)扩展文件系统

    命令:xfs_growfs -d /mnt/hz_data

    解析:fs_growfs命令来扩容xfs文件系统,将磁盘和文件系统容量对应上。

    (7)查看扩展结果

    查看磁盘:lsblk

    查看文件系统:df -h

    15.4块存储离线缩容

    缩容前,数据备份。

    (1)缩容

    命令:rbd resize --size 600 hz_rbd_pool/hz_volume --allow-shrink

    解析:缩容到600MB。

    查看缩容后信息:rbd info hz_rbd_pool/hz_volume | grep size

    (2)卸载已挂载的块存储

    卸载命令:umount /mnt/hz_data

    解析:使用umount命令,卸载已挂载到/mnt/hz_data目录的块设备/dev/rbd0。

    (3)格式化文件系统

    命令:mkfs.xfs -f /dev/rbd0

    解析:格式化文件系统。

    (4)挂载存储块

    命令:mount /dev/rbd0 /mnt/hz_data

    解析:使用mount挂载设备。

    (5)查看缩容结果

    查看磁盘:lsblk

    查看文件系统:df -h

    15.5删除块存储

    (1)卸载已挂载的块存储

    卸载命令:umount /mnt/hz_data

    解析:使用umount命令,卸载已挂载到/mnt/hz_data目录的块设备/dev/rbd0。

    (2)删除设备映射

    命令:rbd unmap /dev/rbd0

    (3)删除块存储此

    命令:ceph osd pool delete hz_rbd_pool hz_rbd_pool --yes-i-really-really-mean-it

    解析:删除pool时,需传递两次pool的名称。

    16操作ceph对象存储

    16.1确认已经安装rgw

    在主节点app161操作,操作目录:cd /etc/ceph。

    (1)确认已安装rgw

    命令:ceph -s

    解析:查看集群状态,确认rgw已安装。

    (2)安装rgw

    命令:ceph-deploy rgw create app161 app162 app163

    解析:如果没有安装rgw,那么使用此命令安装。

    16.2客户端生成操作对象存储秘钥

    在客户端app166操作,操作目录:cd /etc/ceph。

    (1)创建秘钥

    命令:radosgw-admin user create --uid="hangzhou" --display-name="hangzhou"

    解析:radosgw-admin是安装ceph-common已安装;hangzhou,是指定的名称。

    (2)生成秘钥信息

    生成key信息:

    1. ...
    2. "user": "hangzhou",
    3. "access_key": "IH7D60Y1FCF3RZR9NG36",
    4. "secret_key": "vAG2dK6kyhJTRPbH5Nogw0Uqja2UR8egPeRoxDNb"
    5. ...

    16.3使用S3操作对象存储

    使用s3工具连接ceph的对象存储进行操作对象存储。

    (1)安装s3cmd

    命令:yum install -y s3cmd

    解析:安装s3cmd。

    安装辅助包:yum install -y python-pip

    (2)配置s3cmd

    修改文件:vi /root/.s3cfg

    修改内容:

    1. [default]
    2. access_key=IH7D60Y1FCF3RZR9NG36
    3. secret_key=vAG2dK6kyhJTRPbH5Nogw0Uqja2UR8egPeRoxDNb
    4. host_base=192.168.19.161:7480
    5. host_bucket=192.168.19.161:7480/%(bucket)
    6. cloudfront_host=192.168.19.161:7480
    7. use_https=False

    (3)创建一个bucket(桶)

    命令:s3cmd mb s3://hangzhou

    解析:创建一个桶hangzhou。

    (4)查看bucket

    命令:s3cmd ls

    解析:查看桶。

    (5)上传文件到bucket

    命令:s3cmd put /home/jdk-8u281-linux-x64.tar.gz s3://hangzhou

    解析:上传文件到ceph的桶中存储。

    (6)从bucket下文件

    命令:s3cmd get s3://hangzhou/jdk-8u281-linux-x64.tar.gz

    解析:从ceph的桶中下载文件到本地。

    17卸载ceph集群

    卸载集群使用ceph-deploy,在主节点上的/etc/ceph目录。

    (1)卸载

    卸载命令:ceph-deploy purge app161 app162 app163

    卸载命令:ceph-deploy purgedata app161 app162 app163

    (2)取消挂载目录

    查看挂载目录:df -h

    可以看到挂载在:/var/lib/ceph/osd/ceph-0

    取消挂载命令:umount /var/lib/ceph/osd/ceph-0

    (3)删除相关目录

    查看相关目录:find / -name ceph

    删除相关目录:/var/lib/ceph、/etc/ceph、/run/ceph、/var/run/ceph/、/var/local/osd0

    以上,感谢。

    2022年11月26日

  • 相关阅读:
    [PHP]str_split性能问题
    Python图像处理【22】基于卷积神经网络的图像去雾
    神经网络怎么调整权重,bp神经网络确定权重
    基于springboot的毕业设计选题系统的设计与实现-计算机毕业设计源码+LW文档
    css3 table表格
    04-Docker应用部署
    使用easyx制作一个绘画程序
    网络原理学习
    LogCat工具
    Spring Security OAuth2之认证服务中心与资源服务器结合公钥与私钥进行令牌发放与校验、以及JDBC方式下的多客户端授权
  • 原文地址:https://blog.csdn.net/zhangbeizhen18/article/details/128052772