• GFS分布式文件系统


    目录

    一、文件系统简介

    1.1 文件系统的组成

    1.2 文件系统的作用

    1.3 文件系统的挂载使用

    二、GFS分布式文件系统

    2.1 GFS简介

    2.2 GFS的特点

    2.3 GFS专业术语

    2.4 GFS 工作流程

    2.5 服务器详解

    三、GFS卷类型

    3.1.分布式卷(Distribute volume)

    3.2.条带卷 (Stripe volume)

    3.3.复制卷(Replica volume)

    3.4.分布式条带卷(Distribute Stripe volume)

    3.5.分布式复制卷(Distribute Replica volume)

    3.6.条带复制卷(Stripe Replica volume)和分布式条带复制卷(Distribute Stripe Replicavolume)

    四、部署GlusterFS 群集

    五、安装、启动GlusterFS(所有node节点上操作)

    5.1 将gfsrepo软件上传到/opt目录下

    5.2 添加节点到存储信任池中(在node1节点上操作)

    六、创建卷

    6.1 创建分布式卷

    6.2 创建条带卷

    6.3 创建复制卷

    6.4 创建分布式条带卷

    6.5 创建分布式复制卷

    6.6 查看当前所有卷的列表

    七、部署Gluster 客户端

    7.1 安装客户端软件

    7.2 创建挂载目录

    7.3 配置/etc/hosts文件

    7.4 挂载Gluster 文件系统

    7.4.1 临时挂载

    7.4.2 永久挂载

    八、测试Gluster 文件系统

    8.1 卷中写入文件,客户端操作

    8.2 查看文件分布

    8.2.1 查看分布式文件分布

    8.2.2 查看条带卷文件分布

    8.2.3 查看复制卷分布

    8.2.4 查看分布式条带卷分布

    8.2.5 查看分布式复制卷分布

    九、破坏性测试

    9.1.1 分布式卷数据查看

    9.1.2 条带卷

    9.1.3 分布式条带卷

    9.1.4 分布式复制卷

    9.1.5 测试复制卷是否正常

    9.1.6 测试分布式条卷是否正常

    9.1.7 测试分布式复制卷是否正常

    十、其他的维护命令


    一、文件系统简介

    1.1 文件系统的组成

    • 接口:文件系统接口
    • 功能模块(管理、存储的工具):对对象管理里的软件集合
    • 对象及属性:(使用此文件系统的消费者)

    1.2 文件系统的作用

    • 从系统角度来看,文件系统时对文件存储设备的空间进行组织和分配,负责文件存储并对存入的文件进行保护和检索的系统
    • 主要负责为用户建立文件、存入、读出、修改、转储文件,控制文件的存取

    1.3 文件系统的挂载使用

    • 除跟文件系统以外的文件系统创建后要使用需要先挂载至挂载点后才可以被访问
    • 挂载点即分区设备文件关联的某个目录文件
    • 类比NFS(外部的文件系统),使用挂载的方式才可以让本地系统来使用外部的文件系统的功能
    • 例如:配置永久挂载时,我们会写入挂载点与挂载目录,还有文件系统的名称(xfs),文件类型格式等。我们在远程跨服务器使用GFS分布式文件系统,挂载时也需要指定其文件格式(GlusterFS)

    二、GFS分布式文件系统

    2.1 GFS简介

    • GFS是一个可扩展、开源的分布式文件系统(可以很好的体现出弹性伸缩的特点),用于大型的、分布式的、对大量数据进行访问的应用,在传统的解决方案中,GFS 能够灵活的结合物理的,虚拟的和云资源去体现高可用和企业级的性能存储
    • GFS由三个组件组成
    • ①存储服务器(Brick Server)
    1. ② 客户端(不在本地)(且,有客户端,也会有服务端,这点类似于 NFS,但是更为复杂)
    2. ③ 存储网关(NFS/Samaba)
    3. ③ 存储网关(NFS/Samaba)

    无元数据服务器:
    元数据是核心,描述对象的信息,影响其属性;
    例如NFS,存放数据本身,是一个典型的元数据服务器可能存在单点故障,故要求服务器性能较高,服务器一旦出现故障就会导致数据丢失;
    反过来看,所以无元数据服务不会有单点故障。
    那么数据存放在哪里呢?会借用分布式的原则,分散存储,不会有一个统一的数据服务器

     2.2 GFS的特点

    1. 扩展性和高性能:可扩展性,扩展节点,通过多节点提高性能
    2. 高可用性:不存在单点故障,有备份机制,类似Raid的容灾机制
    3. 全局同意命名空间:类比 API 的性质/概念,系统里根据他命名所定义的隔离区域,是一个独立空间;统一的名称空间,与客户端交互,把请求存放至后端的块数据服务器
    4. 弹性卷管理:方便扩容及对后端存储集群的管理与维护,较为复杂
    5. 基于标准协议:基于标准化的文件使用协议,让 CentOS 兼容 GFS

    2.3 GFS专业术语

    • Brick 存储服务器:实际存储用户数据的服务器
    • Volume:本地文件系统的"分区”
    • FUSE:用户 空间的文件系统(类比EXT4),“这是一个伪文件系统”;以本地文件系统为例,用户想要读写一个文件,会借助于EXT4文件系统,然后把数据写在磁盘上;而如果是远端的GFS,客户端的请求则应该交给FUSE(为文件系统),就可以实现跨界点存储在GFS上
    • VFS(虚拟端口) :内核态的虚拟文件系统,用户是先提交请求交给VFS然后VFS交给FUSE,再交给GFS客户端,最后由客户端交给远端的存储
    • Glusterd(服务):是允许在存储节点的进程

    2.4 GFS 工作流程

    ① 客户端或应用程序通过 GlusterFS 的挂载点访问数据;
    ② linux系统内核**通过 VFS API 虚拟接口收到请求并处理;
    ③ VFS 将数据递交给 FUSE 内核文件系统,这是一个伪文件系统,这个伪文件系统主要用来转存,它提供一个虚拟接口,映射出来/dev/fuse这样一个虚拟路径,而 FUSE 文件系统则是将数据通过 /dev/fuse 设备文件递交给了 GlusterFS client 端。可以将 FUSE 文件系统理解为一个代理
    ④ GlusterFS client 会实时监听/dev/fuse下的数据,一旦数据更新,会把数据拿过来,client 根据配置文件的配置对数据进行处理
    ⑤ 经过 GlusterFS client 处理后,通过网络将数据传递至远端的 GlusterFS Server,server会先转存到本地的vfs虚拟文件系统中**,然后再通过vfs转存到EXT3上。EXT3指的是各个block块中的EXT3文件系统中。

    • GFS-server 端功能模块的划分:
    1. 卷的类型(使用分布式、复制、条带)
    2. 存储管理(卷的创建、启用、关闭)
    3. I/O调用(存储后,读取数据,如何读取)
    4. 与GFS-client 端对接
    • GFS-client 端
    1. 用户通过用户态模式下,存储数据(写入数据)
    2. 写入的数据,使用GFS挂载的形式完成(网络挂载samba/NFS)
    3. 数据的写入会由GFS-client转存到GFS-server端(对应的卷中)
    • 网络通讯
    1. Infinlband ——— IB
    2. RDMA——— 面向连接传输协议—— 数据完整性(丢包率低)
    3. TCP/IP
    4. RDMA———》以后的服务中可以做为跨节点共享内存资源的协议

    2.5 服务器详解

    • Application:客户端或应用程序通过GlusterFSync的挂载点访问数据
    • VFS:linux系统内核通过VFS的API 收到请求并处理
    • FUSE:VFS将数据递交给FUSE内核文件系统,fuse文件系统则是将数据通过/dev/fuse设备文件递交给了GlusterFS
    • GlusterFS Client :通过网络将数据传递至远端的GlusterFS Server, 并且写入到服务器存储设备上
       

    三、GFS卷类型

    3.1.分布式卷(Distribute volume)

    简单来说,就是如果有10个文件,如果不用分布式卷,这是个文件会放在一台服务器上,对于分布式而言,这是个文件是会分布在不同的服务器节点上进行保存。

    ①特点
    文件分布在不同的服务器,不具备冗余性更容易和廉价地扩展卷的大小单点故障会造成数据丢失以来低层的数据保护

    ②原理
    File1 和 File2 存放在 Server1,而 File3 存放在 Server2,文件都是随机存储,一个文件(如 File1)要么在 Server1 上,要么在 Server2 上,不能分块同时存放在 Server1和 Server2 上

    ③创建分布式卷
    创建一个名为dis-volume的分布式卷,文件将根据HASH分布在server1:/dir1、server2:/dir2和server3:/dir3中gluster volume create dis-volume server1:/dir1 server2:/dir2 server3:/dir3

    3.2.条带卷 (Stripe volume)

    类似 RAID0,文件被分成数据块并**以轮询的方式分布到多个 Brick Server 上**,文件存储以数据块为单位,支持大文件存储, 文件越大,读取效率越高,但是不具备冗余性。

    ①原理

    File 被分割为 6 段,1、3、5 放在 Server1,2、4、6 放在 Server2

    ②特点

    根据偏移量将文件分成N块(N个条带点),轮询的存储在每个Brick Serve 节点.分布减少了负载,在存储大文件时,性能尤为突出.没有数据冗余,类似于Raid 0

    ③创建条带卷

    创建了一个名为stripe-volume的条带卷,文件将被分块轮询的存储在Server1:/dir1和Server2:/dir2两个Brick中gluster volume create stripe-volume stripe 2 transport tcp server1:/dir1 server2:/dir2

    3.3.复制卷(Replica volume)

    将文件同步到多个 Brick 上,比如说我有五个文件,这5个文件是一个整体,放在服务器A上,复制卷会帮我们复制一份复制在服务器B上。属于文件级 RAID 1,具有容错能力。因为数据分散在多个 Brick 中,所以读性能得到很大提升,但写性能下降。复制卷具备冗余性,即使一个节点损坏,也不影响数据的正常使用。但因为要保存副本,所以磁盘利用率较低

    ①原理
    File1 同时存在 Server1 和 Server2,File2 也是如此,相当于 Server2 中的文件是 Server1 中文件的副本

    ②特点
    卷中所有的服务器均保存一个完整的副本。具备冗余性.卷的副本数量可由客户创建的时候决定,但复制数必须等于卷中 Brick 所包含的存储服务器数。至少由两个块服务器或更多服务器。若多个节点上的存储空间不一致,将按照木桶效应取最低节点的容量作为改卷的总容量

    ③创建复制卷
    创建名为rep-volume的复制卷,文件将同时存储两个副本,分别在Server1:/dir1和Server2:/dir2两个Brick中gluster volume create rep-volume replica 2 transport tcp server1:/dir1 server2:/dir2
     

    3.4.分布式条带卷(Distribute Stripe volume)

    Brick Server 数量是条带数(数据块分布的 Brick 数量)的倍数,兼具分布式卷和条带卷的特点。 主要用于大文件访问处理,创建一个分布式条带卷最少需要 4 台服务器

    ①原理
    File1 和 File2 通过分布式卷的功能分别定位到Server1和 Server2。在 Server1 中,File1 被分割成 4 段,其中 1、3 在 Server1 中的 exp1 目录中,2、4 在 Server1 中的 exp2 目录中。在 Server2 中,File2 也被分割成 4 段,其中 1、3 在 Server2 中的 exp3 目录中,2、4 在 Server2 中的 exp4 目录中

    ②创建分布式条带卷
    创建一个名为dis-stripe的分布式条带卷,配置分布式的条带卷时,卷中Brick所包含的存储服务器数必须是条带数的倍数(>=2倍)。Brick 的数量是 4(Server1:/dir1、Server2:/dir2、Server3:/dir3 和 Server4:/dir4),条带数为 2(stripe 2)gluster volume create dis-stripe stripe 2 transport tcp server1:/dir1 server2:/dir2 server3:/dir3 server4:/dir4
    创建卷时,存储服务器的数量如果等于条带或复制数,那么创建的是条带卷或者复制卷;如果存储服务器的数量是条带或复制数的 2 倍甚至更多,那么将创建的是分布式条带卷或分布式复制卷

    3.5.分布式复制卷(Distribute Replica volume)

    分布式复制卷(Distribute Replica volume):Brick Server 数量是镜像数(数据副本数量)的倍数,兼具分布式卷和复制卷的特点,主要用于需要冗余的情况下

    ①原理
    File1 和 File2 通过分布式卷的功能分别定位到 Server1 和 Server2。在存放 File1 时,File1 根据复制卷的特性,将存在两个相同的副本,分别是 Server1 中的exp1 目录和 Server2 中的 exp2 目录。在存放 File2 时,File2 根据复制卷的特性,也将存在两个相同的副本,分别是 Server3 中的 exp3 目录和 Server4 中的 exp4 目录

    ②创建分布式复制卷
    建一个名为dis-rep的分布式复制卷,配置分布式的复制卷时,卷中Brick所包含的存储服务器数必须是复制数的倍数(>=2倍)。Brick 的数量是 4(Server1:/dir1、Server2:/dir2、Server3:/dir3 和 Server4:/dir4),复制数为 2(replica 2)gluster volume create dis-rep replica 2 transport tcp server1:/dir1 server2:/dir2 server3:/dir3 server4:/dir4

    3.6.条带复制卷(Stripe Replica volume)和分布式条带复制卷(Distribute Stripe Replicavolume)

    条带复制卷(Stripe Replica volume)类似 RAID 1 0,同时具有条带卷和复制卷的特点。
    分布式条带复制卷(Distribute Stripe Replicavolume)三种基本卷的复合卷,通常用于类 Map Reduce 应用

    四、部署GlusterFS 群集

    1. Node1节点: node1/192.168.10.4 磁盘: /dev/sdb1 挂载点:/data/sdb1
    2. /dev/sdc1 /data/sdc1
    3. /dev/sdd1 /data/sdd1
    4. /dev/sde1 /data/sde1
    5. Node2节点: node2/192.168.10.5 磁盘: /dev/sdb1 挂载点: /data/sdb1
    6. /dev/sdc1 /data/sdc1
    7. /dev/sdd1 /data/sdd1
    8. /dev/sde1 /data/sde1
    9. Node3节点: node3/192.168.10.6 磁盘:/dev/sdb1 挂载点:/data/sdb1
    10. /dev/sdc1 /data/sdc1
    11. /dev/sdd1 /data/sdd1
    12. /dev/sde1 /data/sde1
    13. Node4节点: node4/192.168.10.7 磁盘:/dev/sdb1 挂载点:/data/sdb1
    14. /dev/sdc1 /data/sdc1
    15. /dev/sdd1 /data/sdd1
    16. /dev/sde1 /data/sde1
    17. 客户端节点: 192.168.10.8

    准备环境(所有node节点上操作)

    1.关闭防火墙

    systemctl stop firewalld
    setenforce 0

    2.磁盘分区,并挂载

    vim /opt/fdisk.sh

    1. #!/bin/bash
    2. NEWDEV=`ls /dev/sd* | grep -o 'sd[b-z]' | uniq`
    3. for VAR in $NEWDEV
    4. do
    5. echo -e "n\np\n\n\n\nw\n"| fdisk /dev/$VAR &> /dev/null
    6. mkfs.xfs /dev/${VAR}"1" &> /dev/null
    7. mkdir -p /data/${VAR}"1" &> /dev/null
    8. echo "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0" >> /etc/fstab
    9. done
    10. mount -a &> /dev/null

    chmod +x /opt/fdisk.sh
    cd /opt/
    ./fdisk.sh

    3.修改主机名,配置/etc/hosts文件

    1. #以Node1节点为例:
    2. hostnamectl set-hostname node1
    3. su
    4. echo "192.168.10.4 node1" >> /etc/hosts
    5. echo "192.168.10.5 node2" >> /etc/hosts
    6. echo "192.168.10.6 node3" >> /etc/hosts
    7. echo "192.168.10.7 node4" >> /etc/hosts

    五、安装、启动GlusterFS(所有node节点上操作)

    5.1 将gfsrepo软件上传到/opt目录下

    1. cd /etc/yum.repos.d/
    2. mkdir repo.bak
    3. mv *.repo repo.bak
    4. vim glfs.repo
    5. [glfs]
    6. name=glfs
    7. baseurl=file:///opt/gfsrepo
    8. gpgcheck=0
    9. enabled=1
    10. yum clean all && yum makecache
    11. yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
    1. 如采用官方YUM源安装,可以直接指向互联网仓库
    2. yum -y install centos-release-gluster
    3. yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
    1. systemctl start glusterd.service
    2. systemctl enable glusterd.service
    3. systemctl status glusterd.service

    5.2 添加节点到存储信任池中(在node1节点上操作)

    1. 只要在一台Node节点上添加其它节点即可
    2. gluster peer probe node1
    3. gluster peer probe node2
    4. gluster peer probe node3
    5. gluster peer probe node4
    6. 在每个Node节点上查看群集状态
    7. gluster peer status

    六、创建卷

    根据规划创建如下卷:

    1. 卷名称 卷类型 Brick
    2. dis-volume 分布式卷 node1(/data/sdb1)、node2(/data/sdb1)
    3. stripe-volume 条带卷 node1(/data/sdc1)、node2(/data/sdc1)
    4. rep-volume 复制卷 node3(/data/sdb1)、node4(/data/sdb1)
    5. dis-stripe 分布式条带卷
    6. node1(/data/sdd1)、node2(/data/sdd1)、node3(/data/sdd1)、node4(/data/ sdd1)
    7. dis-rep 分布式复制卷
    8. node1(/data/sde1)、node2(/data/sde1)、node3(/data/sde1)、node4(/data/sde1)

    6.1 创建分布式卷

    创建分布式卷,没有指定类型,默认创建的是分布式卷

    gluster volume create dis-volume node1:/data/sdb1 node2:/data/sdb1 force
    

    查看卷列表

    gluster volume list
    

    启动新建分布式卷

    gluster volume start dis-volume
    

    查看创建分布式卷信息

    gluster volume info dis-volume
    

     6.2 创建条带卷

    指定类型为stripe,数值为2,且后面跟了2个Brick Server,所以创建的是条带卷

    1. gluster volume create stripe-volume stripe 2 node1:/data/sdc1 node2:/data/sdc1 force
    2. gluster volume start stripe-volume
    3. gluster volume info stripe-volume

    6.3 创建复制卷

    指定类型为replica,数值为2,且后面跟了2个Brick Server,所以创建的是复制卷

    1. gluster volume create rep-volume replica 2 node3:/data/sdb1 node4:/data/sdb1 force
    2. gluster volume start rep-volume
    3. gluster volume info rep-volume

    6.4 创建分布式条带卷

    指定类型为stripe,数值为2,而且后面跟了4个BrickServer,是2的两倍,所以创建的是分布式条带卷

    1. gluster volume create dis-stripe stripe 2 nodel:/data/sdd1 node2:/data/ sdd1 node3:/data/sdd1 node4:/data/sdd1 force
    2. gluster volume start dis-stripe
    3. gluster volume info dis-stripe

    6.5 创建分布式复制卷

    指定类型为replica,数值为2,而且后面跟了4个BrickServer,是2的两倍,所以创建的是分布式复制卷

    1. gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force
    2. gluster volume start dis-rep
    3. gluster volume info dis-rep

    6.6 查看当前所有卷的列表

    gluster volume list
    

    七、部署Gluster 客户端

    7.1 安装客户端软件

    将gfsrepo软件上传到/opt目下

    1. cd /etc/yum.repos.d/
    2. mkdir repo.bak
    3. mv *.repo repo.bak
    4. vim glfs.repo
    5. [glfs]
    6. name=glfs
    7. baseurl=file:///opt/gfsrepo
    8. gpgcheck=0
    9. enabled=1
    10. yum clean all && yum makecache
    11. yum -y install glusterfs glusterfs-fuse

    7.2 创建挂载目录

    1. mkdir -p /test/{dis, stripe, rep,dis_stripe,dis_ rep}
    2. ls /test

    7.3 配置/etc/hosts文件

    1. echo "192.168.10.4 node1" >> /etc/hosts
    2. echo "192.168.10.5 node2" >> /etc/hosts
    3. echo "192.168.10.6 node3" >> /etc/hosts
    4. echo "192.168.10.7 node4" >> /etc/hosts

    7.4 挂载Gluster 文件系统

    7.4.1临时挂载

    1. mount.glusterfs node1:dis-volume /test/dis
    2. mount.glusterfs node1:stripe-volume /test/stripe
    3. mount.glusterfs node1:rep-volume /test/rep
    4. mount.glusterfs node1:dis-stripe /test/dis_stripe
    5. mount.glusterfs node1:dis-rep /test/dis_rep
    6. df -Th

    7.4.2 永久挂载

    1. vim /etc/fstab
    2. node1:dis-volume /test/dis glusterfs defaults,netdev 0 0
    3. node1:stripe-volume /test/stripe glusterfs defaults,netdev 0 0
    4. node1:rep-volume /test/rep glusterfs defaults,netdev 0 0
    5. node1:dis-stripe /test/dis_stripe glusterfs defaults,netdev 0 0
    6. node1:dis-rep /test/dis_rep glusterfs defaults,netdev 0 0

    八、测试Gluster 文件系统

    8.1 卷中写入文件,客户端操作

    1. cd /opt
    2. dd if=/dev/zero of=/opt/demo1.log bs=1M count=40
    3. dd if=/dev/zero of=/opt/demo2.log bs=1M count=40
    4. dd if=/dev/zero of=/opt/demo3.log bs=1M count=40
    5. dd if=/dev/zero of=/opt/demo4.log bs=1M count=40
    6. dd if=/dev/ ero of=/opt/demo5.log bs=1M count=40
    7. ls -lh /opt
    8. cp /opt/demo* /test/dis
    9. cp /opt/demo* /test/stripe/
    10. cp /opt/demo* /test/rep/
    11. cp /opt/demo* /test/dis_stripe/
    12. cp /opt/demo* /test/dis_rep/

    8.2 查看文件分布

    8.2.1 查看分布式文件分布

    [root@node1 ~]# ls -lh /data/sdb1 #数据没有被分片
    总用量160M

    8.2.2 查看条带卷文件分布

    [root@node1 ~]# ls -lh /data/sdc1 #数据被分片50%没副本没冗余
    总用量101M

    8.2.3 查看复制卷分布

    [ root@node3 ~]# ll -h /data/sdb1 #数据没有被分片有副本有冗余
    总用量201M
    [ root@node4 ~]# ll -h /data/sdb1 #数据没有被分片有副本有冗余
    总用量201M

    8.2.4 查看分布式条带卷分布

    [root@node1 ~]# ll -h /data/sdd1 #数据被分片50%没副本没冗余
    总用量81M

    [root@node2 ~]# ll -h /data/sdd1
    总用量81M

    [ root@node3 ~] # ll -h /data/sdd1
    总用量21M

    [ root@node4 ~] # ll -h /data/sdd1
    总用量21M

    8.2.5 查看分布式复制卷分布

    [root@node1 ~]# ll -h /data/sde1 #数据没有被分片 有副本 有冗余
    总用量161M

    九、破坏性测试

    挂起node2节点或者关闭glusterd服务来模拟故障

    [ root@node2 ~] # systemctl stop glusterd.service
    

    在客户端上查看文件是否正常

    9.1.1 分布式卷数据查看

    [root@localhost test]# ll /test/dis/ #在客户机上发现少了demo5.log文件,这个是在node2上的
    总用量163840

    9.1.2 条带卷

    [root@ localhost test]# cd /test/stripe/ #无法访问,条带卷不具备冗余性
    [ root@localhost stripe]# ll
    总用量0

    9.1.3 分布式条带卷

    [root@localhost test]# ll /test/dis_stripe/ #无法访问,分布条带卷不具备冗余性
    总用量40960
    -rw-r–r-- 1 root root 41943040 12月18 14:51 demo5. log

    9.1.4 分布式复制卷

    [root@localhost test]# ll /test/dis_rep/ #可以访问,分布式复制卷具备冗余性
    总用量204800

    挂起node2和node4节点,在客户端上查看文件是否正常

    9.1.5 测试复制卷是否正常

    [root@localhost rep]# ls -l /test/rep/
    #在客户机上测试正常 数据有
    总用量204800

    9.1.6 测试分布式条卷是否正常

    [ root@localhost dis_stripe]# ll /test/dis_stripe/ #在客户机上测试没有数据
    总用量 0

    9.1.7 测试分布式复制卷是否正常

    [root@localhost dis_rep]# ll /test/dis_rep/ #在客户机上测试正常 有数据
    总用量204800

    上述实验测试,凡是带复制数据,相比而言,数据比较安全

    十、其他的维护命令

    1. 1.查看GlusterFS卷
    2. gluster volume list
    3. 2.查看所有卷的信息
    4. gluster volume info
    5. 3.查看所有卷的状态
    6. gluster volume status
    7. 4.停止一个卷
    8. gluster volume stop dis-stripe
    9. 5.删除一个卷,注意:删除卷时,需要先停止卷,且信任池中不能有主机处于宕机状态,否则删除不成功
    10. gluster volume delete dis-stripe
    11. 6.设置卷的访问控制
    12. 仅拒绝
    13. gluster volume set dis-rep auth.deny 192.168.10.10
    14. 仅允许
    15. gluster volume set dis-rep auth.allow 192.168.10.*
    16. #设置192.168.10.0网段的所有IP地址都能访问dis-rep卷(分布式复制卷)

  • 相关阅读:
    python列表list的index方法的用法和实例
    手把手教你用LVS-DR模式搭建Nginx集群
    Fundebug JavaScript插件支持监控HTTP请求数据
    #边学边记 必修5 高项:对人管理 第1章 项目人力资源管理 之 项目团队管理
    【一、灵犀考试系统项目设计、框架搭建】
    【数学建模竞赛】优化类赛题常用算法解析
    基于HTML节日主题网页项目的设计与实现——圣诞节日介绍(HTML+CSS)
    企业电子招标采购系统源码Spring Boot + Mybatis + Redis + Layui + 前后端分离 构建企业电子招采平台之立项流程图
    谷歌与荣耀恢复合作:荣耀50系列海外新机获GMS授权
    洛谷P1271 【深基9.例1】选举学生会
  • 原文地址:https://blog.csdn.net/weixin_64015933/article/details/125622583