• RHCE8 资料整理(四)


    在这里插入图片描述

    第四篇 存储管理

    第13章 硬盘管理

    在这里插入图片描述
    详细参考 https://blog.csdn.net/u010230019/article/details/133990531

    我们知道磁盘可以划分为磁道,扇区、柱面等部分,而每个扇区size为512B,只能属于一个分区,不能同时属于多个分区。
    第一个分区比较特殊,叫MBR(主引导记录),磁盘按照分区类型包括:主分区、扩展分区和逻辑分区。

    • 主分区:直接从硬盘上划分,并可以直接格式化使用的分区
    • 扩展分区:直接从硬盘上划分,但不能直接使用的分区,需要在其上划分更多小分区
    • 逻辑分区:在扩展分区上划分的分区

    分区表记录主分区和扩展分区信息,每记录一个分区(主分区或扩展分区)要消耗16B,所以分区表最多只能记录4个分区,一块硬盘最多划分4个分区,并且最多只能有一个扩展分区。

    主引导记录(MBR,Master Boot Record)是采用MBR分区表的硬盘的第一个扇区,即C/H/S地址的0柱面0磁头1扇区,也叫做MBR扇区。主引导记录(master boot record,MBR)位于硬盘的第一物理扇区。由于历史原因,硬盘的一个扇区大小是512字节,包含最多446字节的启动代码、4个硬盘分区表项(每个表项16字节,共64字节)、2个签名字节(0x55,0xAA),如图1所示。分区表项的结构见表。
    在这里插入图片描述

    分区表:传统的分区方案(称为MBR分区方案)是将分区信息保存到磁盘的第一个扇区(MBR扇区)中的64个字节中,每个分区项占用16个字节,这16个字节中存有活动状态标志、文件系统标识、起止柱面号、磁头号、扇区号、隐含扇区数目(4个字节)、分区总扇区数目(4个字节)等内容。由于MBR扇区只有64个字节用于分区表,所以只能记录4个分区的信息。这就是硬盘主分区数目不能超过4个的原因。后来为了支持更多的分区,引入了扩展分区及逻辑分区的概念。但每个分区项仍用16个字节存储。
    在这里插入图片描述
    后面有时间这部分会详细整理下

    13.1 对磁盘进行分区

    查看分区,使用fdisk -l命令查看所有分区信息,或查看指定分区

    fdisk -l [dev]
    
    • 1

    进入分区界面,语法:

    fdisk [dev]
    
    • 1

    关于分区命令,详细参考 https://blog.csdn.net/u010230019/article/details/129381833

    这里个比较有意思的是:在创建分区大小时,可以通过+sectors+size{K,M,G,T,P}形式,举个例子,创建2G的分区,从2048扇区(默认是2048)开始计算:2G=2*1024M=2*1024*1024K=2*1024*1024*2扇区(1扇区=0.5K),所以一共需要4194304个扇区,最后一个扇区应该落在2048+4194304-1=4196351的位置,以上纯技术探讨,现实中我们更多使用+2G的形式

    在分区类型中可以选择p主分区或e扩展分区,只能在扩展分区上建立逻辑分区

    13.2 交换分区(swap分区)

    swap分区在系统的物理内存不够用的时候,把硬盘内存中的一部分空间释放出来,以供当前运行的程序使用。那些被释放的空间可能来自一些很长时间没有什么操作的程序,这些被释放的空间被临时保存到Swap分区中,等到那些程序要运行时,再从Swap分区中恢复保存的数据到内存中。

    查看交换分区

    swapon -s
    
    • 1

    创建swap分区

    mkswap /dev/sdb2	#创建
    
    • 1

    激活

    swapon /dev/sdb2	#激活
    
    • 1

    关闭

    swapoff /dev/sdb2
    
    • 1

    当有多个交换分区时,可以通过修改/etc/fstab调整其优先级

    tail -1 /etc/fstab
    /dev/sdb1	none	swap	defautls,pri=2	0	0
    
    • 1
    • 2

    当写入fstab后,需要执行swapon -a加载信息,才能直接生效

    pri数值越高,优先级越高

    第14章 文件系统

    14.1 了解文件系统

    详细参考 https://blog.csdn.net/u010230019/article/details/129358051

    需要了解内容,包括:

    • inode
    • block

    14.2 了解硬链接

    创建硬链接

    ln hardlink file	#硬链接
    ln -s softlink file	#软链接
    
    • 1
    • 2

    注意:

    • 删除硬链接指向的文件,硬链接仍有效,因为它指向文件的inode
    • 删除软连接指向的文件,软连接无效,因为它指向文件

    在这里插入图片描述

    14.3 创建文件系统

    1. 对已存在的分区进行格式化(如果未存在分区,则新建分区,参考13.1),格式
    mkfs.文件系统 [options] /dev/sdb
    #或
    mkfs -t 文件系统 [options] /dev/sdb
    
    -b 指定block大小,默认单位KB
    -f 强制格式化
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    当分区已存在文件系统时,强制格式化是个不错的办法

    例如

    mkfs.ext4 /dev/sdb
    #或
    mkfs -t ext4 /dev/sdb
    
    • 1
    • 2
    • 3
    [root@server ~]# xfs_info /dev/vg0/lv1
    meta-data=/dev/vg0/lv1           isize=512    agcount=4, agsize=38912 blks
             =                       sectsz=512   attr=2, projid32bit=1
             =                       crc=1        finobt=1, sparse=1, rmapbt=0
             =                       reflink=1    bigtime=1 inobtcount=1
    data     =                       bsize=1024   blocks=155648, imaxpct=25
             =                       sunit=0      swidth=0 blks
    naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
    log      =internal log           bsize=1024   blocks=3527, version=2
             =                       sectsz=512   sunit=0 blks, lazy-count=1
    realtime =none                   extsz=4096   blocks=0, rtextents=0
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    blkid能够查看块设备的属性

    [root@server ~]# blkid
    /dev/sr0: BLOCK_SIZE="2048" UUID="2022-04-19-20-42-48-00" LABEL="RHEL-9-0-0-BaseOS-x86_64" TYPE="iso9660" PTUUID="3a60e52f" PTTYPE="dos"
    /dev/sda2: UUID="8619dadd-3e38-4561-b72e-3d0c4c7be205" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="df38b0a2-02"
    /dev/sda5: UUID="858154c9-7e26-4668-b084-f6432be8b5e7" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="df38b0a2-05"
    /dev/sda3: UUID="a170c809-483a-4c70-a2b6-00831e1f7526" TYPE="swap" PARTUUID="df38b0a2-03"
    /dev/sda1: UUID="ada9fc4c-61b9-4fef-aed7-4228d8e7887f" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="df38b0a2-01"
    /dev/sda6: PARTUUID="df38b0a2-06"
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    如果想单独查看某个XFS文件系统的UUID,可以通过xfs_admin -u 分区名查看

    [root@server ~]# xfs_admin -u /dev/sda2
    UUID = 8619dadd-3e38-4561-b72e-3d0c4c7be205
    
    • 1
    • 2

    想更改UUID,可以通过uuidgen手动生成UUID

    [root@server ~]# uuidgen
    39ad98bf-90f9-4931-a577-58aced724a0f
    
    • 1
    • 2

    然后对XFS文件系统更改UUID,通过-U选项

    xfs_admin -U 'uuid' /dev/sdb
    
    • 1

    14.4 挂载文件系统

    通过df能够查看分区已挂载及分区使用情况

    df [-hT]
    -h #以合适单位显示
    -T #显示文件系统
    
    • 1
    • 2
    • 3

    挂载命令mount,格式

    mount  [-t vfstype] [-o opt1, opt2, ...] /dev/设备 目录(挂载点)
    #-t 常用选项
    		iso9660:光盘或者镜像	
    		nfs:文件网络共享	
    		msdos:DOS fat16文件系统	
    		auto:	自动检测文件系统
    #-o 常用选项
        loop :用来把一个文件当成硬盘分区挂接上系统
        ro :采用只读方式挂接设备
        rw :采用读写方式挂接设备
        iocharset :指定访问文件系统所用字符集,例如iocharset=utf8
        remount :重新挂载
    
    # 默认-t auto,-o rw
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    挂载前,目录需要存在

    注意:如果被挂载的目录中存在数据,挂载后,数据将会被隐藏,无法查看,一般情况下也不会被删除。举个例子,比如一个分区有500G空间,某个目录占用了200G,后来使用该目录进行挂载,实际使用空间只有300G,却怎么也找不到这200G的空间被谁占用了(实际该目录的原有数据以隐藏的形式,占用了挂载设备的空间)。当出现这种情况,就需要先把设备卸载,然后处理这部分数据。

    卸载命令unmount,格式

    unmount /dev/设备
    #或
    unmount /挂载点
    
    • 1
    • 2
    • 3

    有时可能会出现设备无法卸载的情况,例如挂载点的文件被某个进程占用,可能提示target is busy等内容

    可以使用fuser命令,通过文件或端口定位进程,进行查看

    [root@server ~]# fuser -mv /dev/sda1
                         USER        PID ACCESS COMMAND
    /dev/sda1:           root     ...
    									 root     15446  ..c..  bash
    
    • 1
    • 2
    • 3
    • 4

    利用kill -9 pid结束进程

    kill -9 15446
    
    • 1

    此时就可以正常卸载了

    当文件系统改为只读时(-o rw改为-o ro),可对设备重新挂载,此时并不需要卸载之后再挂载,可通过

    mount -o remount,新选项 /挂载点
    
    • 1

    例如

    mount -o remount,rw /dev/sdb
    
    • 1

    我们在忘记root密码的时候可能会用到

    14.5 设置永久挂载

    前面提到mount挂载仅时临时生效,重启后设备不会自动挂载。如果希望永久挂载,则需要写入/etc/fstab中,格式

    设备	挂载点	文件系统	挂载选项	dump值	fsck值
    #或
    设备UUID	挂载点	文件系统	挂载选项	dump值	fsck值
    
    • 1
    • 2
    • 3

    dump值:是否被dump备份命令作用,通常这个值为0或1
    fsck值:是否检验扇区,开机过程中,系统默认会以fsck检验系统是否完整,通常这个值为0或1

    这两个值建议为0,不建议使用其他值

    [root@server ~]# cat /etc/fstab
    ...
    UUID=8619dadd-3e38-4561-b72e-3d0c4c7be205 /                       xfs     defaults        0 0
    UUID=ada9fc4c-61b9-4fef-aed7-4228d8e7887f /boot                   xfs     defaults        0 0
    UUID=a170c809-483a-4c70-a2b6-00831e1f7526 none                    swap    defaults        0 0
    
    • 1
    • 2
    • 3
    • 4
    • 5

    挂载时,建议使用uuid,因为设备名称容易发生变更,而uuid一般不会

    写入/etc/fstab后,如果当前设备未被挂载,可使用mount -a自动挂载

    14.6 查找文件

    linux中查找文件的常用工具,有which,locatefind
    详细参考 https://blog.csdn.net/u010230019/article/details/132166657

    which一共用于查找可执行文件

    [root@server ~]# which cd
    /usr/bin/cd
    
    • 1
    • 2

    locate用于查询文件名或路径中包含特有关键字的文件,locate基于数据库文件/var/lib/mlocate/mlocate.db进行查询
    如果该数据库文件不存在,则使用locate查询则会报错,此时创建该数据库即可

    updatedb
    locate abcdef
    
    • 1
    • 2

    14.7 find的用法

    find命令涉及的参数选项实在庞大,详细参考 https://blog.csdn.net/u010230019/article/details/132166657

    这里只列举几个简单的示范:

    find [path] -name|-iname xxx #基于名称查询(区分大小写)
    
    find [path] -user|-group xxx #基于用户或组名查询
    find [path] -nouser|-nogroup xxx #查询没有属主或属组的文件
    find [path] -uid|-gid xxx	#基于uid或gid查询
    
    find [path] -size [+|-] 2M #查找大于|小于|等于2M的文件
    
    find [path] -mtime [+|-] 1	#根据文件的时间查询,默认单位天,24小时以内,使用-1。24-48小时,用1。大于48小时,用+1。
    find [path] -mmin [+|-] 1	#根据文件的时间查询,单位为分钟
    
    find [path] -type [d|f|l|b] #根据文件类型查询,d目录,f文件,l链接,b块设备
    
    find [path] -perm [/|-]326 #根据权限查询,注意符号和数字间没有空格,/326表示只要配置326中权限一个即可,
    												#-326表示可以比326多,不可以比326少
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    find [path] -perm /N000		#查找特殊权限suid,sgid,粘滞位
    
    • 1

    这条单独说明下:这里N代表4、2、1中的某个数或者某几个数的和,后面3个0表示忽略普通权限
    N=4:查找含有suid的文件
    N=2:查找含有sgid的文件
    N=1:查找含有粘滞位的文件
    N=6 6=4+2:查找含有suidsgid的文件

    find -perm /7000	#查找当前目录中含有特殊位的文件
    
    • 1

    组合查询

    find /目录 \( 条件1 -o 条件2 \) -a \( 条件3 -o 条件4 \)
    -o #表示或
    -a #表示与
    
    • 1
    • 2
    • 3

    注意这里的反斜线\起到转义的作用,这里的\(\)前后都要有空格 ,例如

    find / \( -size 3M -o -size +3M \) -a \( -nouser -o -nogroup \)
    
    • 1

    排除某个目录

    find /目录 \( -path 目录1 -o -path 目录2 \) -prune -o 条件 -print
    
    • 1

    在/目录中按照条件查找文件,但排除目录1和目录2

    对查询结果进行操作

    find /usr/bin /usr/sbin -perm /7000 -exec ls -l {} \;
    
    • 1

    在这里插入图片描述
    注意\;

    第15章 逻辑卷管理

    15.1 了解逻辑卷

    详细参考 https://blog.csdn.net/u010230019/article/details/129381833
    在这里插入图片描述

    • PE
    • PV
    • VG
    • LV

    物理卷PV相关命令

    pvs | pvscan			#查看pv
    pvcreate /dev/sdb	#创建pv
    pvremove /dev/sdb	#删除pv
    
    • 1
    • 2
    • 3

    卷组VG相关命令

    vgs | vgscan		#查看卷组
    vgcreate [-s n] vg0 /dev/sdb1 /dev/sdb2	#创建卷组
    	-s n:指定pe的大小,默认单位为M,默认值为4M
    vgextend vg0 /dev/sdb3				#扩展卷组
    vgreduce vg0 /dev/sdb3				#从卷组中去除某设备
    vgdisplay vg0		#查看卷组详细信息
    vgremove	vg0		#删除卷组
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    15.2 创建逻辑卷

    逻辑卷LV相关命令

    lvs | lvscan 	#查看逻辑卷
    lvcreate -L 大小 -n 名称 卷组 #创建逻辑卷1,直接指定卷大小
    lvcreate -l pe数 -n 名称 卷组 #创建逻辑卷2,按照pe数量指定大小,参考vg创建时的pe大小
    lvcreate -l 数字%free -n 名称 卷组 #创建逻辑卷3,按照剩余空间
    lvdisplay 逻辑卷名
    lvremove 逻辑卷名	#移除
    lvextend [-r] -L [+]100{M,G} -n 逻辑卷名 #逻辑卷扩容,带+表示在原有基础上加100MB,不带表示直接扩充至100MB
    	-r #很重要,能够在扩展逻辑卷的同时,扩展文件系统
    lvreduce -L [-]100{M,G} -n 逻辑卷名 #缩容逻辑卷
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    1. 需要注意:逻辑卷扩容了,并不代表文件系统也得到了扩容的磁盘空间,如果lvcreate未加-r则需要单独扩展文件系统

      • XFS使用xfs_growfs进行扩展,xfs_growfs /挂载点
      • EXT4使用resize2fs进行扩展,resize2fs 逻辑卷名
    2. 逻辑卷缩容,非常不建议对逻辑卷做缩小操作。但如果必须缩小,一定要先缩小文件系统,然后再缩小逻辑卷,否则会破坏文件系统。
      在这里插入图片描述
      原本文件系统和逻辑卷时贴合的,如果先把逻辑卷缩小了,则文件系统会多出一块,没有承载体,整个文件系统就会被破坏。

      • XFS文件系统不支持缩小
      • EXT4支持文件系统缩小,命令resizefs 逻辑卷名 100M,这里100M是最终文件系统的大小,并非缩减大小

      以创建在逻辑卷上的EXT4文件系统为例,演示整个缩容过程:

      1. 卸载文件系统
      	umount /mnt/lv1
      
      • 1
      1. 对文件系统进行fsck检查
      fsck -f /dev/vg0/lv1
      
      • 1
      1. 缩小文件系统
      resize2fs /dev/vg0/lv1 100M
      
      • 1
      1. 缩容逻辑卷
      lvreduce -L -500M /dev/vg0/lv1
      
      • 1

      这里会警告“如果你缩小逻辑卷可能会损坏数据,你是否要继续?[y/n]”

      1. 重新挂载逻辑卷
      mount /dev/vg0/lv1 /mnt/lv1
      
      • 1
    3. 逻辑卷恢复,当在逻辑卷中存储数据时,数据是写入底层PV中的,所以即使删除了逻辑卷,也并没有删除存储在PV中的数据。如果恢复被删除的逻辑卷,仍然能看到逻辑卷中的原有数据。下面我们开始演示:

      1. 卸载并把逻辑卷删除
      umount /mnt/lv1
      lvremove -f /dev/vg0/lv1
      ll /mnt/lv1/
      total 0
      
      • 1
      • 2
      • 3
      • 4
      1. 我们在卷组上的所有操作均有日志记录,可以通过vgcfgrestore --list 卷组名查看
      [root@server ~]# vgcfgrestore --list vg0
      ...
        File:         /etc/lvm/archive/vg0_00005-2049433319.vg/vg0_00005-2049433319.vg
        VG name:      vg0
        Description:  Created *before* executing 'lvremove -f /dev/vg0/lv1'
        Backup Time:  Wed Oct 25 19:29:43 2023
      
      
        File:         /etc/lvm/backup/vg0/vg0
        VG name:      vg0
        Description:  Created *after* executing 'lvremove -f /dev/vg0/lv1'
        Backup Time:  Wed Oct 25 19:29:43 2023
      
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6
      • 7
      • 8
      • 9
      • 10
      • 11
      • 12

      可以看到,执行'lvremove -f /dev/vg0/lv1'命令之前的日志文件是/etc/lvm/archive/vg0_00005-2049433319.vg(注意此处比上面查询结果少了具体文件),那么我们就利用这个文件对lv进行恢复,恢复命令是vgcfgrestroe,语法:

      vgcfgrestore -f 日志文件 卷组名
      
      • 1
      1. 开始恢复
      [root@server ~]# vgcfgrestore -f /etc/lvm/archive/vg0_00005-2049433319.vg vg0
        Volume group vg0 has active volume: lv2.
        Volume group vg0 has active volume: lv3.
        WARNING: Found 2 active volume(s) in volume group "vg0".
        Restoring VG with active LVs, may cause mismatch with its metadata.
      Do you really want to proceed with restore of volume group "vg0", while 2 volume(s) are active? [y/n]: y
        Restored volume group vg0.
      [root@server ~]# lvs
        LV   VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
        lv1  vg0 -wi------- 200.00m
        lv2  vg0 -wi-a-----  80.00m
        lv3  vg0 -wi-a-----  80.00m
      
      [root@server ~]# lvscan |grep lv1
        inactive          '/dev/vg0/lv1' [200.00 MiB] inherit
      
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6
      • 7
      • 8
      • 9
      • 10
      • 11
      • 12
      • 13
      • 14
      • 15
      1. 可以看到lv1已经恢复,但此时状态时inactive,现在需要激活它
      [root@server ~]# lvchange -ay /dev/vg0/lv1
      [root@server ~]# lvscan |grep lv1
        ACTIVE            '/dev/vg0/lv1' [200.00 MiB] inherit
      
      • 1
      • 2
      • 3

      -ay表示active yes,此时已激活

      1. 挂载逻辑卷
      [root@server ~]# mount /dev/vg0/lv1 /mnt/lv1/
      [root@server ~]# ll /mnt/lv1/
      total 2
      -rw-r--r-- 1 root root 681 Oct 25 19:27 fstab
      -rw-r--r-- 1 root root  23 Oct 25 19:28 issue
      
      • 1
      • 2
      • 3
      • 4
      • 5

      目录可以正常访问了

    4. 逻辑卷快照
      LVM还具备有“快照卷”功能,该功能类似于虚拟机软件的还原时间点功能。例如,可以对某一个逻辑卷设备做一次快照,如果日后发现数据被改错了,就可以利用之前做好的快照卷进行覆盖还原。LVM的快照卷功能有几个特点:

      • 快照卷的文件是逻辑卷中文件的影子(通过硬链接实现);
      • 快照卷仅一次有效,一旦执行还原操作后则会被立即自动删除。
      • 不要对快照卷进行格式化
      • 在快照卷中进行任何文件操作都不会影响逻辑卷
      • 快照仅是逻辑卷在某个时间点的记录,当快照完成后,对逻辑卷的操作也不会影响快照卷,可以说两者相互独立
      1. 创建快照,语法
      lvcreate -L 大小 -n 名称 -s 逻辑卷
      
      • 1
      [root@server ~]# lvcreate -L 20M -n lv1_snap -s /dev/vg0/lv1
        Logical volume "lv1_snap" created.
      [root@server ~]# lvscan
        ACTIVE   Original '/dev/vg0/lv1' [200.00 MiB] inherit
        ACTIVE            '/dev/vg0/lv2' [80.00 MiB] inherit
        ACTIVE            '/dev/vg0/lv3' [80.00 MiB] inherit
        ACTIVE   Snapshot '/dev/vg0/lv1_snap' [20.00 MiB] inherit
      [root@server ~]# lvs
        LV       VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
        lv1      vg0 owi-aos--- 200.00m
        lv1_snap vg0 swi-a-s---  20.00m      lv1    0.00
        lv2      vg0 -wi-a-----  80.00m
        lv3      vg0 -wi-a-----  80.00m
      
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6
      • 7
      • 8
      • 9
      • 10
      • 11
      • 12
      • 13
      1. 挂载
      	[root@server ~]# mkdir /mnt/lv1_snap
      	[root@server ~]# mount -o nouuid /dev/vg0/lv1_snap /mnt/lv1_snap/
      	[root@server ~]# ll /mnt/lv1_snap/
      	total 2
      	-rw-r--r-- 1 root root 681 Oct 25 19:27 fstab
      	-rw-r--r-- 1 root root  23 Oct 25 19:28 issue
      
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6

      注意:
      - 快照不需要格式化
      - 逻辑卷的文件系统是XFS的,所以挂载快照需要加上-o nouuid选项

      1. 使用快照恢复数据
        快照只能恢复一次,恢复完后快照也就没有了
      [root@server ~]# rm -rf /mnt/lv1/
      [root@server ~]# ll /mnt/lv1
      total 0
      [root@server ~]# ll /mnt/lv1_snap/
      total 2
      -rw-r--r-- 1 root root 681 Oct 25 19:27 fstab
      -rw-r--r-- 1 root root  23 Oct 25 19:28 issue
      [root@server ~]# umount /mnt/lv1
      [root@server ~]# umount /mnt/lv1_snap
      [root@server ~]# lvconvert --merge /dev/vg0/lv1_snap
        Merging of volume vg0/lv1_snap started.
        vg0/lv1: Merged: 100.00%
      [root@server ~]# mount /dev/vg0/lv1 /mnt/lv1
      [root@server ~]# ll /mnt/lv1
      total 2
      -rw-r--r-- 1 root root 681 Oct 25 19:27 fstab
      -rw-r--r-- 1 root root  23 Oct 25 19:28 issue
      [root@server ~]# ll /mnt/lv1_snap/
      total 0
      
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6
      • 7
      • 8
      • 9
      • 10
      • 11
      • 12
      • 13
      • 14
      • 15
      • 16
      • 17
      • 18
      • 19

    第16章 虚拟数据优化器VDO

    16.1 了解什么是VDO

    VDO(Virtual Data Optimize)是RHEL8/Centos8上新推出的一个存储相关技术(最早在7.5测试版中开始测试),是Redhat收购的Permabit公司的技术。

    VDO的主要作用是节省磁盘空间,比如让1T的磁盘能装下1.5T的数据,从而降低数据中心的成本。

    那vdo是如何实现的呢,关键原理主要是重删和压缩,重删就是硬盘里拷贝来相同的数据,以前要占多份空间,现在只需要1份空间就可以了。类似我们在百度网盘中上传一个大型软件安装包,能实现秒传,其实是之前就有,所以无需再传一遍,也无需再占百度一份空间。另一方面是数据压缩,类似于压缩软件的算法,也可以更加节省磁盘空间。

    举例来说:在引进VDO技术前,File1和File2有相同的数据,那么他们各自占用磁盘空间,而引进该技术后,相同的数据只存储一份。
    在这里插入图片描述
    但从某种意义上讲,一块磁盘可能存放的超过本身磁盘容量的数据量

    原理:https://www.jianshu.com/p/89bb879323ca

    16.2 配置VDO

    1. 安装
    yum install vdo kmod-kvdo -y
    
    • 1
    [root@node-138 ~]# vdo list
    
    [root@node-138 ~]#
    
    • 1
    • 2
    • 3

    我们为虚拟机新增一块硬盘,然后开始配置VDO

    1. 创建vdo
    [root@node-138 ~]# vdo create --name vdo1 --device /dev/sdb --vdoLogicalSize 5G
    Creating VDO vdo1
    Starting VDO vdo1
    Starting compression on VDO vdo1
    VDO instance 0 volume is ready at /dev/mapper/vdo1
    [root@node-138 ~]# vdo list
    vdo1
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    1. 对设备格式化,创建文件系统
    [root@node-138 ~]# mkfs.xfs -K /dev/mapper/vdo1
    meta-data=/dev/mapper/vdo1       isize=512    agcount=4, agsize=327680 blks
             =                       sectsz=4096  attr=2, projid32bit=1
             =                       crc=1        finobt=0, sparse=0
    data     =                       bsize=4096   blocks=1310720, imaxpct=25
             =                       sunit=0      swidth=0 blks
    naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
    log      =internal log           bsize=4096   blocks=2560, version=2
             =                       sectsz=4096  sunit=1 blks, lazy-count=1
    realtime =none                   extsz=4096   blocks=0, rtextents=0
    [root@node-138 ~]# df -hT
    Filesystem              Type      Size  Used Avail Use% Mounted on
    devtmpfs                devtmpfs  898M     0  898M   0% /dev
    tmpfs                   tmpfs     910M     0  910M   0% /dev/shm
    tmpfs                   tmpfs     910M  1.6M  909M   1% /run
    tmpfs                   tmpfs     910M     0  910M   0% /sys/fs/cgroup
    /dev/mapper/centos-root xfs        27G   17G   11G  63% /
    /dev/sda1               xfs      1014M  181M  834M  18% /boot
    tmpfs                   tmpfs     182M     0  182M   0% /run/user/0
    [root@node-138 ~]# lsblk
    NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
    sda               8:0    0   30G  0 disk
    ├─sda1            8:1    0    1G  0 part /boot
    └─sda2            8:2    0   29G  0 part
      ├─centos-root 253:0    0   27G  0 lvm  /
      └─centos-swap 253:1    0    2G  0 lvm  [SWAP]
    sdb               8:16   0    5G  0 disk
    └─vdo1          253:2    0    5G  0 vdo
    sr0              11:0    1  4.4G  0 rom
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29

    mkfs.xfs -K /dev/mapper/vdo1-K类似与windows中的快速格式化

    1. 挂载设备
    [root@node-138 ~]# mkdir /mnt/vdo1
    [root@node-138 ~]# mount /dev/mapper/vdo1 /mnt/vdo1/
    [root@node-138 ~]# vdostats --hu
    Device                    Size      Used Available Use% Space saving%
    /dev/mapper/vdo1          5.0G      3.0G      2.0G  60%           98%
    [root@node-138 ~]# df -Th
    Filesystem              Type      Size  Used Avail Use% Mounted on
    devtmpfs                devtmpfs  898M     0  898M   0% /dev
    tmpfs                   tmpfs     910M     0  910M   0% /dev/shm
    tmpfs                   tmpfs     910M  1.6M  909M   1% /run
    tmpfs                   tmpfs     910M     0  910M   0% /sys/fs/cgroup
    /dev/mapper/centos-root xfs        27G   17G   11G  63% /
    /dev/sda1               xfs      1014M  181M  834M  18% /boot
    tmpfs                   tmpfs     182M     0  182M   0% /run/user/0
    /dev/mapper/vdo1        xfs       5.0G   33M  5.0G   1% /mnt/vdo1
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15

    这里自身消耗了3G空间(Used那列),因为这里不存在文件,所以空间节省率为98%(Space saving%)

    16.3 测试VDO

    1. 向服务器上传一个较大文件

      [root@node-138 ~]# ll /root/ -h|grep sonar.tar
      -rw-r--r--  1 root root 537M Oct 25 15:27 sonar.tar
      
      • 1
      • 2
    2. 把该文件copy到vdo目录中

      • 第一次拷贝文件,如果未出现相同的文件内容,所以节省率可以很小 11%
      [root@node-138 ~]# cp /root/sonar.tar /mnt/vdo1/file1
      [root@node-138 ~]# vdostats --hu
      Device                    Size      Used Available Use% Space saving%
      /dev/mapper/vdo1          5.0G      3.5G      1.5G  69%           11%
      
      • 1
      • 2
      • 3
      • 4
      • 第二次拷贝文件,由于两次拷贝文件内容相同,所以磁盘使用量依旧是3.5G,因此节省了约500M空间
        节省率在50%左右(1/2)
      [root@node-138 ~]# cp /root/sonar.tar /mnt/vdo1/file2
      [root@node-138 ~]# vdostats --hu
      Device                    Size      Used Available Use% Space saving%
      /dev/mapper/vdo1          5.0G      3.5G      1.5G  69%           51%
      
      • 1
      • 2
      • 3
      • 4
      • 第三次拷贝文件,三次拷贝文件内容相同,所以磁盘使用量依旧是3.5G,因此节省了约2个500M空间
        节省率在67%左右(2/3)
      [root@node-138 ~]# cp /root/sonar.tar /mnt/vdo1/file3
      [root@node-138 ~]# vdostats --hu
      Device                    Size      Used Available Use% Space saving%
      /dev/mapper/vdo1          5.0G      3.5G      1.5G  69%           68%
      
      • 1
      • 2
      • 3
      • 4
    3. 删除vdo设备

      [root@node-138 ~]# umount /mnt/vdo1
      [root@node-138 ~]# vdo remove -n vdo1
      Removing VDO vdo1
      Stopping VDO vdo1
      [root@node-138 ~]# ll /mnt/vdo1/
      total 0
      
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6

    第17章 访问NFS存储及自动挂载

    17.1 访问NFS存储

    详细参考 https://blog.csdn.net/u010230019/article/details/129037280

    NFS即网络文件系统,实现linux服务器之间共享

    17.2 自动挂载

    这里的自动挂载是指,把一个外部设备和某个目录关联起来,平时是否挂载不需要考虑,但当访问该目录的时候,系统就可以访问到外部设备,这个时候系统会自动把外部设备挂载到该目录上。

    一般常用在挂载软件光盘作为yum源

    1. 挂载光盘
    mount /dev/cdrom /mnt
    
    • 1
    1. 编写repo文件,如下
    cat /etc/yum.repos.d/aa.repo
    [aa]
    name=aa
    baseurl=file:///mnt/AppStream
    enabled=1
    gpgcheck=0
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    安装autofs,命令如下

     yum install autofs -y
    
    • 1

    自动挂载光盘
    下面我们把光盘自动挂载到/mnt/zz/dvd目录上,注意这里不需要创建dvd目录

    [root@server ~]# mkdir /mnt/zz
    
    • 1

    /etc/auto.master.d目录中创建后缀为autofs的文件,后缀名必须是autofs

    [root@server ~]# cat /etc/auto.master.d/aa.autofs
    /mnt/zz /etc/auto.aa
    
    • 1
    • 2

    该文件的意思是把哪个外部设备挂载到/mnt/zz的子目录上由/etc/auto.aa决定,内容使用【tab】分割

    [root@server ~]# cat /etc/auto.aa
    dvd     -fstype=iso9660,ro      :/dev/cdrom
    
    • 1
    • 2

    该文件格式:

    子目录	-fstype=文件系统,选项1,选项2	:外部设备
    
    • 1

    这里的外部设备如果是本地磁盘或者光盘,冒号(:)前面保持为空,但冒号不能省略
    如果是其他机器上的共享目录,则写远端IP。

    结合aa.autofs的意思,即当访问/mnt/zz/dvd时,系统会自动把/dev/cdrom挂载到该目录上

    systemctl restart autofs
    
    • 1

    重启后生效

    自动挂载NFS远程目录
    在这里插入图片描述
    本次这个实验比较有意思,通过NFS在SVR1添加mary用户,指定家目录为/rhome/mary,并且指定NFS网络共享目录也为/rhome/mary
    在SVR2也添加mary用户,指定家目录为/rhome/mary,不过在添加用户的时候,并不创建家目录,而是通过autofs自动挂载到SVR1的NFS共享目录,这样每当在SVR2登录mary的时候,就自动切换到挂载目录了

    1. 在SVR1执行
    useradd -d /rhome/mary mary
    echo 123456 |passwd --stdin mary
    [root@node-138 ~]# cat /etc/exports
    /rhome  *(rw,no_root_squash)
    [root@node-138 ~]# exportfs -arv
    exporting *:/rhome
    [root@node-138 ~]# chmod o=rx /rhome/mary/
    [root@node-138 ~]# ll /rhome/mary/ -d
    drwx---r-x 4 mary mary 119 Oct 27 09:05 /rhome/mary/
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    在SVR1上使用了NFS服务

    1. 在SVR2执行
    useradd -d /rhome/mary -M mary
    echo 123456|passwd --stdin mary
    [root@server ~]# cat /etc/auto.master.d/bb.autofs
    /rhome /etc/auto.bb
    [root@server ~]# cat /etc/auto.bb
    mary    -fstype=nfs,rw  192.168.17.138:/rhome/mary
    [root@server ~]# showmount -e 192.168.17.138
    Export list for 192.168.17.138:
    /rhome *
    systemctl restart autofs
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    [root@server ~]# su - mary
    [mary@server ~]$ pwd
    /rhome/mary
    [mary@server ~]$ ll
    total 4
    -rw-r--r-- 1 root root 4 Oct 27 09:05 123
    drwxr-xr-x 2 1018 1018 6 Aug 14 17:12 WWW
    [mary@server ~]$ mount|grep mary
    192.168.17.138:/rhome/mary on /rhome/mary type nfs4 (rw,relatime,vers=4.2,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=192.168.17.140,local_lock=none,addr=192.168.17.138)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    在SVR2上使用了autofs服务

  • 相关阅读:
    【docker】虚拟化和docker容器概念
    【SA8295P 源码分析】108 - QNX AIS qcarcam_test 如何实现获取摄像头buffer 数据,追根溯源来看看它是从何而来?
    Bytebase 2.7.0 - ​新增分支(Branching)功能
    不仅仅是图书信息管理系统
    计算机基础
    抱怨身处黑暗,不如提灯前行
    vue的computed如果没有出现在模板里面,当它依赖的响应式属性发生变化,getter会触发吗?
    Nacos-配置中心基本使用
    什么是元宇宙?
    JDK、JRE、JVM三者之间的关系
  • 原文地址:https://blog.csdn.net/u010230019/article/details/133989987