详细参考 https://blog.csdn.net/u010230019/article/details/133990531
我们知道磁盘可以划分为磁道,扇区、柱面等部分,而每个扇区size为512B,只能属于一个分区,不能同时属于多个分区。
第一个分区比较特殊,叫MBR(主引导记录),磁盘按照分区类型包括:主分区、扩展分区和逻辑分区。
分区表记录主分区和扩展分区信息,每记录一个分区(主分区或扩展分区)要消耗16B,所以分区表最多只能记录4个分区,一块硬盘最多划分4个分区,并且最多只能有一个扩展分区。
主引导记录(MBR,Master Boot Record)是采用MBR分区表的硬盘的第一个扇区,即C/H/S地址的0柱面0磁头1扇区,也叫做MBR扇区。主引导记录(master boot record,MBR)位于硬盘的第一物理扇区。由于历史原因,硬盘的一个扇区大小是512字节,包含最多446字节的启动代码、4个硬盘分区表项(每个表项16字节,共64字节)、2个签名字节(0x55,0xAA),如图1所示。分区表项的结构见表。
分区表:传统的分区方案(称为MBR分区方案)是将分区信息保存到磁盘的第一个扇区(MBR扇区)中的64个字节中,每个分区项占用16个字节,这16个字节中存有活动状态标志、文件系统标识、起止柱面号、磁头号、扇区号、隐含扇区数目(4个字节)、分区总扇区数目(4个字节)等内容。由于MBR扇区只有64个字节用于分区表,所以只能记录4个分区的信息。这就是硬盘主分区数目不能超过4个的原因。后来为了支持更多的分区,引入了扩展分区及逻辑分区的概念。但每个分区项仍用16个字节存储。
后面有时间这部分会详细整理下
查看分区,使用fdisk -l
命令查看所有分区信息,或查看指定分区
fdisk -l [dev]
进入分区界面,语法:
fdisk [dev]
关于分区命令,详细参考 https://blog.csdn.net/u010230019/article/details/129381833
这里个比较有意思的是:在创建分区大小时,可以通过+sectors
或+size{K,M,G,T,P}
形式,举个例子,创建2G
的分区,从2048
扇区(默认是2048
)开始计算:2G=2*1024M=2*1024*1024K=2*1024*1024*2扇区
(1扇区=0.5K),所以一共需要4194304
个扇区,最后一个扇区应该落在2048+4194304-1=4196351
的位置,以上纯技术探讨,现实中我们更多使用+2G
的形式
在分区类型中可以选择p
主分区或e
扩展分区,只能在扩展分区上建立逻辑分区
swap分区在系统的物理内存不够用的时候,把硬盘内存中的一部分空间释放出来,以供当前运行的程序使用。那些被释放的空间可能来自一些很长时间没有什么操作的程序,这些被释放的空间被临时保存到Swap分区中,等到那些程序要运行时,再从Swap分区中恢复保存的数据到内存中。
查看交换分区
swapon -s
创建swap分区
mkswap /dev/sdb2 #创建
激活
swapon /dev/sdb2 #激活
关闭
swapoff /dev/sdb2
当有多个交换分区时,可以通过修改/etc/fstab
调整其优先级
tail -1 /etc/fstab
/dev/sdb1 none swap defautls,pri=2 0 0
当写入fstab后,需要执行swapon -a
加载信息,才能直接生效
pri数值越高,优先级越高
详细参考 https://blog.csdn.net/u010230019/article/details/129358051
需要了解内容,包括:
创建硬链接
ln hardlink file #硬链接
ln -s softlink file #软链接
注意:
mkfs.文件系统 [options] /dev/sdb
#或
mkfs -t 文件系统 [options] /dev/sdb
-b 指定block大小,默认单位KB
-f 强制格式化
当分区已存在文件系统时,强制格式化是个不错的办法
例如
mkfs.ext4 /dev/sdb
#或
mkfs -t ext4 /dev/sdb
[root@server ~]# xfs_info /dev/vg0/lv1
meta-data=/dev/vg0/lv1 isize=512 agcount=4, agsize=38912 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=1, sparse=1, rmapbt=0
= reflink=1 bigtime=1 inobtcount=1
data = bsize=1024 blocks=155648, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0, ftype=1
log =internal log bsize=1024 blocks=3527, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
blkid能够查看块设备的属性
[root@server ~]# blkid
/dev/sr0: BLOCK_SIZE="2048" UUID="2022-04-19-20-42-48-00" LABEL="RHEL-9-0-0-BaseOS-x86_64" TYPE="iso9660" PTUUID="3a60e52f" PTTYPE="dos"
/dev/sda2: UUID="8619dadd-3e38-4561-b72e-3d0c4c7be205" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="df38b0a2-02"
/dev/sda5: UUID="858154c9-7e26-4668-b084-f6432be8b5e7" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="df38b0a2-05"
/dev/sda3: UUID="a170c809-483a-4c70-a2b6-00831e1f7526" TYPE="swap" PARTUUID="df38b0a2-03"
/dev/sda1: UUID="ada9fc4c-61b9-4fef-aed7-4228d8e7887f" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="df38b0a2-01"
/dev/sda6: PARTUUID="df38b0a2-06"
如果想单独查看某个XFS
文件系统的UUID,可以通过xfs_admin -u 分区名
查看
[root@server ~]# xfs_admin -u /dev/sda2
UUID = 8619dadd-3e38-4561-b72e-3d0c4c7be205
想更改UUID,可以通过uuidgen
手动生成UUID
[root@server ~]# uuidgen
39ad98bf-90f9-4931-a577-58aced724a0f
然后对XFS
文件系统更改UUID,通过-U
选项
xfs_admin -U 'uuid' /dev/sdb
通过df
能够查看分区已挂载及分区使用情况
df [-hT]
-h #以合适单位显示
-T #显示文件系统
挂载命令mount
,格式
mount [-t vfstype] [-o opt1, opt2, ...] /dev/设备 目录(挂载点)
#-t 常用选项
iso9660:光盘或者镜像
nfs:文件网络共享
msdos:DOS fat16文件系统
auto: 自动检测文件系统
#-o 常用选项
loop :用来把一个文件当成硬盘分区挂接上系统
ro :采用只读方式挂接设备
rw :采用读写方式挂接设备
iocharset :指定访问文件系统所用字符集,例如iocharset=utf8
remount :重新挂载
# 默认-t auto,-o rw
挂载前,目录需要存在
注意
:如果被挂载的目录中存在数据,挂载后,数据将会被隐藏,无法查看,一般情况下也不会被删除。举个例子,比如一个分区有500G空间,某个目录占用了200G,后来使用该目录进行挂载,实际使用空间只有300G,却怎么也找不到这200G的空间被谁占用了(实际该目录的原有数据以隐藏的形式,占用了挂载设备的空间)。当出现这种情况,就需要先把设备卸载,然后处理这部分数据。
卸载命令unmount
,格式
unmount /dev/设备
#或
unmount /挂载点
有时可能会出现设备无法卸载的情况,例如挂载点的文件被某个进程占用,可能提示target is busy
等内容
可以使用fuser
命令,通过文件或端口定位进程,进行查看
[root@server ~]# fuser -mv /dev/sda1
USER PID ACCESS COMMAND
/dev/sda1: root ...
root 15446 ..c.. bash
利用kill -9 pid
结束进程
kill -9 15446
此时就可以正常卸载了
当文件系统改为只读时(-o rw
改为-o ro
),可对设备重新挂载,此时并不需要卸载之后再挂载,可通过
mount -o remount,新选项 /挂载点
例如
mount -o remount,rw /dev/sdb
我们在忘记root密码的时候可能会用到
前面提到mount挂载仅时临时生效,重启后设备不会自动挂载。如果希望永久挂载,则需要写入/etc/fstab
中,格式
设备 挂载点 文件系统 挂载选项 dump值 fsck值
#或
设备UUID 挂载点 文件系统 挂载选项 dump值 fsck值
dump值:是否被dump备份命令作用,通常这个值为0或1
fsck值:是否检验扇区,开机过程中,系统默认会以fsck检验系统是否完整,通常这个值为0或1
这两个值建议为0,不建议使用其他值
[root@server ~]# cat /etc/fstab
...
UUID=8619dadd-3e38-4561-b72e-3d0c4c7be205 / xfs defaults 0 0
UUID=ada9fc4c-61b9-4fef-aed7-4228d8e7887f /boot xfs defaults 0 0
UUID=a170c809-483a-4c70-a2b6-00831e1f7526 none swap defaults 0 0
挂载时,建议使用uuid,因为设备名称容易发生变更,而uuid一般不会
写入/etc/fstab
后,如果当前设备未被挂载,可使用mount -a
自动挂载
linux中查找文件的常用工具,有which
,locate
和find
。
详细参考 https://blog.csdn.net/u010230019/article/details/132166657
which一共用于查找可执行文件
[root@server ~]# which cd
/usr/bin/cd
locate用于查询文件名或路径中包含特有关键字的文件,locate基于数据库文件/var/lib/mlocate/mlocate.db
进行查询
如果该数据库文件不存在,则使用locate查询则会报错,此时创建该数据库即可
updatedb
locate abcdef
find命令涉及的参数选项实在庞大,详细参考 https://blog.csdn.net/u010230019/article/details/132166657
这里只列举几个简单的示范:
find [path] -name|-iname xxx #基于名称查询(区分大小写)
find [path] -user|-group xxx #基于用户或组名查询
find [path] -nouser|-nogroup xxx #查询没有属主或属组的文件
find [path] -uid|-gid xxx #基于uid或gid查询
find [path] -size [+|-] 2M #查找大于|小于|等于2M的文件
find [path] -mtime [+|-] 1 #根据文件的时间查询,默认单位天,24小时以内,使用-1。24-48小时,用1。大于48小时,用+1。
find [path] -mmin [+|-] 1 #根据文件的时间查询,单位为分钟
find [path] -type [d|f|l|b] #根据文件类型查询,d目录,f文件,l链接,b块设备
find [path] -perm [/|-]326 #根据权限查询,注意符号和数字间没有空格,/326表示只要配置326中权限一个即可,
#-326表示可以比326多,不可以比326少
find [path] -perm /N000 #查找特殊权限suid,sgid,粘滞位
这条单独说明下:这里N代表4、2、1中的某个数或者某几个数的和,后面3个0表示忽略普通权限
N=4:查找含有suid的文件
N=2:查找含有sgid的文件
N=1:查找含有粘滞位的文件
N=6 6=4+2:查找含有suid或
sgid的文件
find -perm /7000 #查找当前目录中含有特殊位的文件
组合查询
find /目录 \( 条件1 -o 条件2 \) -a \( 条件3 -o 条件4 \)
-o #表示或
-a #表示与
注意这里的反斜线\
起到转义的作用,这里的\(
和\)
前后都要有空格
,例如
find / \( -size 3M -o -size +3M \) -a \( -nouser -o -nogroup \)
排除某个目录
find /目录 \( -path 目录1 -o -path 目录2 \) -prune -o 条件 -print
在/目录中按照条件查找文件,但排除目录1和目录2
对查询结果进行操作
find /usr/bin /usr/sbin -perm /7000 -exec ls -l {} \;
注意\;
详细参考 https://blog.csdn.net/u010230019/article/details/129381833
物理卷PV相关命令
pvs | pvscan #查看pv
pvcreate /dev/sdb #创建pv
pvremove /dev/sdb #删除pv
卷组VG相关命令
vgs | vgscan #查看卷组
vgcreate [-s n] vg0 /dev/sdb1 /dev/sdb2 #创建卷组
-s n:指定pe的大小,默认单位为M,默认值为4M
vgextend vg0 /dev/sdb3 #扩展卷组
vgreduce vg0 /dev/sdb3 #从卷组中去除某设备
vgdisplay vg0 #查看卷组详细信息
vgremove vg0 #删除卷组
逻辑卷LV相关命令
lvs | lvscan #查看逻辑卷
lvcreate -L 大小 -n 名称 卷组 #创建逻辑卷1,直接指定卷大小
lvcreate -l pe数 -n 名称 卷组 #创建逻辑卷2,按照pe数量指定大小,参考vg创建时的pe大小
lvcreate -l 数字%free -n 名称 卷组 #创建逻辑卷3,按照剩余空间
lvdisplay 逻辑卷名
lvremove 逻辑卷名 #移除
lvextend [-r] -L [+]100{M,G} -n 逻辑卷名 #逻辑卷扩容,带+表示在原有基础上加100MB,不带表示直接扩充至100MB
-r #很重要,能够在扩展逻辑卷的同时,扩展文件系统
lvreduce -L [-]100{M,G} -n 逻辑卷名 #缩容逻辑卷
需要注意:逻辑卷扩容了,并不代表文件系统也得到了扩容的磁盘空间,如果lvcreate
未加-r
则需要单独扩展文件系统
XFS
使用xfs_growfs
进行扩展,xfs_growfs /挂载点
EXT4
使用resize2fs
进行扩展,resize2fs 逻辑卷名
逻辑卷缩容,非常不建议对逻辑卷做缩小操作。但如果必须缩小,一定要先缩小文件系统,然后再缩小逻辑卷,否则会破坏文件系统。
原本文件系统和逻辑卷时贴合的,如果先把逻辑卷缩小了,则文件系统会多出一块,没有承载体,整个文件系统就会被破坏。
resizefs 逻辑卷名 100M
,这里100M是最终文件系统的大小,并非缩减大小以创建在逻辑卷上的EXT4文件系统为例,演示整个缩容过程:
umount /mnt/lv1
fsck -f /dev/vg0/lv1
resize2fs /dev/vg0/lv1 100M
lvreduce -L -500M /dev/vg0/lv1
这里会警告“如果你缩小逻辑卷可能会损坏数据,你是否要继续?[y/n]”
mount /dev/vg0/lv1 /mnt/lv1
逻辑卷恢复,当在逻辑卷中存储数据时,数据是写入底层PV中的,所以即使删除了逻辑卷,也并没有删除存储在PV中的数据。如果恢复被删除的逻辑卷,仍然能看到逻辑卷中的原有数据。下面我们开始演示:
umount /mnt/lv1
lvremove -f /dev/vg0/lv1
ll /mnt/lv1/
total 0
vgcfgrestore --list 卷组名
查看[root@server ~]# vgcfgrestore --list vg0
...
File: /etc/lvm/archive/vg0_00005-2049433319.vg/vg0_00005-2049433319.vg
VG name: vg0
Description: Created *before* executing 'lvremove -f /dev/vg0/lv1'
Backup Time: Wed Oct 25 19:29:43 2023
File: /etc/lvm/backup/vg0/vg0
VG name: vg0
Description: Created *after* executing 'lvremove -f /dev/vg0/lv1'
Backup Time: Wed Oct 25 19:29:43 2023
可以看到,执行'lvremove -f /dev/vg0/lv1'
命令之前的日志文件是/etc/lvm/archive/vg0_00005-2049433319.vg
(注意此处比上面查询结果少了具体文件
),那么我们就利用这个文件对lv进行恢复,恢复命令是vgcfgrestroe
,语法:
vgcfgrestore -f 日志文件 卷组名
[root@server ~]# vgcfgrestore -f /etc/lvm/archive/vg0_00005-2049433319.vg vg0
Volume group vg0 has active volume: lv2.
Volume group vg0 has active volume: lv3.
WARNING: Found 2 active volume(s) in volume group "vg0".
Restoring VG with active LVs, may cause mismatch with its metadata.
Do you really want to proceed with restore of volume group "vg0", while 2 volume(s) are active? [y/n]: y
Restored volume group vg0.
[root@server ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lv1 vg0 -wi------- 200.00m
lv2 vg0 -wi-a----- 80.00m
lv3 vg0 -wi-a----- 80.00m
[root@server ~]# lvscan |grep lv1
inactive '/dev/vg0/lv1' [200.00 MiB] inherit
inactive
,现在需要激活它[root@server ~]# lvchange -ay /dev/vg0/lv1
[root@server ~]# lvscan |grep lv1
ACTIVE '/dev/vg0/lv1' [200.00 MiB] inherit
-ay
表示active yes
,此时已激活
[root@server ~]# mount /dev/vg0/lv1 /mnt/lv1/
[root@server ~]# ll /mnt/lv1/
total 2
-rw-r--r-- 1 root root 681 Oct 25 19:27 fstab
-rw-r--r-- 1 root root 23 Oct 25 19:28 issue
目录可以正常访问了
逻辑卷快照
LVM还具备有“快照卷”功能,该功能类似于虚拟机软件的还原时间点功能。例如,可以对某一个逻辑卷设备做一次快照,如果日后发现数据被改错了,就可以利用之前做好的快照卷进行覆盖还原。LVM的快照卷功能有几个特点:
lvcreate -L 大小 -n 名称 -s 逻辑卷
[root@server ~]# lvcreate -L 20M -n lv1_snap -s /dev/vg0/lv1
Logical volume "lv1_snap" created.
[root@server ~]# lvscan
ACTIVE Original '/dev/vg0/lv1' [200.00 MiB] inherit
ACTIVE '/dev/vg0/lv2' [80.00 MiB] inherit
ACTIVE '/dev/vg0/lv3' [80.00 MiB] inherit
ACTIVE Snapshot '/dev/vg0/lv1_snap' [20.00 MiB] inherit
[root@server ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lv1 vg0 owi-aos--- 200.00m
lv1_snap vg0 swi-a-s--- 20.00m lv1 0.00
lv2 vg0 -wi-a----- 80.00m
lv3 vg0 -wi-a----- 80.00m
[root@server ~]# mkdir /mnt/lv1_snap
[root@server ~]# mount -o nouuid /dev/vg0/lv1_snap /mnt/lv1_snap/
[root@server ~]# ll /mnt/lv1_snap/
total 2
-rw-r--r-- 1 root root 681 Oct 25 19:27 fstab
-rw-r--r-- 1 root root 23 Oct 25 19:28 issue
注意:
- 快照不需要格式化
- 逻辑卷的文件系统是XFS的,所以挂载快照需要加上-o nouuid
选项
[root@server ~]# rm -rf /mnt/lv1/
[root@server ~]# ll /mnt/lv1
total 0
[root@server ~]# ll /mnt/lv1_snap/
total 2
-rw-r--r-- 1 root root 681 Oct 25 19:27 fstab
-rw-r--r-- 1 root root 23 Oct 25 19:28 issue
[root@server ~]# umount /mnt/lv1
[root@server ~]# umount /mnt/lv1_snap
[root@server ~]# lvconvert --merge /dev/vg0/lv1_snap
Merging of volume vg0/lv1_snap started.
vg0/lv1: Merged: 100.00%
[root@server ~]# mount /dev/vg0/lv1 /mnt/lv1
[root@server ~]# ll /mnt/lv1
total 2
-rw-r--r-- 1 root root 681 Oct 25 19:27 fstab
-rw-r--r-- 1 root root 23 Oct 25 19:28 issue
[root@server ~]# ll /mnt/lv1_snap/
total 0
VDO(Virtual Data Optimize)是RHEL8/Centos8上新推出的一个存储相关技术(最早在7.5测试版中开始测试),是Redhat收购的Permabit公司的技术。
VDO的主要作用是节省磁盘空间,比如让1T的磁盘能装下1.5T的数据,从而降低数据中心的成本。
那vdo是如何实现的呢,关键原理主要是重删和压缩,重删就是硬盘里拷贝来相同的数据,以前要占多份空间,现在只需要1份空间就可以了。类似我们在百度网盘中上传一个大型软件安装包,能实现秒传,其实是之前就有,所以无需再传一遍,也无需再占百度一份空间。另一方面是数据压缩,类似于压缩软件的算法,也可以更加节省磁盘空间。
举例来说:在引进VDO技术前,File1和File2有相同的数据,那么他们各自占用磁盘空间,而引进该技术后,相同的数据只存储一份。
但从某种意义上讲,一块磁盘可能存放的超过
本身磁盘容量的数据量
原理:https://www.jianshu.com/p/89bb879323ca
yum install vdo kmod-kvdo -y
[root@node-138 ~]# vdo list
[root@node-138 ~]#
我们为虚拟机新增一块硬盘,然后开始配置VDO
[root@node-138 ~]# vdo create --name vdo1 --device /dev/sdb --vdoLogicalSize 5G
Creating VDO vdo1
Starting VDO vdo1
Starting compression on VDO vdo1
VDO instance 0 volume is ready at /dev/mapper/vdo1
[root@node-138 ~]# vdo list
vdo1
[root@node-138 ~]# mkfs.xfs -K /dev/mapper/vdo1
meta-data=/dev/mapper/vdo1 isize=512 agcount=4, agsize=327680 blks
= sectsz=4096 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=1310720, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=2560, version=2
= sectsz=4096 sunit=1 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@node-138 ~]# df -hT
Filesystem Type Size Used Avail Use% Mounted on
devtmpfs devtmpfs 898M 0 898M 0% /dev
tmpfs tmpfs 910M 0 910M 0% /dev/shm
tmpfs tmpfs 910M 1.6M 909M 1% /run
tmpfs tmpfs 910M 0 910M 0% /sys/fs/cgroup
/dev/mapper/centos-root xfs 27G 17G 11G 63% /
/dev/sda1 xfs 1014M 181M 834M 18% /boot
tmpfs tmpfs 182M 0 182M 0% /run/user/0
[root@node-138 ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 30G 0 disk
├─sda1 8:1 0 1G 0 part /boot
└─sda2 8:2 0 29G 0 part
├─centos-root 253:0 0 27G 0 lvm /
└─centos-swap 253:1 0 2G 0 lvm [SWAP]
sdb 8:16 0 5G 0 disk
└─vdo1 253:2 0 5G 0 vdo
sr0 11:0 1 4.4G 0 rom
mkfs.xfs -K /dev/mapper/vdo1
中-K
类似与windows中的快速格式化
[root@node-138 ~]# mkdir /mnt/vdo1
[root@node-138 ~]# mount /dev/mapper/vdo1 /mnt/vdo1/
[root@node-138 ~]# vdostats --hu
Device Size Used Available Use% Space saving%
/dev/mapper/vdo1 5.0G 3.0G 2.0G 60% 98%
[root@node-138 ~]# df -Th
Filesystem Type Size Used Avail Use% Mounted on
devtmpfs devtmpfs 898M 0 898M 0% /dev
tmpfs tmpfs 910M 0 910M 0% /dev/shm
tmpfs tmpfs 910M 1.6M 909M 1% /run
tmpfs tmpfs 910M 0 910M 0% /sys/fs/cgroup
/dev/mapper/centos-root xfs 27G 17G 11G 63% /
/dev/sda1 xfs 1014M 181M 834M 18% /boot
tmpfs tmpfs 182M 0 182M 0% /run/user/0
/dev/mapper/vdo1 xfs 5.0G 33M 5.0G 1% /mnt/vdo1
这里自身消耗了3G空间(Used那列),因为这里不存在文件,所以空间节省率为98%(Space saving%)
向服务器上传一个较大文件
[root@node-138 ~]# ll /root/ -h|grep sonar.tar
-rw-r--r-- 1 root root 537M Oct 25 15:27 sonar.tar
把该文件copy到vdo目录中
[root@node-138 ~]# cp /root/sonar.tar /mnt/vdo1/file1
[root@node-138 ~]# vdostats --hu
Device Size Used Available Use% Space saving%
/dev/mapper/vdo1 5.0G 3.5G 1.5G 69% 11%
[root@node-138 ~]# cp /root/sonar.tar /mnt/vdo1/file2
[root@node-138 ~]# vdostats --hu
Device Size Used Available Use% Space saving%
/dev/mapper/vdo1 5.0G 3.5G 1.5G 69% 51%
[root@node-138 ~]# cp /root/sonar.tar /mnt/vdo1/file3
[root@node-138 ~]# vdostats --hu
Device Size Used Available Use% Space saving%
/dev/mapper/vdo1 5.0G 3.5G 1.5G 69% 68%
删除vdo设备
[root@node-138 ~]# umount /mnt/vdo1
[root@node-138 ~]# vdo remove -n vdo1
Removing VDO vdo1
Stopping VDO vdo1
[root@node-138 ~]# ll /mnt/vdo1/
total 0
详细参考 https://blog.csdn.net/u010230019/article/details/129037280
NFS即网络文件系统,实现linux服务器之间共享
这里的自动挂载是指,把一个外部设备和某个目录关联起来,平时是否挂载不需要考虑,但当访问该目录的时候,系统就可以访问到外部设备,这个时候系统会自动把外部设备挂载到该目录上。
一般常用在挂载软件光盘作为yum源
mount /dev/cdrom /mnt
cat /etc/yum.repos.d/aa.repo
[aa]
name=aa
baseurl=file:///mnt/AppStream
enabled=1
gpgcheck=0
安装autofs
,命令如下
yum install autofs -y
自动挂载光盘
下面我们把光盘自动挂载到/mnt/zz/dvd
目录上,注意这里不需要创建dvd
目录
[root@server ~]# mkdir /mnt/zz
在/etc/auto.master.d
目录中创建后缀为autofs
的文件,后缀名必须是autofs
[root@server ~]# cat /etc/auto.master.d/aa.autofs
/mnt/zz /etc/auto.aa
该文件的意思是把哪个外部设备挂载到/mnt/zz
的子目录上由/etc/auto.aa
决定,内容使用【tab】分割
[root@server ~]# cat /etc/auto.aa
dvd -fstype=iso9660,ro :/dev/cdrom
该文件格式:
子目录 -fstype=文件系统,选项1,选项2 :外部设备
这里的外部设备如果是本地磁盘或者光盘,冒号(:
)前面保持为空,但冒号不能省略
如果是其他机器上的共享目录,则写远端IP。
结合aa.autofs
的意思,即当访问/mnt/zz/dvd
时,系统会自动把/dev/cdrom
挂载到该目录上
systemctl restart autofs
重启后生效
自动挂载NFS远程目录
本次这个实验比较有意思,通过NFS在SVR1添加mary用户,指定家目录为/rhome/mary
,并且指定NFS网络共享目录也为/rhome/mary
在SVR2也添加mary用户,指定家目录为/rhome/mary
,不过在添加用户的时候,并不创建家目录,而是通过autofs自动挂载到SVR1的NFS共享目录,这样每当在SVR2登录mary的时候,就自动切换到挂载目录了
useradd -d /rhome/mary mary
echo 123456 |passwd --stdin mary
[root@node-138 ~]# cat /etc/exports
/rhome *(rw,no_root_squash)
[root@node-138 ~]# exportfs -arv
exporting *:/rhome
[root@node-138 ~]# chmod o=rx /rhome/mary/
[root@node-138 ~]# ll /rhome/mary/ -d
drwx---r-x 4 mary mary 119 Oct 27 09:05 /rhome/mary/
在SVR1上使用了NFS服务
useradd -d /rhome/mary -M mary
echo 123456|passwd --stdin mary
[root@server ~]# cat /etc/auto.master.d/bb.autofs
/rhome /etc/auto.bb
[root@server ~]# cat /etc/auto.bb
mary -fstype=nfs,rw 192.168.17.138:/rhome/mary
[root@server ~]# showmount -e 192.168.17.138
Export list for 192.168.17.138:
/rhome *
systemctl restart autofs
[root@server ~]# su - mary
[mary@server ~]$ pwd
/rhome/mary
[mary@server ~]$ ll
total 4
-rw-r--r-- 1 root root 4 Oct 27 09:05 123
drwxr-xr-x 2 1018 1018 6 Aug 14 17:12 WWW
[mary@server ~]$ mount|grep mary
192.168.17.138:/rhome/mary on /rhome/mary type nfs4 (rw,relatime,vers=4.2,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=192.168.17.140,local_lock=none,addr=192.168.17.138)
在SVR2上使用了autofs服务