本站以分享各种运维经验和运维所需要的技能为主
《python零基础入门》:python零基础入门学习
《python运维脚本》: python运维脚本实践
《terraform》持续更新中:terraform_Aws学习零基础入门到最佳实战
《k8》暂未更新
《docker学习》暂未更新
《ceph学习》ceph日常问题解决分享
《日志收集》ELK+各种中间件
《运维日常》运维日常
《linux》运维面试100问
根据自身ceph集群的规划找出掉的osd,在相应的节点进行恢复
vgcfgrestore -f /etc/lvm/backup/ceph-osd-9-vg ceph-osd-9-vg
lvscan
inactive '/dev/ceph-osd-24-vg/osd-24-data' [<9.10 TiB] inherit
lvchange -ay /dev/ceph-osd-24-vg/osd-24-data
vgchange -ay ceph-osd-24-vg
systemctl start ceph-volume@lvm-24-c9ec7619-44de-4189-b339-694934f48898.service
#!/bin/bash
server_lvm=`ls /etc/systemd/system/multi-user.target.wants/ | grep lvm-$1`
vgcfgrestore -f /etc/lvm/backup/ceph-osd-$1-vg ceph-osd-$1-vg
lvchange -ay /dev/ceph-osd-$1-vg/osd-$1-data
vgchange -ay ceph-osd-$1-vgsystemctl start $server_lvm
最后执行 sh file_name lvm_num 即可,也可以批量用for循环进行执行即可,等恢复即可。