1、用户登录失败五次写入黑名单禁止登陆
通过lastb获取登录失败的IP及登录失败的次数
- #!/usr/bin/bash
- # 通过lastb获取登录失败的IP及登录失败的次数
- lastb | awk '{print $3}' | grep ^[0-9] | sort | uniq -c | awk '{print $1"\t"$2}' > /tmp/host_list
- list=`cat /tmp/host_list`
- line=`wc -l /tmp/host_list | awk '{print $1}'`
- count=1
-
- # 如果/tmp/host_list中有数据,循环至少需要执行一次
- while [[ "$line" -ge "$count" ]]; do
- ip_add=`echo $list | awk '{FS="\t"} {print $2}'`
- num=`echo $list | awk '{FS="\t"} {print $1}'`
- # 登录失败达到5次就将该IP写入文件
- if [[ "$num" -ge 5 ]]; then
- grep "$ip_add" /etc/hosts.deny &> /dev/null
- if [[ "$?" -gt 0 ]]; then
- # --------> 此处添加当前系统时间,请根据实际情况定义日期格式
- echo "# $(date +%F' '%H:%M:%S)" >> /etc/hosts.deny
- echo "sshd:$ip_add" >> /etc/hosts.deny
- fi
- fi
- let count+=1
- # 删除已经写入文件的IP
- sed -i '1d' /tmp/host_list
- # 修改$list变量
- list=`cat /tmp/host_list`
- done
- # 清空临时文件
- echo '' > /tmp/host_list
- exit 0
-
- ~
- ~
- ~
2、日志切割脚本
- vi runlog.sh
-
- #!/bin/bash
-
- # 设置日志文件存放目录
- logs_path="/var/log/nginx/"
- backup_path="/var/log/nginx/logs/"
- # 设置pid文件
- pid_path="/run/nginx.pid"
-
- # 重命名日志文件
- mv ${logs_path}/access.log ${backup_path}/access_$(date -d "yesterday" +"%Y%m%d").log
- mv ${logs_path}/error.log ${backup_path}/error_$(date -d "yesterday" +"%Y%m%d").log
-
- # 向nginx主进程发信号重新打开日志
- kill -USR1 `cat ${pid_path}`
-
- # 压缩
- gzip ${backup_path}/access_$(date -d "yesterday" +"%Y%m%d").log
- gzip ${backup_path}/error_$(date -d "yesterday" +"%Y%m%d").log
-
- # 删除超过指定时间的日志文件,单位:天
- find $backup_path -name "*.gz" -type f -mtime +30 -exec rm -rf {} \;
3、nginx状态监控脚本
- #!/bin/bash
- nginx=/usr/local/nginx/sbin/nginx
- read -ep "请输入要执行的命令(start/stop/status/reload):" sta
- case $sta in
- #启动nginx选项
- start)
- #先检测nginx是否已经启动
- netstat -nlpt | grep nginx &> /dev/null
- if [ $? -eq 0 ];then
- echo "nginx已经启动!"
- else
- echo "开始启动nginx!"
- $nginx
- fi
- ;;
- #停止nginx运行
- stop)
- $nginx -s stop
- #判断nginx是否已经停止
- if [ $? -eq 0 ];then
- echo "nginx已经停止运行!"
- else
- echo "nginx停止失败,请重试!"
- fi
- ;;
- #nginx的状态
- status)
- netstat -nlpt | grep nginx &> /dev/null
- if [ $? -eq 0 ];then
- echo "nginx已经启动!"
- else
- echo "nginx没有运行!"
- fi
- ;;
- #重载nginx
- reload)
- $nginx -s reload
- if [ $? -eq 0 ];then
- echo "nginx重载成功!"
- else
- echo "nginx重载失败,请重试!"
- fi
- ;;
- *)
- echo "请按提示正确输入!"
- ;;
- esac
4、监控系统中的cpu、内存、硬盘、、使用率超过85%进行邮件告警
- #!/bin/bash
- now=`date +%Y-%m-%d` #显示现在的时间日期
- #cpu使用值
- cpu_warn='85'
- #mem空闲值本机器为4000所以设置成15%也就是600
- mem_warn='600'
- #disk使用值
- disk_warn='85'
-
- #---cpu
- item_cpu () {
- cpu_idle=`top -b -n 1 | grep Cpu | awk '{print $8}'|cut -f 1 -d "."` #top -b -n 1 查看所有运行的经常的状态 grep cpu 过滤出cpu的那一项 awk '{print $8}’ 打印出第八项 cut -f 1 -d "." 显示第一个字段的内容以. 号作为分隔符。这段话就是用来计算cpu的空闲率
- cpu_use=`expr 100 - $cpu_idle` #cpu的使用率=100-cpu空闲率
- echo "$now 当前cpu使用率为 $cpu_use" >> /tmp/monitoring.log #输出结果到指定的文档
- if [ $cpu_use -gt $cpu_warn ] #当cpu的使用率大于我们设定的使用率时
- then
- echo "cpu过载请及时处理" | mail -s "cpu运行状态" 2493411817@qq.com #警报信息发送到邮箱
- else
- echo "cpu运行状态良好" | mail -s "cpu运行状态" 2493411817@qq.com
-
- fi
- }
- #---mem
- item_mem () {
- #MB为单位
- mem_free=`free -m | grep "Mem" | awk '{print $4+$6}'` #查看内存使用状态过滤出men的哪一项并打印出第四项加第六项的值
- echo "$now 当前内存剩余空间为 ${mem_free}MB" >> /tmp/monitoring.log #内存空闲值输出到指定文档
- if [ $mem_free -lt $mem_warn ] #如果空闲值小于我们设定的值
- then
- echo "内存过载请及时处理 " | mail -s "内存运行状态" 2493411817@qq.com
- #输出警告提示发送到邮箱
- else
- echo "内存运行状态良好 " | mail -s "内存运行状态" 2493411817@qq.com
- fi
- }
- item_disk () {
- disk_use=`df -P | grep /dev/mapper/centos-root | grep -v -E '(tmp|boot)' | awk '{print $5}' | cut -f 1 -d "%"`
- #查看硬盘的情况过滤出主硬盘那一项打印出第五项输出以%为分割点的第一个字符
- echo "$now 当前磁盘使用率为 $disk_use" >> /tmp/monitoring.log #使用率输出到指定文档
- if [ $disk_use -gt $disk_warn ] #如果使用率大于我们设定的值输出结果
- then
- echo "硬盘过载及时处理" | mail -s "硬盘运行状态" 2493411817@qq.com #输出硬盘过载并发送到指定的邮箱
-
- else
- echo "硬盘运行状态良好" | mail -s "硬盘运行状态" 2493411817@qq.com
- fi
- }
- item_cpu
- item_mem
- item_disk
5、监控系统中的IO await大于70进行邮件告警(可使用邮箱163、QQ、139、网易等)
6、监控系统中的网络流量下载上传超过8M(可变)进行邮件告警(可使用邮箱163、QQ、139、网易等)
7、统计 Linux 进程相关数量信息
8、备份数据库表结构及表数据
在实际生产中常常针对数据库有这样的需求:
- mysqldump -u ${user_name}@${datanode} \
- -h ${proxy_ip} \
- -P ${proxy_port} \
- -p${pwd} \
- --default-character-set=utf8 \
- --hex-blob \
- --events \
- --routines \
- --triggers \
- --single-transaction \
- --set-gtid-purged=ON \
- --skip-lock-tables \
- --no-create-db \
- --no-create-info \
- --complete-insert \
- --databases ${db_name} \
- --tables ${table_name} \
- --where="TRANS_DT='20211214'" > result.sql
选项
--default-character-set=${charset_name} :指定通过变量 ${charset_name} 指定的字符集作为默认字符集;
--hex-blob :使用 16 16 16 进制格式导出二进制字段;
--events 或 -E :在导出的结果中包含事件调度器事件(Event Scheduler events),该选项需要用户对于数据库具有 EVENT 权限;
--routines 或 -R:在导出的结果中包含存储过程或函数,该选项需要用户对于数据库具有全局的 SELECT 权限;
--triggers :在导出的结果中包含每个数据表中的触发器,该选项默认生效,可以使用 --skip-triggers 来关闭;
--single-transaction:该选项使得再导出数据之前先将事务隔离级别设置为可重复读即 REPEATABLE READ ,然后向服务器发送一个 START TRANSACTION SQL 语句。
该选项仅对支持事务的数据表有效(如使用 InnoDB 引擎的数据表),最终可以实现导出的数据库中所有支持事务的数据表状态都在 START TRANSACTION 语句发出后的时间点一致;
对于使用 MyISAM 或者 MEMORY 这些不支持事务的引擎创建的数据表,导出的过程中这些数据表的状态是会发生改变的,如果希望实现上述类似的效果,则需要使用Flush tables with read lock; (简称 FTWRL)对整个数据库加全局读锁;
当使用该选项正在导出数据时,为了确保最终导出的数据有效(即数据表内容正确且 binlog 一致),其他和该数据库建立的连接不能使用下列任何语句:ALTER TABLE , CREATE TABLE , DROP TABLE , RENAME TABLE 以及 TRUNCATE TABLE 操作,因为可重复读即 REPEATABLE READ 隔离状态无法隔离上述语句,所以如果使用上述语句将导致导出的数据不正确或导出数据失败;
该选项和 --lock-tables 选项是互斥的,因为锁表即 LOCK TABLES 会导致任何未提交的事务隐式提交。
--lock-tables 或 -l :该选项会针对每一个被导出的数据库,在进行数据导出之前锁上其中的所有数据表,每个数据库中所有表的加锁级别都是 READ LOCAL ,此时对于使用 MyISAM 的数据表是可以进行数据并发插入的。
对于使用 InnoDB 这样支持事务的引擎,此时使用 --single-transaction 选项更为合适,因为后者压根无需锁表;
一些选项如 --opt 会自动开启 --lock-tables 选项,如果你不希望这样的效果,可以在所有选项之后加上 --skip-lock-tables 选项。
--set-gtid-purged=${value} :该选项用于使用基于 GTID (即全局事务标识符:Global Transaction Identifier)实现复制(replication)的服务器(即 gtid_mode=ON)。
该选项可控制 @@SESSION.sql_log_bin=0 语句是否包含在最终导出的数据文件中,在后续载入导出的数据文件时,该语句可以避免生成 binlog ;
当 ${value} 为 ON 时,SET @@SESSION.sql_log_bin=0 会被包含了最终导出的数据文件中。需要注意的是,如果指定该选项但是服务器上没有开启 GTID 机制,则会发生错误。
--skip-lock-tables :
--no-create-db 或 -n:如果指定了 --databases 或 --all-databases 选项,则该选项在导出数据文件中不包括 CREATE DATABASE 语句。
--no-create-info 或 -t:在导出的数据文件中不写入 CREATE TABLE 语句。
--complete-insert 或 -c:使用包括字段名的全插入语句。
--databases ${db_name} 或 -B:导出多个数据库。通常, mysqldump 会将命令行第一个名称参数视为数据库名,后续所有名称参数视为表名,使用这个选项,命令会将所有名称参数视为数据库名。CREATE DATABASE 和 USE 语句也会被包含在输出中;
该选项还可以用于导出 performance_schema 数据库,对于该数据库,即使指定 --all-databases 选项也不会导出。
--tables ${table_name} :mysqldump 命令将该选项之后的参数都视为数据表名。
9、预防脑裂脚本
- 检测思路:正常情况下keepalived的VIP地址是在主节点上的,如果在从节点发现了VIP,就设置报警信息。脚本(在从节点上)如下:
-
-
- vim split-brainc_check.sh
-
- #!/bin/bash
-
- # 检查脑裂的脚本,在备节点上进行部署
-
- LB01_VIP=192.168.1.229
-
- LB01_IP=192.168.1.129
-
- LB02_IP=192.168.1.130
-
- while true
-
- do
-
- ping -c 2 -W 3 $LB01_VIP &>/dev/null
-
- if [ $? -eq 0 -a `ip add|grep "$LB01_VIP"|wc -l` -eq 1 ];then
-
- echo "ha is brain."
-
- else
-
- echo "ha is ok"
-
- fi
-
- sleep 5
-
- done