• MHA高可用配置及故障切换


    一、MHA概述

    ●一套优秀的MySQL高可用环境下故障切换和主从复制的软件
    ●MHA的出现就是解决MySQL单点的问题。
    ●MySQL故障过程中,MHA能做到0-30秒内自动完成故障切换
    ●MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用
    ■MHA的组成
    ●MHA Manager(管理节点)

    MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。

    MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明

    ●MHA Node(数据节点)
    MHA Node 运行在每台 MySQL 服务器上

    ■MHA特点
    ●自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
    ●使用半同步复制,可以大大降低数据丢失的风险
    ●目前MHA支持一主多从架构,最少三台服务,即一主两从

    image-20220817091638259

    image-20220817093734482

    MHA的集群架构

    image-20220817094729381

    二、MHA搭建准备

    1.1实验思路

    1.MHA架构 ①数据库安装 ②一主两从 ③MHA搭建

    2.故障模拟 ①主库失效 ②备选主库成为主库 ③原故障主库恢复重新加入到MHA成为从库

    1.2实验环境设备

    master:192.168.35.6
    slave1:192.168.35.7
    slave2:192.168.35.8
    manger:192.168.35.9
    
    • 1
    • 2
    • 3
    • 4

    三、实验搭建步骤

    1.初始化环境

    #在四台服务器上初始化环境
    systemctl stop firewalld
    systemctl disable firewalld
    setenforce 0
    
    • 1
    • 2
    • 3
    • 4

    2.在Master、Slave1、Slave2添加域名解析

    vim /etc/hosts
    192.168.35.6 master
    192.168.35.7 slave1
    192.168.35.8 slave2
    192.168.35.9 manger
    
    • 1
    • 2
    • 3
    • 4
    • 5

    3.配置主从同步

    
    #修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf 
    ##Master 节点##
    vim /etc/my.cnf
    [mysqld]
    server-id = 1
    log_bin = master-bin
    log-slave-updates = true
     
    systemctl restart mysqld
     
    ##Slave1 节点##
    vim /etc/my.cnf
    server-id = 2 						#三台服务器的 server-id 不能一样
    log_bin = master-bin
    relay-log = relay-log-bin
    relay-log-index = slave-relay-bin.index
     
    systemctl restart mysqld
     
    ###Slave2 节点##
    vim /etc/my.cnf
    server-id = 3 
    log_bin = master-bin
    relay-log = relay-log-bin
    relay-log-index = slave-relay-bin.index
     
    systemctl restart mysqld
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28

    4.Master、Slave1、Slave2 节点上都创建两个软链接

    ln -s /usr/local/mysql/bin/mysql /usr/sbin/
    ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
    ls /usr/sbin/mysql*
    
    • 1
    • 2
    • 3

    5.登录数据库主从配置授权

    
    ###Master、Slave1、Slave2 节点上都授权###
    grant replication slave on *.* to 'myslave'@'192.168.35.%' identified by '123456';
    #授权主从用户
    grant all privileges on *.* to 'mha'@'192.168.35.%' identified by 'manager';
    grant all privileges on *.* to 'mha'@'master' identified by 'manager';
    grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
    grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';
     
    #刷新库
    flush privileges;
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    6.Master 节点查看二进制文件和同步点 、在 Slave1、Slave2 节点执行同步操作

    
    ###在master上###
    show master status;
     
    ###在slave1、slave2节点执行同步操作##
    change master to master_host='192.168.35.6',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=1745;
    start slave;
    show slave status\G;
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    在master上

    image-20220817145024819

    在slave1上

    image-20220817145516062

    在slave2上

    image-20220817145605891

    7.设置两个从节点为只读模式

    set global read_only=1;
    
    • 1

    image-20220817145801654

    8.验证主从同步

    
    ##在主master上创建库、表并插入数据##
    create database ky20;
    use ky20;
    create table yy(id char(4),name char(7));
    insert into yy values(1,'小明');
    select * from yy;
     
    ##在slave1、slave2上验证##
    use ky20;
    select * from yy;
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    在master上创建库和表,并写入数据

    image-20220817150646927

    在slave1和slave2上验证

    image-20220817150754013

    image-20220817150818850

    9.安装MHA软件

    9.1所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源
    yum install epel-release --nogpgcheck -y
     
    yum install -y perl-DBD-MySQL \
    perl-Config-Tiny \
    perl-Log-Dispatch \
    perl-Parallel-ForkManager \
    perl-ExtUtils-CBuilder \
    perl-ExtUtils-MakeMaker \
    perl-CPAN
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    9.2、安装 MHA 软件包,先在所有服务器上必须先安装 node 组件
    ##将需要的包下载到/opt下##
     
    ##每台服务器上解压安装node组件##
    cd /opt
    tar zxf mha4mysql-node-0.57.tar.gz
    cd mha4mysql-node-0.57
    perl Makefile.PL
    make && make install
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    将需要的包下载到/opt目录下(4台机器都需要)

    image-20220817152007483

    每台服务器上解压安装node组件

    image-20220817152954513

    9.3在MHA-manger节点上安装manager组件
    tar zxf mha4mysql-manager-0.57.tar.gz 
    cd mha4mysql-manager-0.57/
    perl Makefile.PL
    make && make install
    
    • 1
    • 2
    • 3
    • 4

    image-20220817153510856

    image-20220817153600046

    
    cd /usr/local/bin/
    #manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:
    masterha_check_ssh 检查 MHA 的 SSH 配置状况
    masterha_check_repl 检查 MySQL 复制状况
    masterha_manger 启动 manager的脚本
    masterha_check_status 检测当前 MHA 运行状态
    masterha_master_monitor 检测 master 是否宕机
    masterha_master_switch 控制故障转移(自动或者 手动)
    masterha_conf_host 添加或删除配置的 server 信息
    masterha_stop  关闭manager
     
    #node 组件安装后也会在/usr/local/bin 下面会生成几个脚本(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:
    save_binary_logs 保存和复制 master 的二进制日志
    apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave
    filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
    purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    image-20220817155615168

    10.在所有服务器上配置无密码认证

    
    #在 manager 节点上配置到所有数据库节点的无密码认证
    ssh-keygen -t rsa 				#一路按回车键
    ssh-copy-id 192.168.35.6
    ssh-copy-id 192.168.35.7
    ssh-copy-id 192.168.35.8
     
    ####数据库服务器之间互相导入即可####
     
    #在master上
    ssh-keygen -t rsa 				#一路按回车键
    ssh-copy-id 192.168.35.7
    ssh-copy-id 192.168.35.8
    ssh-copy-id 192.168.35.9
    
    #在slave1上
    ssh-keygen -t rsa 				#一路按回车键
    ssh-copy-id 192.168.35.6
    ssh-copy-id 192.168.35.8
    ssh-copy-id 192.168.35.9
     
    #在slave2上
    ssh-keygen -t rsa 				#一路按回车键
    ssh-copy-id 192.168.35.6
    ssh-copy-id 192.168.35.7
    ssh-copy-id 192.168.35.9
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26

    11.在manager节点上操作

    
    (1)##在 manager 节点上复制相关脚本到/usr/local/bin 目录
    cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
     
    #拷贝后会有四个执行文件
    ll /usr/local/bin/scripts/
    master_ip_failover  		#自动切换时 VIP 管理的脚本
    master_ip_online_change 	#在线切换时 vip 的管理
    power_manager 				#故障发生后关闭主机的脚本
    send_report 				#因故障切换后发送报警的脚本
     
    (2)##复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换
    cp /usr/local/bin/scripts/* /usr/local/bin
     
    (3)##修改master_ip_failover 全部删除,添加以下内容,修改相关参数
    vim master_ip_failover
     
    #!/usr/bin/env perl
    use strict;
    use warnings FATAL => 'all';
     
    use Getopt::Long;
     
    my (
    $command, $ssh_user, $orig_master_host, $orig_master_ip,
    $orig_master_port, $new_master_host, $new_master_ip, $new_master_port
    );
    #############################添加内容部分#########################################
    my $vip = '192.168.35.200';									#指定vip的地址
    my $brdc = '192.168.35.255';								#指定vip的广播地址
    my $ifdev = 'ens33';										#指定vip绑定的网卡
    my $key = '1';												#指定vip绑定的虚拟网卡序列号
    my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";		#代表此变量值为ifconfig ens33:1 192.168.35.6
    my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";		#代表此变量值为ifconfig ens33:1 192.168.35.6 down
    my $exit_code = 0;											#指定退出状态码为0
    #my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
    #my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
    ##################################################################################
    GetOptions(
    'command=s' => \$command,
    'ssh_user=s' => \$ssh_user,
    'orig_master_host=s' => \$orig_master_host,
    'orig_master_ip=s' => \$orig_master_ip,
    'orig_master_port=i' => \$orig_master_port,
    'new_master_host=s' => \$new_master_host,
    'new_master_ip=s' => \$new_master_ip,
    'new_master_port=i' => \$new_master_port,
    );
     
    exit &main();
     
    sub main {
     
    print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
     
    if ( $command eq "stop" || $command eq "stopssh" ) {
     
    my $exit_code = 1;
    eval {
    print "Disabling the VIP on old master: $orig_master_host \n";
    &stop_vip();
    $exit_code = 0;
    };
    if ($@) {
    warn "Got Error: $@\n";
    exit $exit_code;
    }
    exit $exit_code;
    }
    elsif ( $command eq "start" ) {
     
    my $exit_code = 10;
    eval {
    print "Enabling the VIP - $vip on the new master - $new_master_host \n";
    &start_vip();
    $exit_code = 0;
    };
    if ($@) {
    warn $@;
    exit $exit_code;
    }
    exit $exit_code;
    }
    elsif ( $command eq "status" ) {
    print "Checking the Status of the script.. OK \n";
    exit 0;
    }
    else {
    &usage();
    exit 1;
    }
    }
    sub start_vip() {
    `ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
    }
    ## A simple system call that disable the VIP on the old_master
    sub stop_vip() {
    `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
    }
     
    sub usage {
    print
    "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
    }
     
    #删除注释
    :2,87 s/^#//
     
    (4)##创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
     
    #创建 MHA 软件目录并拷贝配置文件
    cd /opt/mha4mysql-manager-0.57/samples/conf/
    ls
    mkdir /etc/masterha
    cp app1.cnf /etc/masterha/
     
     
    #修改app1.cnf配置文件,删除原文所有内容,添加下面的
    vim /etc/masterha/app1.cnf
    [server default]
    manager_workdir=/var/log/masterha/app1
    master_binlog_dir=/usr/local/mysql/data
    manager_log=/var/log/masterha/app1/manager.log
    manager_workdir=/var/log/masterha/app1
    master_binlog_dir=/usr/local/mysql/data
    master_ip_failover_script=/usr/local/bin/master_ip_failover
    master_ip_online_change_script=/usr/local/bin/master_ip_online_change
    password=manager
    ping_interval=1
    remote_workdir=/tmp
    repl_password=123456
    repl_user=myslave
    secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.35.7 -s 192.168.35.8
    shutdown_script=""
    ssh_user=root
    user=mha
     
    [server1]
    hostname=192.168.35.6
    port=3306
     
    [server2]
    candidate_master=1
    check_repl_delay=0
    hostname=192.168.35.7
    port=3306
     
    [server3]
    hostname=192.168.35.8
    port=3306
     
    (5)###在主节点开启虚拟IP   要根据上面配置文件master_ip_failover来写
    ifconfig  ens33:1 192.168.35.200/24
     
    (6)##在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully。如下所示
    masterha_check_ssh -conf=/etc/masterha/app1.cnf
     
    (7)##在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。
    masterha_check_repl -conf=/etc/masterha/app1.cnf
     
    (8)##在 manager 节点上启动 MHA
    nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
     
    (9)##查看 MHA 状态,可以看到当前的 master 是 Mysql1 节点。
    masterha_check_status --conf=/etc/masterha/app1.cnf
     
    (10)查看 MHA 日志,也以看到当前的 master 是 192.168.35.6,如下所示。
    cat /var/log/masterha/app1/manager.log | grep "current master"
     
    (11)##查看 Mysql1 的 VIP 地址 192.168.35.200是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。
    ifconfig
     
    //若要关闭 manager 服务,可以使用如下命令。
    masterha_stop --conf=/etc/masterha/app1.cnf
    或者可以直接采用 kill 进程 ID 的方式关闭。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75
    • 76
    • 77
    • 78
    • 79
    • 80
    • 81
    • 82
    • 83
    • 84
    • 85
    • 86
    • 87
    • 88
    • 89
    • 90
    • 91
    • 92
    • 93
    • 94
    • 95
    • 96
    • 97
    • 98
    • 99
    • 100
    • 101
    • 102
    • 103
    • 104
    • 105
    • 106
    • 107
    • 108
    • 109
    • 110
    • 111
    • 112
    • 113
    • 114
    • 115
    • 116
    • 117
    • 118
    • 119
    • 120
    • 121
    • 122
    • 123
    • 124
    • 125
    • 126
    • 127
    • 128
    • 129
    • 130
    • 131
    • 132
    • 133
    • 134
    • 135
    • 136
    • 137
    • 138
    • 139
    • 140
    • 141
    • 142
    • 143
    • 144
    • 145
    • 146
    • 147
    • 148
    • 149
    • 150
    • 151
    • 152
    • 153
    • 154
    • 155
    • 156
    • 157
    • 158
    • 159
    • 160
    • 161
    • 162
    • 163
    • 164
    • 165
    • 166
    • 167
    • 168
    • 169
    • 170
    • 171
    • 172
    • 173
    • 174
    • 175

    (1)manager 节点上复制相关脚本到/usr/local/bin 目录

    image-20220817165308280

    (2)复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录

    image-20220817165710813

    (3)修改master_ip_failover 全部删除,添加内容,修改相关参数

    image-20220817171423694

    (4)创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器

    image-20220817171628476

    (5)在主节点开启虚拟IP

    image-20220817175213563

    (6)在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully。如下所示

    image-20220817180414482

    (7)在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示

    image-20220817180308606

    如果不成功的话,去/etc/my.cnf里注释掉字符集

    (8)##在 manager 节点上启动 MHA

    image-20220817181403865

    (9)##查看 MHA 状态,可以看到当前的 master 是 Mysql1 节点

    image-20220817181433855

    (10)查看 MHA 日志,也以看到当前的 master 是 192.168.59.118,如下所示

    image-20220817181621898

    模拟故障

    1、先在manger服务器上开启实时日志查询

    tail -f /var/log/masterha/app1/manager.log

    image-20220817182511203

    2、关闭master的mysql的服务

    systemctl stop mysqld

    image-20220817182547473

    3、回到manager看日志有没有更新成功

    image-20220817182651024

    跳转到预先设置好的从服务器上了,slave1成为master了

    4、要是想把原本的机器恢复的话,需要先把新的master机器的更新日志文件打开

    image-20220817192025578

    然后再把数个数据恢复到挂掉的那个机器里,在mysql里操作

    change master to master_host=‘192.168.35.6’,master_user=‘myslave’,master_password=‘123456’,master_log_file='master-bin.000002,master_log_pos=154;

    start slave;
    show slave status\G;

    5、在manager里改配置文件

    vim /etc/masterha/app1.cnf

    secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.35.6 -s 192.168.35.8

    [server1]
    hostname=192.168.35.6
    port=3306

    candidate_master=1
    check_repl_delay=0

    [server2]
    hostname=192.168.35.7
    port=3306

    [server3]
    hostname=192.168.35.8
    port=3306

    让server1成为下一个预备服务器

    到挂掉的那个机器里,在mysql里操作

    change master to master_host=‘192.168.35.6’,master_user=‘myslave’,master_password=‘123456’,master_log_file='master-bin.000002,master_log_pos=154;

    start slave;
    show slave status\G;

    5、在manager里改配置文件

    vim /etc/masterha/app1.cnf

    secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.35.6 -s 192.168.35.8

    [server1]
    hostname=192.168.35.6
    port=3306

    candidate_master=1
    check_repl_delay=0

    [server2]
    hostname=192.168.35.7
    port=3306

    [server3]
    hostname=192.168.35.8
    port=3306

    让server1成为下一个预备服务器

    然后manager服务关闭重新启动

  • 相关阅读:
    算法 杨辉三角求解 java打印杨辉三角 多路递归打印杨辉三角 递归优化杨辉三角 记忆法优化递归 帕斯卡三角形 算法(十二)
    逐句回答,流式返回,ChatGPT采用的Server-sent events后端实时推送协议Python3.10实现,基于Tornado6.1
    Java:如何选择一个好的Java外包合作伙伴?
    滑动窗口实例7(串联所有单词的子串)
    代数——第2章——群
    R语言使用stack函数将多个向量组合成一个大向量,并同时创建一个平行因子来标识每个值的原始向量组、这样可以将数据组织成方差分析需要的格式
    docker 和k8s 入门
    java8新特性之lambda表达式--超级详细版本
    项目接入腾讯云短信服务SMS实现向用户发送手机验证码
    蓝桥杯:后缀表达式
  • 原文地址:https://blog.csdn.net/weixin_68579466/article/details/126865399