• MySQL的MHA


    引言

    MHA解决了mysql数据库单点故障,提高了数据的安全性。

    一、概述

    1.1、什么是 MHA

    • MHA(MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。
    • MHA 的出现就是解决MySQL 单点的问题。
    • MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。
    • MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。

    1.2、MHA 的组成

    • MHA Node(数据节点)
      MHA Node 运行在每台 MySQL 服务器上。

    • HA Manager(管理节点)
      MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
      MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。

    1.3、MHA 的特点

    • 自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
    • 使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性
    • 目前MHA支持一主多从架构,最少三台服务,即一主两从

    二、MHA工作原理总结

    1. 从宕机崩溃的master 保存二进制日志事件(binlog events);
    2. 识别含有最新的更新slave日志
    3. 应用差异的中继日志(relay log)到其他的slave
    4. 应用从master保存的二进制日志事件
    5. 提升一个slave为新的master
    6. 使其他的slave连接行的master进行复制

    三、搭建 MySQL MHA

    实验思路:
    1、MHA架构
    数据库安装
    一主两从
    MHA搭建

    2、故障模拟
    模拟主库失效
    备选主库成为主库
    原故障主库恢复重新加入到MHA成为从库

    节点服务器系统主机名IP地址安装服务及工具
    MHA manager 节点服务器CentOS7.6(64 位)manager192.168.190.5安装MHA node 和 manager 组件
    Master 节点服务器CentOS7.6(64 位)master192.168.190.2安装mysql5.7、MHA node 组件
    Slave1 节点服务器CentOS7.6(64 位)slave1192.168.190.3安装mysql5.7、MHA node 组件
    Slave2 节点服务器CentOS7.6(64 位)slave2192.168.190.4安装mysql5.7、MHA node 组件

    3.1、配置主从复制

    1.初始化环境

    #在四台服务器上初始化环境
    systemctl stop firewalld
    systemctl disable firewalld
    setenforce 0
    
    • 1
    • 2
    • 3
    • 4

    在这里插入图片描述

    2.修改 Master、Slave1、Slave2 节点的主机名

    192.168.190.2
    hostnamectl set-hostname Master
    192.168.190.3
    hostnamectl set-hostname Slave1
    192.168.190.4
    hostnamectl set-hostname Slave2
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    3.在Master、Slave1、Slave2添加域名解析

    master服务器、slave1、slave2

    vim /etc/hosts
    192.168.190.2 master
    192.168.190.3 slave1
    192.168.190.4 slave2
    
    • 1
    • 2
    • 3
    • 4

    在这里插入图片描述

    4.配置主从同步

    ##Master 节点##
    vim /etc/my.cnf
    [mysqld]
    server-id = 1
    log_bin = master-bin
    log-slave-updates = true
    
    systemctl restart mysqld
    
    ##Slave1 节点##
    vim /etc/my.cnf
    server-id = 2 						#三台服务器的 server-id 不能一样
    log_bin = master-bin
    relay-log = relay-log-bin
    relay-log-index = slave-relay-bin.index
    
    systemctl restart mysqld
    
    
    ###Slave2 节点##
    vim /etc/my.cnf
    server-id = 3 						#三台服务器的 server-id 不能一样
    relay-log = relay-log-bin
    relay-log-index = slave-relay-bin.index
    
    systemctl restart mysqld
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26

    master节点
    在这里插入图片描述
    在这里插入图片描述
    slave1 节点
    在这里插入图片描述
    slave2 节点
    在这里插入图片描述

    5. Master、Slave1、Slave2 节点上都创建两个软链接

    ln -s /usr/local/mysql/bin/mysql /usr/sbin/
    ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
    ls /usr/sbin/mysql*  #查看软链接
    
    • 1
    • 2
    • 3

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    6.配置 mysql 一主两从

    1)所有数据库节点进行 mysql 授权
    mysql -uroot -p123456
    grant replication slave on *.* to 'myslave'@'192.168.190.%' identified by '123456';		#从数据库同步使用
    grant all privileges on *.* to 'mha'@'192.168.190.%' identified by 'manager';		#manager 使用
    
    grant all privileges on *.* to 'mha'@'master' identified by 'manager';				#防止从库通过主机名连接不上主库
    grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
    grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';
    flush privileges;
    #刷新库
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    在master节点上
    在这里插入图片描述
    在这里插入图片描述
    在slave1节点上
    在这里插入图片描述
    在这里插入图片描述

    7.在 Master 节点查看二进制文件和同步点,在 Slave1、Slave2 节点执行同步操作

    show master status;
    +-------------------+----------+--------------+------------------+-------------------+
    | File              | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
    +-------------------+----------+--------------+------------------+-------------------+
    | master-bin.000001 |    1745  |              |                  |                   |
    +-------------------+----------+--------------+------------------+-------------------+
    change master to master_host='192.168.190.2',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=1747; 
    
    start slave;
    在 Slave1、Slave2 节点查看数据同步结果
    show slave status\G		
    //确保 IO 和 SQL 线程都是 Yes,代表同步正常。
    Slave_IO_Running: Yes
    Slave_SQL_Running: Yes
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    在master上
    在这里插入图片描述
    在slave1上
    在这里插入图片描述
    在slave2上
    在这里插入图片描述

    8.设置两个从节点为只读模式

    set global read_only=1;
    
    • 1

    在这里插入图片描述

    9.验证主从同步

    ##在主master上创建库、表并插入数据##
    create database test;
    use test;
    create table test(id int(8),name varchar(10));
    insert into test values(1,'xiaojian');
     
    ##在slave1、slave2上验证##
    select * from test。test;
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    在这里插入图片描述
    在slave1、slave2上验证
    在这里插入图片描述

    3.2 安装 MHA 软件

    1.所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源

    1)所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源
    yum install epel-release --nogpgcheck -y
    
    yum install -y perl-DBD-MySQL \
    perl-Config-Tiny \1
    perl-Log-Dispatch \
    perl-Parallel-ForkManager \
    perl-ExtUtils-CBuilder \
    perl-ExtUtils-MakeMaker \
    perl-CPAN
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    master节点
    在这里插入图片描述
    在这里插入图片描述
    slave1节点
    在这里插入图片描述
    在这里插入图片描述
    slave2节点
    在这里插入图片描述
    在这里插入图片描述
    manger节点
    在这里插入图片描述

    2.安装 MHA 软件包,先在所有服务器上必须先安装 node 组件

    • 对于每个操作系统版本不一样,这里 CentOS7.6选择 0.57 版本。
    • 在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件。
    ##将需要的包下载到/opt下##
     
    ##每台服务器上解压安装node组件##
    cd /opt
    tar zxf mha4mysql-node-0.57.tar.gz
    cd mha4mysql-node-0.57
    perl Makefile.PL
    make && make install
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    在这里插入图片描述
    在这里插入图片描述

    3.在 MHA-manager 节点上安装 manager 组件

    tar zxf mha4mysql-manager-0.57.tar.gz 
    cd mha4mysql-manager-0.57/
    perl Makefile.PL
    make && make install
    
    • 1
    • 2
    • 3
    • 4

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    cd /usr/local/bin/
    #manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:
    masterha_check_ssh 检查 MHASSH 配置状况
    masterha_check_repl 检查 MySQL 复制状况
    masterha_manger 启动 manager的脚本
    masterha_check_status 检测当前 MHA 运行状态
    masterha_master_monitor 检测 master 是否宕机
    masterha_master_switch 控制故障转移(自动或者 手动)
    masterha_conf_host 添加或删除配置的 server 信息
    masterha_stop  关闭manager
     
    #node 组件安装后也会在/usr/local/bin 下面会生成几个脚本(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:
    save_binary_logs 保存和复制 master 的二进制日志
    apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave
    filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
    purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16

    在这里插入图片描述

    4.在所有服务器上配置无密码认证

    1)在 manager 节点上配置到所有数据库节点的无密码认证
    ssh-keygen -t rsa 				#一路按回车键
    ssh-copy-id 192.168.190.2
    ssh-copy-id 192.168.190.3
    ssh-copy-id 192.168.190.42)在 master 上配置到数据库节点 slave1 和 slave2 的无密码认证
    ssh-keygen -t rsa
    ssh-copy-id 192.168.190.3
    ssh-copy-id 192.168.190.43)在 slave1 上配置到数据库节点 master 和 slave2 的无密码认证
    ssh-keygen -t rsa
    ssh-copy-id 192.168.190.2
    ssh-copy-id 192.168.190.44)在 slave2 上配置到数据库节点 master 和 slave1 的无密码认证
    ssh-keygen -t rsa
    ssh-copy-id 192.168.190.2
    ssh-copy-id 192.168.190.3
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20

    在 manager 节点上配置到所有数据库节点的无密码认证
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在master上
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在slave1上
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在slave2上
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    5.在 manager 节点上配置 MHA

    1)在 manager 节点上复制相关脚本到/usr/local/bin 目录
    cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
    //拷贝后会有四个执行文件
    ll /usr/local/bin/scripts/
    ----------------------------------------------------------------------------------------------------------
    master_ip_failover  		#自动切换时 VIP 管理的脚本
    master_ip_online_change 	#在线切换时 vip 的管理
    power_manager 				#故障发生后关闭主机的脚本
    send_report 				#因故障切换后发送报警的脚本
    ----------------------------------------------------------------------------------------------------------2)复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换
    cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
    
    (3)修改内容如下:(删除原有内容,直接复制并修改vip相关参数)
    vim /usr/local/bin/master_ip_failover
    #!/usr/bin/env perl
    use strict;
    use warnings FATAL => 'all';
    
    use Getopt::Long;
    
    my (
    $command, $ssh_user, $orig_master_host, $orig_master_ip,
    $orig_master_port, $new_master_host, $new_master_ip, $new_master_port
    );
    #############################添加内容部分#########################################
    my $vip = '192.168.10.200';									#指定vip的地址
    my $brdc = '192.168.10.255';								#指定vip的广播地址
    my $ifdev = 'ens33';										#指定vip绑定的网卡
    my $key = '1';												#指定vip绑定的虚拟网卡序列号
    my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";		#代表此变量值为ifconfig ens33:1 192.168.10.200
    my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";		#代表此变量值为ifconfig ens33:1 192.168.10.200 down
    my $exit_code = 0;											#指定退出状态码为0
    #my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
    #my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
    ##################################################################################
    GetOptions(
    'command=s' => \$command,
    'ssh_user=s' => \$ssh_user,
    'orig_master_host=s' => \$orig_master_host,
    'orig_master_ip=s' => \$orig_master_ip,
    'orig_master_port=i' => \$orig_master_port,
    'new_master_host=s' => \$new_master_host,
    'new_master_ip=s' => \$new_master_ip,
    'new_master_port=i' => \$new_master_port,
    );
    
    exit &main();
    
    sub main {
    
    print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
    
    if ( $command eq "stop" || $command eq "stopssh" ) {
    
    my $exit_code = 1;
    eval {
    print "Disabling the VIP on old master: $orig_master_host \n";
    &stop_vip();
    $exit_code = 0;
    };
    if ($@) {
    warn "Got Error: $@\n";
    exit $exit_code;
    }
    exit $exit_code;
    }
    elsif ( $command eq "start" ) {
    
    my $exit_code = 10;
    eval {
    print "Enabling the VIP - $vip on the new master - $new_master_host \n";
    &start_vip();
    $exit_code = 0;
    };
    if ($@) {
    warn $@;
    exit $exit_code;
    }
    exit $exit_code;
    }
    elsif ( $command eq "status" ) {
    print "Checking the Status of the script.. OK \n";
    exit 0;
    }
    else {
    &usage();
    exit 1;
    }
    }
    sub start_vip() {
    `ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
    }
    ## A simple system call that disable the VIP on the old_master
    sub stop_vip() {
    `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
    }
    
    sub usage {
    print
    "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
    }4)创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
    mkdir /etc/masterha
    cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
    
    vim /etc/masterha/app1.cnf						#删除原有内容,直接复制并修改节点服务器的IP地址
    [server default]
    manager_log=/var/log/masterha/app1/manager.log
    manager_workdir=/var/log/masterha/app1
    master_binlog_dir=/usr/local/mysql/data
    master_ip_failover_script=/usr/local/bin/master_ip_failover
    master_ip_online_change_script=/usr/local/bin/master_ip_online_change
    password=manager
    ping_interval=1
    remote_workdir=/tmp
    repl_password=123456
    repl_user=myslave
    secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.190.3 -s 192.168.190.4
    shutdown_script=""
    ssh_user=root
    user=mha
    
    [server1]
    hostname=192.168.190.2
    port=3306
    
    [server2]
    candidate_master=1
    check_repl_delay=0
    hostname=192.168.190.3
    port=3306
    
    [server3]
    hostname=192.168.190.4
    port=3306
    
    ----------------------------------------------------------------------------------------------------------
    [server default]
    manager_log=/var/log/masterha/app1/manager.log      #manager日志
    manager_workdir=/var/log/masterha/app1            #manager工作目录
    master_binlog_dir=/usr/local/mysql/data/         #master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHA能找到
    master_ip_failover_script=/usr/local/bin/master_ip_failover  #设置自动failover时候的切换脚本,也就是上面的那个脚本
    master_ip_online_change_script=/usr/local/bin/master_ip_online_change  #设置手动切换时候的切换脚本
    password=manager			#设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
    ping_interval=1				#设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
    remote_workdir=/tmp			#设置远端mysql在发生切换时binlog的保存位置
    repl_password=123			#设置复制用户的密码
    repl_user=myslave			#设置复制用户的用户
    report_script=/usr/local/send_report     #设置发生切换后发送的报警的脚本
    secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.190.3 -s 192.168.190.4	#指定检查的从服务器IP地址
    shutdown_script=""			#设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用)
    ssh_user=root				#设置ssh的登录用户名
    user=mha					#设置监控用户root
    
    [server1]
    hostname=192.168.190.2
    port=3306
    
    [server2]
    hostname=192.168.190.3
    port=3306
    candidate_master=1
    #设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个从库不是集群中最新的slave
    
    check_repl_delay=0
    #默认情况下如果一个slave落后master 超过100M的relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
    
    [server3]
    hostname=192.168.190.4
    port=3306
    ----------------------------------------------------------------------------------------------------------5)###在主节点开启虚拟IP
    ifconfig  ens33:1 192.168.59.188/246)##在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully。如下所示
    masterha_check_ssh -conf=/etc/masterha/app1.cnf
     
    (7)##在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。
    masterha_check_repl -conf=/etc/masterha/app1.cnf
     
    (8)##在 manager 节点上启动 MHA
    nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &9)##查看 MHA 状态,可以看到当前的 master 是 master 节点。
    masterha_check_status --conf=/etc/masterha/app1.cnf
     
    (10)查看 MHA 日志,也以看到当前的 master 是 192.168.190.2,如下所示。
    cat /var/log/masterha/app1/manager.log | grep "current master"
     
    (11)##查看 master 的 VIP 地址 192.168.190.200 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。
    ifconfig
     
    //若要关闭 manager 服务,可以使用如下命令。
    masterha_stop --conf=/etc/masterha/app1.cnf
    或者可以直接采用 kill 进程 ID 的方式关闭。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75
    • 76
    • 77
    • 78
    • 79
    • 80
    • 81
    • 82
    • 83
    • 84
    • 85
    • 86
    • 87
    • 88
    • 89
    • 90
    • 91
    • 92
    • 93
    • 94
    • 95
    • 96
    • 97
    • 98
    • 99
    • 100
    • 101
    • 102
    • 103
    • 104
    • 105
    • 106
    • 107
    • 108
    • 109
    • 110
    • 111
    • 112
    • 113
    • 114
    • 115
    • 116
    • 117
    • 118
    • 119
    • 120
    • 121
    • 122
    • 123
    • 124
    • 125
    • 126
    • 127
    • 128
    • 129
    • 130
    • 131
    • 132
    • 133
    • 134
    • 135
    • 136
    • 137
    • 138
    • 139
    • 140
    • 141
    • 142
    • 143
    • 144
    • 145
    • 146
    • 147
    • 148
    • 149
    • 150
    • 151
    • 152
    • 153
    • 154
    • 155
    • 156
    • 157
    • 158
    • 159
    • 160
    • 161
    • 162
    • 163
    • 164
    • 165
    • 166
    • 167
    • 168
    • 169
    • 170
    • 171
    • 172
    • 173
    • 174
    • 175
    • 176
    • 177
    • 178
    • 179
    • 180
    • 181
    • 182
    • 183
    • 184
    • 185
    • 186
    • 187
    • 188
    • 189
    • 190
    • 191
    • 192
    • 193
    • 194
    • 195
    • 196
    • 197
    • 198
    • 199

    (1)manager 节点上复制相关脚本到/usr/local/bin 目录

    在这里插入图片描述
    (2)复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录
    在这里插入图片描述
    (3)修改内容如下:(删除原有内容,直接复制并修改vip相关参数)
    在这里插入图片描述
    在这里插入图片描述
    (4)创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
    在这里插入图片描述

    在这里插入图片描述
    (5)在主节点开启虚拟IP
    在这里插入图片描述
    (6)在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully。如下所示
    在这里插入图片描述
    (7)在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。
    在这里插入图片描述
    在这里插入图片描述
    (8)在 manager 节点上启动 MHA

    ----------------------------------------------------------------------------------------------------------
    --remove_dead_master_conf:该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。
    --manger_log:日志存放位置。
    --ignore_last_failover:在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 之所以这样限制是为了避免 ping-pong 效应。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后会在日志记录,也就是上面设置的日志app1.failover.complete文件,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件,为了方便,这里设置为--ignore_last_failover。
    ----------------------------------------------------------------------------------------------------------
    
    • 1
    • 2
    • 3
    • 4
    • 5

    在这里插入图片描述
    (9)查看 MHA 状态,可以看到当前的 master 是 master 节点。
    在这里插入图片描述
    (10)查看 MHA 日志,也以看到当前的 master 是 192.168.190.2,如下所示。
    在这里插入图片描述
    (11)查看 master的 VIP 地址 192.168.190.200 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。
    在这里插入图片描述

    3.3 故障模拟

    #在 manager 节点上监控观察日志记录
    tail -f /var/log/masterha/app1/manager.log
    
    #在 Master 节点 master 上停止mysql服务
    systemctl stop mysqld
    或
    pkill -9 mysql
    
    #正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 master 节点删除。查看 slave1 是否接管 VIP
    ifconfig
    
    故障切换备选主库的算法:
    1.一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
    2.数据一致的情况下,按照配置文件顺序,选择备选主库。
    3.设定有权重(candidate_master=1),按照权重强制指定备选主。
    (1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
    (2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    #在 manager 节点上监控观察日志记录
    在这里插入图片描述
    #在 Master 节点 master 上停止mysql服务
    在这里插入图片描述
    #在slave1,slave2上查看,查看 mysql2 是否接管 VIP
    在这里插入图片描述
    在这里插入图片描述

    3.4 故障修复

    1.#修复master
    systemctl restart mysqld
     
    2.#修复主从
    #在现主库服务器 Mysql2(slave1) 查看二进制文件和同步点
    show master status;
    #在原主库服务器 mysql1(master) 执行同步操作
    change master to master_host='192.168.190.3',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=1991;
    start slave;
    show slave status\G;
     
    3.#在 manager 节点上修改配置文件app1.cnf(再把这个记录添加进去,因为它检测掉失效时候会自动消失)
    vi /etc/masterha/app1.cnf
    ....
    secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.190.2 -s 192.168.190.4
    ....
    [server1]
    hostname=192.168.190.3
    port=3306
     
    [server2]
    candidate_master=1
    check_repl_delay=0
    hostname=192.168.190.2
    port=3306
     
    [server3]
    hostname=192.168.190.4
    port=3306
     
    4.#在 manager 节点上启动 MHA
    nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
    masterha_check_status --conf=/etc/masterha/app1.cnf
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33

    1.修复master
    在这里插入图片描述
    2.修复主从
    #在现主库服务器 Mysql2(slave1) 查看二进制文件和同步点
    在这里插入图片描述
    #在原主库服务器 mysql1(master) 执行同步操作
    在这里插入图片描述
    3.在 manager 节点上修改配置文件app1.cnf
    在这里插入图片描述
    4.在 manager 节点上启动 MHA

    在这里插入图片描述

    四、总结

    1、mha
    ① 作用:mysql的高可用 + 故障切换
    ② 核心部分:
    MHA组件:manager:主要的功能:做MHA 启动、关闭管理和检测mysql各种健康状态
    node:在发生故障时,尽可能的保存二进制日志,并且实验故障切换(VIP地址飘移)
    ③ MHA需要配置的文件:(2个)
    master ip failover:命令工具,定义的是基于VIP的检测和故障转移(VIP从master---->新的master)
    app1.conf:mha的主要配置文件,主要定义了mha的工作目录、日志
    使用mha的登录mysql的用户、密码使用从服务器
    身份同步master的账号、密码 (五个)
    ④ 故障切换mha会做哪些动作:
    1)mha会多次尝试测试master的存活状态
    2)mha会多次尝试、尽可能的保存master的二进制日志
    3)mha会根据app1.cnf中的配置备份,进行从服务器-----> 主服务器的位置
    4)mha最后会将master的VIP地址切换到从服务器的位置
    5)mha再选择完新的master之后,会在其余的salve上执行change master操作,指向新的master,来保证mysql的集群的健康性

    2、mha故障问题
    ① 软件链接
    ② 免交互
    ③ 五个账号授权 (其中三个账号是测试环境需要做的)
    ④ 初次运行MHA功能时,需要临时添加虚拟IP
    ⑤ 配置文件–校验 (master_ip_failover 1个故障切换的脚本,app1.cnf mha的主配置文件)
    ⑥ 先安装node节点 再安装主节点

  • 相关阅读:
    [RK3568][Android11] Tasklet
    Windows11怎么直接显示更多选项?
    使用vscode开发esp32
    jsp内的${}循环一次及循环几次相加出总和
    《第一行代码Andorid》阅读笔记-第一章
    自定义xunit测试用例的执行顺序
    R语言使用oneway.test函数执行单因素方差分析(One-Way ANOVA)、使用aov函数执行单因素方差分析(aov函数默认组间方差相同)
    金山云:基于 JuiceFS 的 Elasticsearch 温冷热数据管理实践
    如何正确的在C++中实现单例SingleTone模式
    每天一道大厂SQL题【Day26】脉脉真题实战(二)活跃时长的均值
  • 原文地址:https://blog.csdn.net/gcc001224/article/details/125524930