• MySQL之MHA高可用集群


    目录

    一、MHA概述

    1.1.MHA 是什么

    1.2.MHA 的组成

    (1)MHA Node(数据节点)

    (2)MHA Manager(管理节点)

    1.3.MHA 的特点

    二、MHA搭建准备

    2.1.实验思路

    2.2.实验准备

    三、MHA搭建

    3.1配置主从复制

    3.2.安装 MHA 软件

    3.3.故障模拟

    3.4.故障修复

     四、总结


    一、MHA概述

    1.1.MHA 是什么

    • MHA(MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。
    • MHA 的出现就是解决MySQL 单点的问题。
    • MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。
    • MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。

    1.2.MHA 的组成

    (1)MHA Node(数据节点)

    MHA Node运行在每台 MySQL 服务器上。

    (2)MHA Manager(管理节点)

    • MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
    • MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。
       

    1.3.MHA 的特点

    • 自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失。
    • 使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。
    • 目前MHA支持一主多从架构,最少三台服务,即一主两从。

    二、MHA搭建准备

    2.1.实验思路

    • MHA架构①数据库安装 ②一主两从 ③MHA搭建
    • 故障模拟①主库失效 ②备选主库成为主库 ③原故障主库恢复重新加入到MHA成为从库

    2.2.实验准备

    1. master服务器: 192.168.10.4 mysql和MHA node组件 主机名:master
    2. slave1服务器: 192.168.10.5 mysql和MHA node组件 主机名:slave1
    3. slave2服务器: 192.168.10.6 mysql和MHA node组件 主机名:slave2
    4. MHA manager服务器: 192.168.10.7 MHA node和manager组件 主机名:manager

    三、MHA搭建

    3.1配置主从复制

    1.关闭防火墙、增强功能

    1. ###在四台服务器上都操作
    2. systemctl stop firewalld
    3. systemctl disable firewalld
    4. setenforce 0

    2.修改 Master、Slave1、Slave2 节点的主机名

    1. ###在Master上
    2. hostnamectl set-hostname master
    3. su -
    4. ###在Slave1
    5. hostnamectl set-hostname slave1
    6. su -
    7. ###在Slave2
    8. hostnamectl set-hostname slave2
    9. su -

    3.在Master、Slave1、Slave2添加域名解析

    1. ###在主服务器和两台从服务器上都加上域名解析
    2. vim /etc/hosts
    3. 192.168.10.4 master
    4. 192.168.10.5 slave1
    5. 192.168.10.6 slave2

    4.配置主从同步

    1. ###修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf
    2. ###Master 节点###
    3. vim /etc/my.cnf
    4. [mysqld]
    5. server-id = 1
    6. log_bin = master-bin
    7. log-slave-updates = true
    8. systemctl restart mysqld
    9. ###Slave1 节点###
    10. vim /etc/my.cnf
    11. server-id = 2 ###三台服务器的 server-id 不能一样
    12. log_bin = master-bin
    13. relay-log = relay-log-bin
    14. relay-log-index = slave-relay-bin.index
    15. systemctl restart mysqld
    16. ###Slave2 节点###
    17. vim /etc/my.cnf
    18. server-id = 3
    19. log_bin = master-bin
    20. relay-log = relay-log-bin
    21. relay-log-index = slave-relay-bin.index
    22. systemctl restart mysqld

    注意:

     5.Master、Slave1、Slave2 节点上都创建两个软链接

    1. ###主服务器和两台从服务器都创建
    2. ln -s /usr/local/mysql/bin/mysql /usr/sbin/
    3. ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
    4. ls /usr/sbin/mysql*

    6.登录数据库主从配置授权

    1. #################Master、Slave1、Slave2 节点上都授权###################
    2. grant replication slave on *.* to 'myslave'@'192.168.10.%' identified by '123456';
    3. ###授权主从用户
    4. grant all privileges on *.* to 'mha'@'192.168.10.%' identified by 'manager';
    5. grant all privileges on *.* to 'mha'@'master' identified by 'manager';
    6. grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
    7. grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';
    8. #刷新库
    9. flush privileges;

     注意:主服务器和两台从服务器都要授权

    7.Master节点查看二进制文件和同步点 、在 Slave1、Slave2 节点执行同步操作

    1. #################在master上##################
    2. show master status;
    3. ##############在slave1、slave2节点执行同步操作############
    4. change master to master_host='192.168.250.12',master_user='myslave',master_password='123456',master_log_file='master-bin.000002',master_log_pos=603;
    5. start slave;
    6. show slave status\G;

    8.设置两个从节点 只读模式

    1. ###在两台从服务器上设置
    2. set global read_only=1;

    9.验证主从复制

    1. ###在主master上创建库、表并插入数据
    2. create database shiyan;
    3. use shiyan;
    4. insert into info values('小明');
    5. select * from test1.info;
    6. ###在slave1、slave2上验证
    7. select * from shiyan.info;

    3.2.安装 MHA 软件

    1.所有服务器上都安装MHA依赖的环境,首先安装epel源

    1. ###在master、slave1、slave2、mha服务器上都安装
    2. yum install epel-release --nogpgcheck -y
    3. yum install -y perl-DBD-MySQL \
    4. perl-Config-Tiny \
    5. perl-Log-Dispatch \
    6. perl-Parallel-ForkManager \
    7. perl-ExtUtils-CBuilder \
    8. perl-ExtUtils-MakeMaker \
    9. perl-CPAN

     2.安装MHA软件包,先在所有服务器上必须先安装node组件

    • 对于每个操作系统版本不一样,这里 CentOS7.4 必须选择 0.57 版本。
    • 在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件。
    1. ##将需要的包下载到/opt下##
    2. ##每台服务器上解压安装node组件##
    3. cd /opt
    4. tar zxf mha4mysql-node-0.57.tar.gz
    5. cd mha4mysql-node-0.57
    6. perl Makefile.PL
    7. make && make install

    注意:四台服务器上都要安装node组件

    3.在MHA-manager节点上安装 manager 组件

    1. ###把需要的包放到opt下
    2. tar zxvf mha4mysql-manager-0.57.tar.gz
    3. cd mha4mysql-manager-0.57/
    4. perl Makefile.PL
    5. make && make install
    1. cd /usr/local/bin/
    2. #manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:
    3. masterha_check_ssh 检查 MHA 的 SSH 配置状况
    4. masterha_check_repl 检查 MySQL 复制状况
    5. masterha_manger 启动 manager的脚本
    6. masterha_check_status 检测当前 MHA 运行状态
    7. masterha_master_monitor 检测 master 是否宕机
    8. masterha_master_switch 控制故障转移(自动或者 手动)
    9. masterha_conf_host 添加或删除配置的 server 信息
    10. masterha_stop 关闭manager
    11. #node 组件安装后也会在/usr/local/bin 下面会生成几个脚本(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:
    12. save_binary_logs 保存和复制 master 的二进制日志
    13. apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave
    14. filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
    15. purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)

    4.在所有服务器上配置无密码认证

    1. ###在manager节点上配置到所有数据库节点的无密码认证
    2. ssh-keygen -t rsa #一路按回车键
    3. ssh-copy-id 192.168.10.4
    4. ssh-copy-id 192.168.10.5
    5. ssh-copy-id 192.168.10.6
    6. ####数据库服务器之间互相导入即可####
    7. ###在master上
    8. ssh-keygen -t rsa #一路按回车键
    9. ssh-copy-id 192.168.10.5
    10. ssh-copy-id 192.168.10.6
    11. ###在slave1上
    12. ssh-keygen -t rsa #一路按回车键
    13. ssh-copy-id 192.168.10.4
    14. ssh-copy-id 192.168.10.6
    15. ###在slave2上
    16. ssh-keygen -t rsa #一路按回车键
    17. ssh-copy-id 192.168.10.4
    18. ssh-copy-id 192.168.10.5
    1. ###免密登录测试###
    2. ###在manager节点上
    3. ssh 192.168.10.4
    4. ssh 192.168.10.5
    5. ssh 192.168.10.6
    6. ###在master节点上
    7. ssh 192.168.10.5
    8. ssh 192.168.10.6
    9. ###在slave1节点上
    10. ssh 192.168.10.4
    11. ssh 192.168.10.6
    12. ###在slave2节点上
    13. ssh 192.168.10.4
    14. ssh 192.168.10.5

    5.在manager节点上操作

    1. (1)###在manager节点上复制相关脚本到/usr/local/bin 目录
    2. cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
    3. #拷贝后会有四个执行文件
    4. ll /usr/local/bin/scripts/
    5. master_ip_failover #自动切换时VIP管理的脚本
    6. master_ip_online_change #在线切换时vip的管理
    7. power_manager #故障发生后关闭主机的脚本
    8. send_report #因故障切换后发送报警的脚本
    9. (2)###复制上述的自动切换时VIP管理的脚本到/usr/local/bin目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换
    10. cp /usr/local/bin/scripts/* /usr/local/bin
    11. (3)###修改master_ip_failover 全部删除,添加以下内容,修改相关参数
    12. #!/usr/bin/env perl
    13. use strict;
    14. use warnings FATAL => 'all';
    15. use Getopt::Long;
    16. my (
    17. $command, $ssh_user, $orig_master_host, $orig_master_ip,
    18. $orig_master_port, $new_master_host, $new_master_ip, $new_master_port
    19. );
    20. #############################添加内容部分#########################################
    21. my $vip = '192.168.10.200'; #指定vip的地址
    22. my $brdc = '192.168.10.255'; #指定vip的广播地址
    23. my $ifdev = 'ens33'; #指定vip绑定的网卡
    24. my $key = '1'; #指定vip绑定的虚拟网卡序列号
    25. my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip"; #代表此变量值为ifconfig ens33:1 192.168.59.188
    26. my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; #代表此变量值为ifconfig ens33:1 192.168.59.188 down
    27. my $exit_code = 0; #指定退出状态码为0
    28. #my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
    29. #my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
    30. ##################################################################################
    31. GetOptions(
    32. 'command=s' => \$command,
    33. 'ssh_user=s' => \$ssh_user,
    34. 'orig_master_host=s' => \$orig_master_host,
    35. 'orig_master_ip=s' => \$orig_master_ip,
    36. 'orig_master_port=i' => \$orig_master_port,
    37. 'new_master_host=s' => \$new_master_host,
    38. 'new_master_ip=s' => \$new_master_ip,
    39. 'new_master_port=i' => \$new_master_port,
    40. );
    41. exit &main();
    42. sub main {
    43. print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
    44. if ( $command eq "stop" || $command eq "stopssh" ) {
    45. my $exit_code = 1;
    46. eval {
    47. print "Disabling the VIP on old master: $orig_master_host \n";
    48. &stop_vip();
    49. $exit_code = 0;
    50. };
    51. if ($@) {
    52. warn "Got Error: $@\n";
    53. exit $exit_code;
    54. }
    55. exit $exit_code;
    56. }
    57. elsif ( $command eq "start" ) {
    58. my $exit_code = 10;
    59. eval {
    60. print "Enabling the VIP - $vip on the new master - $new_master_host \n";
    61. &start_vip();
    62. $exit_code = 0;
    63. };
    64. if ($@) {
    65. warn $@;
    66. exit $exit_code;
    67. }
    68. exit $exit_code;
    69. }
    70. elsif ( $command eq "status" ) {
    71. print "Checking the Status of the script.. OK \n";
    72. exit 0;
    73. }
    74. else {
    75. &usage();
    76. exit 1;
    77. }
    78. }
    79. sub start_vip() {
    80. `ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
    81. }
    82. ## A simple system call that disable the VIP on the old_master
    83. sub stop_vip() {
    84. `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
    85. }
    86. sub usage {
    87. print
    88. "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
    89. }
    90. #删除注释
    91. :2,87 s/^#//
    92. (4)###创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
    93. #创建 MHA 软件目录并拷贝配置文件
    94. cd /opt/mha4mysql-manager-0.57/samples/conf/
    95. ls
    96. mkdir /etc/masterha
    97. cp app1.cnf /etc/masterha/
    98. #修改app1.cnf配置文件,删除原文所有内容,添加下面的
    99. vim /etc/masterha/app1.cnf
    100. [server default]
    101. manager_log=/var/log/masterha/app1/manager.log
    102. manager_workdir=/var/log/masterha/app1
    103. master_binlog_dir=/usr/local/mysql/data
    104. master_ip_failover_script=/usr/local/bin/master_ip_failover
    105. master_ip_online_change_script=/usr/local/bin/master_ip_online_change
    106. password=manager
    107. ping_interval=1
    108. remote_workdir=/tmp
    109. repl_password=123456
    110. repl_user=myslave
    111. secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.10.5 -s 192.168.10.6
    112. shutdown_script=""
    113. ssh_user=root
    114. user=mha
    115. [server1]
    116. hostname=192.168.10.4
    117. port=3306
    118. [server2]
    119. candidate_master=1
    120. check_repl_delay=0
    121. hostname=192.168.10.5
    122. port=3306
    123. [server3]
    124. hostname=192.168.10.6
    125. port=3306
    126. (5)###在主节点开启虚拟IP
    127. ifconfig ens33:1 192.168.10.200/24
    128. (6)###在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully。如下所示
    129. masterha_check_ssh -conf=/etc/masterha/app1.cnf
    130. (7)###在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。
    131. masterha_check_repl -conf=/etc/masterha/app1.cnf
    132. (8)###在 manager 节点上启动 MHA
    133. nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
    134. (9)###查看 MHA 状态,可以看到当前的 master 是 Mysql1 节点。
    135. masterha_check_status --conf=/etc/masterha/app1.cnf
    136. (10)###查看 MHA 日志,也以看到当前的 master 是 192.168.250.118,如下所示。
    137. cat /var/log/masterha/app1/manager.log | grep "current master"
    138. (11)###查看 Mysql1 的 VIP 地址 192.168.250.118 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。
    139. ifconfig
    140. //若要关闭 manager 服务,可以使用如下命令。
    141. masterha_stop --conf=/etc/masterha/app1.cnf
    142. 或者可以直接采用 kill 进程 ID 的方式关闭。

    (3)##修改master_ip_failover 全部删除,添加内容,修改相关参数

     (4)###修改app1.cnf配置文件,删除原文所有内容,添加下面的

    vim /etc/masterha/app1.cnf

     配置文件解释如下:

    1. [server default]
    2. manager_log=/var/log/masterha/app1/manager.log      #manager日志
    3. manager_workdir=/var/log/masterha/app1         #manager工作目录
    4. master_binlog_dir=/usr/local/mysql/data/         #master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHA能找到
    5. master_ip_failover_script=/usr/local/bin/master_ip_failover  #设置自动failover时候的切换脚本,也就是上面的那个脚本
    6. master_ip_online_change_script=/usr/local/bin/master_ip_online_change  #设置手动切换时候的切换脚本
    7. password=manager #设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
    8. ping_interval=1 #设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
    9. remote_workdir=/tmp #设置远端mysql在发生切换时binlog的保存位置
    10. repl_password=123456 #设置复制用户的密码
    11. repl_user=myslave #设置复制用户的用户
    12. report_script=/usr/local/send_report     #设置发生切换后发送的报警的脚本
    13. secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.10.5 -s 192.168.10.6 #指定检查的从服务器IP地址
    14. shutdown_script="" #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用)
    15. ssh_user=root #设置ssh的登录用户名
    16. user=mha #设置监控用户root
    17. [server1]
    18. hostname=192.168.10.4
    19. port=3306
    20. [server2]
    21. hostname=192.168.10.5
    22. port=3306
    23. candidate_master=1
    24. #设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个从库不是集群中最新的slave
    25. check_repl_delay=0
    26. #默认情况下如果一个slave落后master 超过100M的 relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
    27. [server3]
    28. hostname=192.168.10.6
    29. port=3306

    (6)###在manager节点上测试 ssh 无密码认证,如果正常最后会输出 successfully。如下所示。

     (7)###在manager节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。

     (8)###在 manager 节点上启动 MHA

     (9)###查看 MHA 状态,可以看到当前的 master 是 192.168.10.4 节点。

     (10)###查看 MHA 日志,也以看到当前的 master 是 192.168.10.4,如下所示。

     (11)查看 master 的 VIP 地址 192.168.10.200 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。

     3.3.故障模拟

    1. ###在 manager 节点上监控观察日志记录
    2. tail -f /var/log/masterha/app1/manager.log
    3. ###在 Master 节点 192.168.10.4上停止mysql服务
    4. systemctl stop mysqld
    5. pkill -9 mysql
    6. ###在slave1,slave2上查看,正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 master(192.168.10.4)节点删除。
    7. 查看 slave12 是否接管 VIP
    8. ifconfig
    9. 故障切换备选主库的算法:
    10. 1.一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
    11. 2.数据一致的情况下,按照配置文件顺序,选择备选主库。
    12. 3.设定有权重(candidate_master=1),按照权重强制指定备选主。
    13. (1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
    14. (2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。

    ###在 manager 节点上监控观察日志记录

    ###在 Master 节点 上停止mysql服务  

    ###在slave1,slave2上查看,查看 slave1 是否接管 VIP

     3.4.故障修复

    1. 1.#修复mysql1
    2. systemctl restart mysqld
    3. 2.#修复主从
    4. #在现主库服务器 slave1 查看二进制文件和同步点
    5. show master status;
    6. #在原主库服务器 192.168.10.4上 执行同步操作
    7. change master to master_host='192.168.10.5',master_user='myslave',master_password='123456',master_log_file='master-bin.000003',master_log_pos=154;
    8. start slave;
    9. show slave status\G;
    10. 3#在 manager 节点上修改配置文件app1.cnf(再把这个记录添加进去,因为它检测掉失效时候会自动消失)
    11. vi /etc/masterha/app1.cnf
    12. ....
    13. secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.59.118 -s 192.168.59.114
    14. ....
    15. [server1]
    16. hostname=192.168.59.111
    17. port=3306
    18. [server2]
    19. candidate_master=1
    20. check_repl_delay=0
    21. hostname=192.168.59.118
    22. port=3306
    23. [server3]
    24. hostname=192.168.59.114
    25. port=3306
    26. 4.#在 manager 节点上启动 MHA
    27. nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

     1.修复mysql1

     2.修复主从

    ###在原主库服务器 mysql1 执行同步操作

    3.在 manager 节点上修改配置文件app1.cnf(再把这个记录添加进去,因为它检测掉失效时候会自动消失)

     4.在 manager 节点上启动 MHA

     四、总结

    1.MHA

    ①作用:MySQL的高可用,故障切换。

    ②核心部分:(1)MHA组件:manager:主要的功能:做MHA启动,关闭管理和检测MySQL的各种健康状态。                                                      niode:在发生故障时,尽可能的保存二进制日志,并且实现故障切换(VIP地址飘逸)

    ③MHA需要的配置的文件(2个):

    master_ip_failover:命令工具,定义的是基于VIP的检测和故障转移(VIP从master ----》新的 master)

    appl.conf:MHA的主要配置文件,主要定义了mha的工作目录、日志mysql二进制日志位置,使用MHA的登录MySQL的用户、密码使用从服务器。身份同步master的账号、密码(五个)。

    ④故障切换MHA会做哪些动作:

    (1)MHA会多次尝试检测master的存活状态。

    (2)MHA会多次尝试,尽可能的保存master的二进制文件

    (3)MHA会根据app1.cnf中的配置部分,进行从服务器------》主服务器的位置

    (4)MHA最后会将master的VIP地址切换到从服务器的位置

    (5)MHA再选择完新的master后,会在其余的slave上执行change master操作,指向新的master,来保证MySQL集群的健康性。

    2.MHA的故障问题

    ①要做软链接。

    ②免交互(免密登录)

    ③五个账号授权(其中三个账号是测试环境需要做的)

    ④初次运行MHA功能时,需要临时添加虚拟ip

    ⑤配置文件 --- 校验 (master_ip_failover 1个故障切换脚本,appl.cnf.mha的主配置文件)

    ⑥先安装node节点,再安装主节点。

  • 相关阅读:
    【LabVIEW 】串口如何读取长度不一致的字符串
    使用Jupyter Notebook调试PySpark程序错误总结
    在golang中使用protoc
    Linux(阿里云服务器)中安装Nginx命令
    l8-d10 TCP协议是如何实现可靠传输的
    海河实验室创新联合体成立 GBASE成为首批创新联合体(信创)成员单位
    【Android安全】Kotlin基础
    【设计模式】Java设计模式 - 迭代器模式
    在Vue中如何渲染使用Vue写法的HTML文件?
    python类属性和实例属性的注意点
  • 原文地址:https://blog.csdn.net/weixin_64015933/article/details/125520434