• RabbitMQ(五) | MQ集群搭建、部署、仲裁队列、集群扩容



    接上一篇:RabbitMQ(四) | 惰性队列 - 解决消息堆积问题


    1.集群分类

    RabbitMQ的是基于Erlang语言编写,而Erlang又是一个面向并发的语言,天然支持集群模式。
    在RabbitMQ的官方文档中,讲述了两种集群的配置方式:

    • 普通集群:是一种分布式集群,将队列分散到集群的各个节点,从而提高整个集群的并发能力。

    普通模式集群不进行数据同步,每个MQ都有自己的队列、数据信息(其它元数据信息如交换机等会同步)。例如我们有2个MQ:mq1,和mq2,如果你的消息在mq1,而你连接到了mq2,那么mq2会去mq1拉取消息,然后返回给你。如果mq1宕机,消息就会丢失

    • 镜像集群:是一种主从集群,普通集群的基础上,添加了主从备份功能,提高集群的数据可用性。

    与普通模式不同,队列会在各个mq的镜像节点之间同步,因此你连接到任何一个镜像节点,均可获取到消息。而且如果一个节点宕机,并不会导致数据丢失。不过,这种方式增加了数据同步的带宽消耗。

    镜像集群虽然支持主从,但主从同步并不是强一致的,某些情况下可能有数据丢失的风险。因此在RabbitMQ的3.8版本以后,推出了新的功能:仲裁队列来代替镜像集群,底层采用Raft协议确保主从的数据一致性。


    2.普通集群

    2.1.集群结构和特征

    普通集群,或者叫标准集群(classic cluster),具备下列特征:

    • 会在集群的各个节点间共享部分数据,包括:交换机、队列元信息。不包含队列中的消息。
    • 当访问集群某节点时,如果队列不在该节点,会从数据所在节点传递到当前节点并返回
    • 队列所在节点宕机,队列中的消息就会丢失

    结构如图:
    在这里插入图片描述


    2.2.部署

    2.2.1.集群部署计划

    我们先来看普通模式集群,我们的计划部署3节点的mq集群:

    主机名控制台端口amqp通信端口
    mq18081 —> 156728071 —> 5672
    mq28082 —> 156728072 —> 5672
    mq38083 —> 156728073 —> 5672

    集群中的节点标示默认都是:rabbit@[hostname],因此以上三个节点的名称分别为:

    • rabbit@mq1
    • rabbit@mq2
    • rabbit@mq3

    2.2.2.获取cookie

    RabbitMQ底层依赖于Erlang,而Erlang虚拟机就是一个面向分布式的语言,默认就支持集群模式。集群模式中的每个RabbitMQ 节点使用 cookie 来确定它们是否被允许相互通信。

    要使两个节点能够通信,它们必须具有相同的共享秘密,称为Erlang cookie。cookie 只是一串最多 255 个字符的字母数字字符。

    每个集群节点必须具有相同的 cookie。实例之间也需要它来相互通信。

    我们先在之前启动的rabbitmq容器中获取一个cookie值,作为集群的cookie。执行下面的命令:

    docker exec -it rabbitmq cat /var/lib/rabbitmq/.erlang.cookie
    
    • 1

    可以看到cookie值如下:

    FSRMNTTIHSRYYLSHLHGK
    
    • 1

    在这里插入图片描述


    接下来,停止并删除当前的rabbitmq容器,我们重新搭建集群。

    docker rm -f rabbitmq
    
    • 1

    在这里插入图片描述


    清理数据卷

    docker volume prune
    
    • 1

    在这里插入图片描述


    2.2.3.准备集群配置

    /tmp目录新建一个配置文件rabbitmq.conf

    cd /tmp
    # 创建文件
    touch rabbitmq.conf
    
    • 1
    • 2
    • 3

    文件内容如下:

    # 禁用guest用户
    loopback_users.guest = false
    # 监听端口
    listeners.tcp.default = 5672
    cluster_formation.peer_discovery_backend = rabbit_peer_discovery_classic_config
    # 集群中的节点信息
    cluster_formation.classic_config.nodes.1 = rabbit@mq1
    cluster_formation.classic_config.nodes.2 = rabbit@mq2
    cluster_formation.classic_config.nodes.3 = rabbit@mq3
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    再创建一个文件,记录cookie

    cd /tmp
    # 创建cookie文件
    touch .erlang.cookie
    # 写入上一步得到的cookie
    echo "FSRMNTTIHSRYYLSHLHGK" > .erlang.cookie
    # 修改cookie文件的权限(当前用户的读写权限)
    chmod 600 .erlang.cookie
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    准备三个目录,mq1mq2mq3

    cd /tmp
    # 创建目录
    mkdir mq1 mq2 mq3
    
    • 1
    • 2
    • 3

    然后拷贝rabbitmq.conf、cookie文件(.erlang.cookie)到mq1mq2mq3

    # 进入/tmp
    cd /tmp
    # 拷贝
    cp rabbitmq.conf mq1
    cp rabbitmq.conf mq2
    cp rabbitmq.conf mq3
    cp .erlang.cookie mq1
    cp .erlang.cookie mq2
    cp .erlang.cookie mq3
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    2.2.4.启动集群

    为了让三个mq的docker容器互联,创建一个网络:

    docker network create mq-net
    
    • 1

    运行命令(挂载当前目录(${PWD})下文件夹中的文件到容器中对应的配置文件和cookie文件)

    docker run -d --net mq-net \
    -v ${PWD}/mq1/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
    -v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
    -e RABBITMQ_DEFAULT_USER=huangtu \
    -e RABBITMQ_DEFAULT_PASS=huangtu \
    --name mq1 \
    --hostname mq1 \
    -p 8071:5672 \
    -p 8081:15672 \
    rabbitmq:3.8-management
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    docker run -d --net mq-net \
    -v ${PWD}/mq2/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
    -v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
    -e RABBITMQ_DEFAULT_USER=huangtu \
    -e RABBITMQ_DEFAULT_PASS=huangtu \
    --name mq2 \
    --hostname mq2 \
    -p 8072:5672 \
    -p 8082:15672 \
    rabbitmq:3.8-management
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    docker run -d --net mq-net \
    -v ${PWD}/mq3/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
    -v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
    -e RABBITMQ_DEFAULT_USER=huangtu \
    -e RABBITMQ_DEFAULT_PASS=huangtu \
    --name mq3 \
    --hostname mq3 \
    -p 8073:5672 \
    -p 8083:15672 \
    rabbitmq:3.8-management
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    查看各个容器的启动日志:
    开启三个linux窗口,每个窗口执行mq1、mq2、mq3对应的查看日志命令:

    docker logs -f mq1
    
    • 1
    docker logs -f mq2
    
    • 1
    docker logs -f mq3
    
    • 1

    登录查看RabbitMQ控制台,可以看到集群对应的是三个节点:
    在这里插入图片描述


    2.2.5.测试

    在mq1这个节点上添加一个队列:
    在这里插入图片描述

    创建成功后,大家自行在mq2和mq3两个控制台查看刚刚这个队列,队列的节点是不会变的,普通集群的其他节点只是引用:
    在这里插入图片描述


    2.2.5.1.数据共享测试

    点击这个队列,进入管理页面,添加一条信息(这里我点了两次):
    在这里插入图片描述

    结果在mq2、mq3上都能看到这条消息:
    在这里插入图片描述


    2.2.5.2.可用性测试

    我们让其中一台节点mq1宕机:

    docker stop mq1
    
    • 1

    然后登录mq2或mq3的控制台,发现simple.queue也不可用了:
    在这里插入图片描述
    说明数据并没有拷贝到mq2和mq3。

    重新启动,则会恢复


    3.镜像集群

    镜像模式

    在刚刚的案例中,一旦创建队列的主机宕机,队列就会不可用。不具备高可用能力。如果要解决这个问题,必须使用官方提供的镜像集群方案。

    官方文档地址:https://www.rabbitmq.com/ha.html


    3.1.集群结构和特征

    默认情况下,队列只保存在创建该队列的节点上。而镜像模式下,创建队列的节点被称为该队列的主节点,队列还会拷贝到集群中的其它节点,也叫做该队列的镜像节点。
    但是,不同队列可以在集群中的任意节点上创建,因此不同队列的主节点可以不同。甚至,一个队列的主节点可能是另一个队列的镜像节点
    用户发送给队列的一切请求,例如发送消息、消息回执默认都会在主节点完成,如果是从节点接收到请求,也会路由到主节点去完成。镜像节点仅仅起到备份数据作用
    当主节点接收到消费者的ACK时,所有镜像都会删除节点中的数据。


    镜像集群:本质是主从模式,具备下面的特征:

    • 创建队列的节点被称为该队列的主节点,备份到的其它节点叫做该队列的镜像节点。
    • 镜像队列结构是一主多从(从就是镜像)
    • 交换机、队列、队列中的消息会在各个mq的镜像节点之间同步备份。
    • 一个队列的主节点可能是另一个队列的镜像节点
    • 所有操作都是主节点完成,然后同步给镜像节点
    • 主宕机后,镜像节点会替代成新的主(如果在主从同步完成前,主就已经宕机,可能出现数据丢失)
    • 不具备负载均衡功能,因为所有操作都会有主节点完成(但是不同队列,其主节点可以不同,可以利用这个提高吞吐量)

    结构如图:
    在这里插入图片描述


    3.2.镜像模式的配置

    镜像模式的配置有3种模式:

    ha-modeha-params效果
    准确模式exactly队列的副本量count集群中队列副本(主服务器和镜像服务器之和)的数量。count如果为1意味着单个副本:即队列主节点。count值为2表示2个副本:1个队列主和1个队列镜像。换句话说:count = 镜像数量 + 1。如果群集中的节点数少于count,则该队列将镜像到所有节点。如果有集群总数大于count+1,并且包含镜像的节点出现故障,则将在另一个节点上创建一个新的镜像。
    all(none)队列在群集中的所有节点之间进行镜像。队列将镜像到任何新加入的节点。镜像到所有节点将对所有群集节点施加额外的压力,包括网络I / O,磁盘I / O和磁盘空间使用情况。推荐使用exactly,设置副本数为(N / 2 +1)。
    nodesnode names指定队列创建到哪些节点,如果指定的节点全部不存在,则会出现异常。如果指定的节点在集群中存在,但是暂时不可用,会创建节点到当前客户端连接到的节点。

    这里我们以rabbitmqctl命令作为案例来讲解配置语法。


    3.2.1.exactly模式

    rabbitmqctl set_policy ha-two "^two\." '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
    
    • 1
    • rabbitmqctl set_policy:固定写法
    • ha-two:策略名称,自定义
    • "^two\.":匹配队列的正则表达式,符合命名规则的队列才生效,这里是任何以two.开头的队列名称
    • '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}': 策略内容
      • "ha-mode":"exactly":策略模式,此处是exactly模式,指定副本数量
      • "ha-params":2:策略参数,这里是2,就是副本数量为2,1主1镜像
      • "ha-sync-mode":"automatic":同步策略,默认是manual,即新加入的镜像节点不会同步旧的消息。如果设置为automatic,则新加入的镜像节点会把主节点中所有消息都同步,会带来额外的网络开销

    3.2.2.all模式

    rabbitmqctl set_policy ha-all "^all\." '{"ha-mode":"all"}'
    
    • 1
    • ha-all:策略名称,自定义
    • "^all\.":匹配所有以all.开头的队列名
    • '{"ha-mode":"all"}':策略内容
      • "ha-mode":"all":策略模式,此处是all模式,即所有节点都会称为镜像节点

    3.2.3.nodes模式

    rabbitmqctl set_policy ha-nodes "^nodes\." '{"ha-mode":"nodes","ha-params":["rabbit@nodeA", "rabbit@nodeB"]}'
    
    • 1
    • rabbitmqctl set_policy:固定写法
    • ha-nodes:策略名称,自定义
    • "^nodes\.":匹配队列的正则表达式,符合命名规则的队列才生效,这里是任何以nodes.开头的队列名称
    • '{"ha-mode":"nodes","ha-params":["rabbit@nodeA", "rabbit@nodeB"]}': 策略内容
      • "ha-mode":"nodes":策略模式,此处是nodes模式
      • "ha-params":["rabbit@mq1", "rabbit@mq2"]:策略参数,这里指定副本所在节点名称

    3.2.4.测试

    我们使用exactly模式的镜像,因为集群节点数量为3,因此镜像数量就设置为2.

    运行下面的命令:

    docker exec -it mq1 rabbitmqctl set_policy ha-two "^two\." '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
    
    • 1

    3.2.4.1.创建一个新的队列

    创建一个新的队列:

    在这里插入图片描述


    在任意一个mq控制台查看队列:

    这里我在mq1控制台看

    在这里插入图片描述


    3.2.4.2.测试数据共享

    给two.queue发送一条消息:
    在这里插入图片描述

    然后在mq1、mq2、mq3的任意控制台查看消息:

    在这里插入图片描述


    3.2.4.3.测试高可用

    现在,我们让two.queue的主节点mq1宕机:

    docker stop mq1
    
    • 1

    查看集群状态:

    在这里插入图片描述


    查看队列状态:

    在这里插入图片描述

    发现集群队列依然是健康的!并且其主节点切换到了rabbit@mq2上


    4.仲裁队列

    4.1.集群特征

    仲裁队列:仲裁队列是3.8版本以后才有的新功能,用来替代镜像队列,具备下列特征:

    • 与镜像队列一样,都是主从模式,支持主从数据同步
    • 使用非常简单,没有复杂的配置
    • 主从同步基于Raft协议,保证强一致

    4.2.添加仲裁队列

    在任意控制台添加一个队列,一定要选择队列类型为Quorum类型。
    在这里插入图片描述


    在任意控制台查看队列:

    在这里插入图片描述

    可以看到,仲裁队列的 + 2字样。代表这个队列有2个镜像节点。

    因为仲裁队列默认的镜像数为5。如果你的集群有7个节点,那么镜像数肯定是5;而我们集群只有3个节点,因此镜像数量就是3.


    4.3.测试

    新增一个消息:

    在这里插入图片描述

    然后再任意节点去查看这个消息,自行查看。


    4.4.Java代码创建仲裁队列

    修改yml文件,连接MQ集群

    注意:这里用address来代替host、port方式

    spring:
      rabbitmq:
    #    host: 192.168.188.128 # rabbitMQ的ip地址
    #    port: 5672 # 端口
        addresses: 192.168.188.128:8071, 192.168.188.128:8072, 192.168.188.128:8073
        username: huangtu
        password: huangtu
        virtual-host: /
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    在consumr服务端创建一个仲裁队列QuorumConfig配置类

    import org.springframework.amqp.core.Queue;
    import org.springframework.amqp.core.QueueBuilder;
    import org.springframework.context.annotation.Bean;
    import org.springframework.context.annotation.Configuration;
    
    @Configuration
    public class QuorumConfig {
        @Bean
    	public Queue quorumQueue() {
    	    return QueueBuilder
    	        .durable("quorum.queue2") // 持久化
    	        .quorum() // 仲裁队列
    	        .build();
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15

    启动consumer服务,在任意mq控制台查看,可以看到quorum.queue2队列已经创建好了:
    在这里插入图片描述


    5.集群扩容

    5.1.加入集群

    1)启动一个新的MQ容器:

    docker run -d --net mq-net \
    -v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
    -e RABBITMQ_DEFAULT_USER=huangtu \
    -e RABBITMQ_DEFAULT_PASS=huangtu \
    --name mq4 \
    --hostname mq4 \
    -p 8074:15672 \
    -p 8084:15672 \
    rabbitmq:3.8-management
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    2)进入容器控制台(依次执行以下命令):

    docker exec -it mq4 bash
    
    • 1

    3)停止mq进程

    rabbitmqctl stop_app
    
    • 1

    4)重置RabbitMQ中的数据:

    rabbitmqctl reset
    
    • 1

    5)加入mq1:

    rabbitmqctl join_cluster rabbit@mq1
    
    • 1

    6)再次启动mq进程

    rabbitmqctl start_app
    
    • 1

    在任意控制台查看,可以看到新的节点已经加入进来了

    在这里插入图片描述


    5.2.增加仲裁队列副本

    目前都是+2

    在这里插入图片描述

    我们先查看下quorum.queue这个队列目前的副本情况,进入mq1容器:

    docker exec -it mq1 bash
    
    • 1

    执行命令:

    rabbitmq-queues quorum_status "quorum.queue"
    
    • 1

    结果:

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Hl8fGmYw-1656064731075)(assets/image-20210718002118357.png)]


    现在,我们让mq4也加入进来:

    rabbitmq-queues add_member "quorum.queue" "rabbit@mq4"
    
    • 1

    结果:
    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BwVATXLy-1656064731076)(assets/image-20210718002253226.png)]

    再次查看:

    rabbitmq-queues quorum_status "quorum.queue"
    
    • 1

    结果:
    在这里插入图片描述

    查看任意节点的控制台,发现quorum.queue的镜像数量也从原来的 +2 变成了 +3:
    在这里插入图片描述


  • 相关阅读:
    charles劫持修改js文件
    uni-app:canvas-图形实现1
    运动健身的一些心得经验
    mkfifo函数 及 解决Linux下 “mkfifo: no such file or directory”
    15. Python 赋值运算
    四甲基罗丹明-5(6)-异硫氰酸酯,5(6)-Tetramethylrhodamine isothiocyanate
    JavaWeb开发之——JavaWeb介绍(01)
    阿里数学竞赛最年轻金奖得主:15岁读少年班,21岁UC伯克利读博,想毕业就回国...
    get与post的区别
    phpstudy脚本编写 和sql注入编写
  • 原文地址:https://blog.csdn.net/qq_25112523/article/details/125432578