在这一部分中,我们将用 Java 编写两个程序。发送单个消息的生产者和接收消息并打印出来的消费者。模型如下所示:

在下图中,“ P” 是我们的生产者,“ C” 是我们的消费者。中间的框是一个队列 RabbitMQ 代表使用者保留的消息缓冲区。

-
- <build>
- <plugins>
- <plugin>
- <groupId>org.apache.maven.pluginsgroupId>
- <artifactId>maven-compiler-pluginartifactId>
- <configuration>
- <source>8source>
- <target>8target>
- configuration>
- plugin>
- plugins>
- build>
- <dependencies>
-
- <dependency>
- <groupId>com.rabbitmqgroupId>
- <artifactId>amqp-clientartifactId>
- <version>5.8.0version>
- dependency>
-
- <dependency>
- <groupId>commons-iogroupId>
- <artifactId>commons-ioartifactId>
- <version>2.6version>
- dependency>
- dependencies>
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.Connection;
- import com.rabbitmq.client.ConnectionFactory;
-
- // 生产者,用于推送消息
- public class Producer {
-
- private final static String QUEUE_NAME = "hello";
- public static void main(String[] args) throws Exception {
- // 创建一个连接工厂
- ConnectionFactory factory = new ConnectionFactory();
- factory.setHost("192.168.229.146");
- factory.setUsername("admin");
- factory.setPassword("123");
-
- // channel 实现了自动 close 接口 自动关闭 不需要显示关闭
- Connection connection = factory.newConnection();
- Channel channel = connection.createChannel();
- /**
- * 生成一个队列
- * 1.队列名称
- * 2.队列里面的消息是否持久化 默认消息存储在内存中
- * 3.该队列是否只供一个消费者进行消费 是否进行共享 true 可以多个消费者消费
- * 4.是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true 自动删除
- * 5.其他参数
- */
- channel.queueDeclare(QUEUE_NAME,false,false,false,null);
- String message="hello world";
- /**
- * 发送一个消息
- * 1.发送到那个交换机
- * 2.路由的 key 是哪个
- * 3.其他的参数信息
- * 4.发送消息的消息体
- */
- channel.basicPublish("",QUEUE_NAME,null,message.getBytes());
- System.out.println("消息发送完毕");
- }
- }
运行代码,然后在我们的 rabbitmq 管理界面上可以看到,此时我们的 hello 队列里面,有一个消息等待被消费,如下所示:


- import com.rabbitmq.client.*;
-
- // 接收消息的消费者
- public class Consumer {
- // 队列的名称
- private final static String QUEUE_NAME = "hello";
- public static void main(String[] args) throws Exception {
- ConnectionFactory factory = new ConnectionFactory();
- factory.setHost("192.168.229.146");
- factory.setUsername("admin");
- factory.setPassword("123");
- Connection connection = factory.newConnection();
- Channel channel = connection.createChannel();
- System.out.println("等待接收消息....");
-
- // 接收到消息时的回调函数
- DeliverCallback deliverCallback=(consumerTag, message)->{
- String resultMessage= new String(message.getBody());
- System.out.println(resultMessage);
- };
- // 取消消费时的回调函数,比如在消费的时候队列被删除掉了
- CancelCallback cancelCallback=(consumerTag)->{
- System.out.println("消息消费被中断");
- };
- /**
- * 消费者消费消息
- * 1.消费哪个队列
- * 2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答
- * 3.消费者未成功消费的回调
- * 4.消费者取消消费的回调
- */
- channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
- }
- }
启动代码,可以看到,我们成功的消费了 rabbitmq 里面的消息。

工作队列(又称任务队列)的主要思想是假设生产者发送大量的消息,会把消息放入队列之中,后面有多个工作线程去接收处理消息。

在这个案例中我们会启动三个工作线程,一个消息发送线程,我们来看看他们三个工作线程是如何工作的。轮询模式就是你处理一个,我处理一个,按顺序一个一个的进行处理。
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.Connection;
- import com.rabbitmq.client.ConnectionFactory;
-
- public class RabbitMqUtils {
- // 得到一个连接的 channel
- public static Channel getChannel() throws Exception{
- // 创建一个连接工厂
- ConnectionFactory factory = new ConnectionFactory();
- factory.setHost("192.168.229.147");
- factory.setUsername("admin");
- factory.setPassword("123");
- Connection connection = factory.newConnection();
- Channel channel = connection.createChannel();
- return channel;
- }
- }
- import com.rabbitmq.client.CancelCallback;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Worker01 {
- private static final String QUEUE_NAME="hello";
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- DeliverCallback deliverCallback=(consumerTag, delivery)->{
- String receivedMessage = new String(delivery.getBody());
- System.out.println("接收到消息:"+receivedMessage);
- };
- CancelCallback cancelCallback=(consumerTag)->{
- System.out.println(consumerTag+"消费者取消消费接口回调逻辑");
- };
- System.out.println("C1 消费者启动等待消费......");
- channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
- }
- }
- import com.rabbitmq.client.CancelCallback;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Worker02 {
- private static final String QUEUE_NAME="hello";
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- DeliverCallback deliverCallback=(consumerTag, delivery)->{
- String receivedMessage = new String(delivery.getBody());
- System.out.println("接收到消息:"+receivedMessage);
- };
- CancelCallback cancelCallback=(consumerTag)->{
- System.out.println(consumerTag+"消费者取消消费接口回调逻辑");
- };
- System.out.println("C2 消费者启动等待消费......");
- channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
- }
- }
- import com.rabbitmq.client.CancelCallback;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Worker03 {
- private static final String QUEUE_NAME="hello";
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- DeliverCallback deliverCallback=(consumerTag, delivery)->{
- String receivedMessage = new String(delivery.getBody());
- System.out.println("接收到消息:"+receivedMessage);
- };
- CancelCallback cancelCallback=(consumerTag)->{
- System.out.println(consumerTag+"消费者取消消费接口回调逻辑");
- };
- System.out.println("C3 消费者启动等待消费......");
- channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
- }
- }
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Task01 {
- private static final String QUEUE_NAME = "hello";
-
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- channel.queueDeclare(QUEUE_NAME, false, false, false, null);
- for (int i = 0; i < 10; i++) {
- String message = "I am message " + i;
- channel.basicPublish("", QUEUE_NAME, null, message.getBytes());
- System.out.println("发送消息完成:" + message);
- }
- }
- }
通过程序执行发现生产者总共发送 10 个消息,消费者二和消费者三分别分得 3 个消息,消费者一分得 4 个消息,并且是按照有序的一个接收一次消息。




消费者完成一个任务可能需要一段时间,如果其中一个消费者处理一个长的任务并且只完成了一部分任务,这时它突然挂掉了,会发生什么情况。RabbitMQ 一旦向消费者传递了一条消息,便立即将该消息标记为删除。在这种情况下,突然有个消费者挂掉了,我们就会丢失正在处理的消息。后续发送给该消费者的消息也都会丢失。
为了保证消息在发送过程中不丢失,rabbitmq 引入消息应答机制,消息应答就是:消费者在接收到消息并且处理该消息之后,告诉 rabbitmq 它已经处理了,rabbitmq 可以把该消息删除了。
消息应答分为两种,一种是自动应答,一种是手动应答。
消息发送后立即被认为已经传送成功,这种模式需要在高吞吐量和数据传输安全性方面做权衡,假设采用自动应答的模式,如果消息在被消费者接收到之前,出现了连接关闭或者 channel 关闭的情况,那么消息就丢失了。
假设消费者接收的消息很多,且没有对传递的消息数量进行限制,这样就有可能使得消费者这边由于接收太多还来不及处理的消息,导致这些消息的积压,最终使得内存耗尽,最终这些消费者线程被操作系统杀死,所以这种模式仅适用在消费者可以高效并以某种速率能够处理这些消息的情况下使用。
下面方法里面的第二个参数如果设置为 true 则为自动应答。
- /**
- * 消费者消费消息
- * 1.消费哪个队列
- * 2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答
- * 3.消费者未成功消费的回调
- * 4.消费者取消消费的回调
- */
- channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
手动应答有三种模式,第一种是 Channel.basicAck 肯定确认 ,如下所示,RabbitMQ 已知道该消息并且成功的处理消息,可以将其丢弃了。
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- DeliverCallback deliverCallback=(consumerTag, delivery)->{
- String receivedMessage = new String(delivery.getBody());
- System.out.println("接收到消息:"+receivedMessage);
- /**
- * 1、消息标记 tag
- * 2、false 表示只应答接收到的传递消息;true 表示应答所有传递过来的消息
- * */
- channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);
- };
- CancelCallback cancelCallback=(consumerTag)->{
- System.out.println(consumerTag+"消费者取消消费接口回调逻辑");
- };
- System.out.println("C1 消费者启动等待消费......");
- // 手动应答
- boolean autoAck = false;
- channel.basicConsume(QUEUE_NAME,autoAck,deliverCallback,cancelCallback);
- }
第二种是 Channel.basicNack 否定确认,第三种是 Channel.basicReject 也是用于否定确认,Channel.basicReject 比 Channel.basicNack 少一个参数,表示不处理该消息了直接拒绝,可以将其丢弃了。
如果消费者由于某些原因失去连接(其通道已关闭,连接已关闭或 TCP 连接丢失),导致消息未发送 ACK 确认,RabbitMQ 将了解到消息未完全处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。

消息生产者代码如下:
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- // 记得先创建下这个队列,执行下就可以了
- public class Task01 {
- private static final String QUEUE_NAME = "ack_queue";
-
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();)
- channel.queueDeclare(QUEUE_NAME, false, false, false, null);
- for (int i = 0; i < 2; i++) {
- String message = "I am message " + i;
- channel.basicPublish("", QUEUE_NAME, null, message.getBytes());
- System.out.println("发送消息完成:" + message);
- }
- }
- }
两个消费者的代码如下所示,系统默认消息采用的是自动应答,所以我们要想实现消息消费过程中不丢失,需要把自动应答改为手动应答。
- import com.rabbitmq.client.CancelCallback;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Worker01 {
- private static final String QUEUE_NAME="ack_queue";
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- System.out.println("c1 等待接收消息时间较短");
- DeliverCallback deliverCallback=(consumerTag, delivery)->{
- String receivedMessage = new String(delivery.getBody());
- try {
- Thread.sleep(1000l);
- } catch (InterruptedException e) {
- e.printStackTrace();
- }
- /**
- * 1、消息标记 tag
- * 2、false 表示只应答接收到的传递消息;true 表示应答所有传递过来的消息
- * */
- System.out.println("接收到消息:"+receivedMessage);
- channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);
- };
- CancelCallback cancelCallback=(consumerTag)->{
- System.out.println(consumerTag+"消费者取消消费接口回调逻辑");
- };
- // 手动应答
- boolean autoAck = false;
- channel.basicConsume(QUEUE_NAME,autoAck,deliverCallback,cancelCallback);
- }
- }
- import com.rabbitmq.client.CancelCallback;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Worker02 {
- private static final String QUEUE_NAME = "ack_queue";
-
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- System.out.println("c2 等待接收消息时间较长");
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String receivedMessage = new String(delivery.getBody());
- try {
- Thread.sleep(30000l);
- } catch (InterruptedException e) {
- e.printStackTrace();
- }
- /**
- * 1、消息标记 tag
- * 2、false 表示只应答接收到的传递消息;true 表示应答所有传递过来的消息
- * */
- System.out.println("接收到消息:" + receivedMessage);
- channel.basicAck(delivery.getEnvelope().getDeliveryTag(), false);
- };
- CancelCallback cancelCallback = (consumerTag) -> {
- System.out.println(consumerTag + "消费者取消消费接口回调逻辑");
- };
- // 手动应答
- boolean autoAck = false;
- channel.basicConsume(QUEUE_NAME, autoAck, deliverCallback, cancelCallback);
- }
- }
启动消费者和生产者,消费者 1 由于阻塞时间短,很快的处理完消息,而消费者 2 则会阻塞一会,等到 30s 之后才会开始处理消息,如下所示:




等过了一会之后,消息成功被消费者 2 消费,如下所示:

如果消费者 2 等待的过程中,手动将其关闭的话,会发生什么?可以发现消息被消费者 1 消费了,并没有丢失消息。


上一节我们学习了消息应答可以保证处理的任务不会丢失,但是如何保障当 RabbitMQ 服务停掉以后消息生产者发送过来的消息不丢失呢?默认情况下 RabbitMQ 退出或由于某种原因崩溃时,队列和消息就都丢了。除非配置相关的参数。确保消息不会丢失需要做两件事:我们需要将队列和消息都标记为持久化。
之前我们创建的队列都是非持久化的,rabbitmq 如果重启的话,该队列就会被删除掉,如果要队列实现持久化,需要在声明队列的时候把 durable 参数设置为持久化,如下所示:
- // 设置消息队列持久化
- boolean durable=true;
- channel.queueDeclare(QUEUE_NAME, durable, false, false, null);
但是需要注意的就是如果之前声明的队列不是持久化的,需要把原先队列先删除,或者重新创建一个持久化的队列,不然就会出现错误

删除完毕之后,再次启动生产者,可以看到 D 表示的就是这个队列是持久化的。

此时,即使重启 rabbitmq 队列也依然存在。
将消息标记为持久化并不能完全保证不会丢失消息。尽管它告诉 RabbitMQ 将消息保存到磁盘,但是这里依然存在当消息刚准备存储在磁盘的时候但是还没有存储完,消息还在缓存的一个间隔点。此时并没有真正写入磁盘。持久性保证并不强,但是对于我们的简单任务队列而言,这已经绰绰有余了。如果需要更强有力的持久化策略,后面会详细说明。
要想让消息实现持久化需要在消息生产者修改代码,添加如下这个属性。
- # 第三个参数为 null 表示不持久化
- channel.basicPublish("", QUEUE_NAME, null, message.getBytes());
-
- # 第三个参数设置为 MessageProperties.PERSISTENT_TEXT_PLAIN 表示消息要持久化
- channel.basicPublish("", QUEUE_NAME, MessageProperties.PERSISTENT_TEXT_PLAIN, message.getBytes());
在最开始的时候我们学习到 RabbitMQ 分发消息采用的轮询分发,但是在某种场景下这种策略并不是很好,比方说有两个消费者在处理任务,其中有个消费者 1 处理任务的速度非常快,而另外一个消费者 2 处理速度却很慢,这个时候如果我们还是采用轮询分发的话,就会导致处理速度快的这个消费者很大一部分时间处于空闲状态,而处理慢的那个消费者一直在干活,这种分配方式在这种情况下其实就不太好,但是 RabbitMQ 并不知道这种情况它依然很公平的进行分发。
为了避免这种情况,我们可以使用不公平分发,在消费者代码里面设置参数 channel.basicQos(1) 即可。如下:
- # 默认等于0,表示轮询,如果等于1的话就表示不公平分发
- int prefetchCount = 1;
- channel.basicQos(prefetchCount);
分别启动消费者和生产者,打开 rabbitmq 的管理界面如下:

意思就是如果这个任务我还没有处理完或者我还没有应答你,你先别分配给我,我目前只能处理一个任务,然后 rabbitmq 就会把该任务分配给没有那么忙的那个空闲消费者,当然如果所有的消费者都没有完成手上任务,队列还在不停的添加新任务,队列有可能就会遇到队列被撑满的情况,这个时候就只能添加新的 worker 或者改变其他存储任务的策略。
rabbitmq 本身消息的发送就是异步发送的,所以在任何时候,channel 上肯定不止只有一个消息,另外来自消费者的手动确认本质上也是异步的。因此这里就存在一个未确认的消息缓冲区,因此希望开发人员能限制此缓冲区的大小,以避免缓冲区里面无限制的未确认消息问题。
这个时候就可以通过使用 basic.qos 方法设置 “预取计数” 值来完成的。该值定义通道上允许的未确认消息的最大数量。一旦数量达到配置的数量,RabbitMQ 将停止在通道上传递更多消息,除非至少有一个未处理的消息被确认,类似于 channel 的最大容量。
例如,假设在通道上有未确认的消息 5、6、7,8,并且通道的预取计数设置为 4,此时 RabbitMQ 将不会在该通道上再传递任何消息,除非至少有一个未应答的消息被 ack。比方说 tag=6 这个消息刚刚被确认 ACK,RabbitMQ 将会感知这个情况到并再发送一条消息。消息应答和 QoS 预取值对用户吞吐量有重大影响。
通常,增加预取值将提高向消费者传递消息的速度。虽然自动应答传输消息速率是最佳的,但是,在这种情况下已传递但尚未处理的消息的数量也会增加,从而增加了消费者的 RAM 消耗(随机存取存储器),应该小心使用具有无限预处理的自动确认模式或手动确认模式,消费者消费了大量的消息如果没有确认的话,会导致消费者连接节点的内存消耗变大,所以找到合适的预取值是一个反复试验的过程。
不同的负载预取值也不同, 100 到 300 范围内的值通常可提供最佳的吞吐量,并且不会给消费者带来太大的风险。预取值为 1 是最保守的。当然这将使吞吐量变得很低,特别是消费者连接延迟很严重的情况下,特别是在消费者连接等待时间较长的环境中。对于大多数应用来说,稍微高一点的值将是最佳的。

说白了就是根据你的消费者的性能优劣,动态的去设置 channel ,性能好的,处理速度快的设置大些,性能不好的设置小些,通过 channel.basicQos 参数进行设置,默认等于 0 表示轮询,等于 1 表示不公平分发,设置成其他值则表示预约值,即消息缓冲区的大小。
我们在前面的几个章节说过,为了防止数据丢失,我们可以将队列和消息都进行持久化的操作。但是,这还是不够好的,如果生产者再向 rabbitmq 发送消息,而 rabbitmq 还没来得及存储到磁盘的时候崩了,消息就丢失了,这个时候该怎么办?此时就引入了发布确认的概念,即生产者向 rabbitmq 发送消息,而 rabbitmq 给生产者个反馈,无论是否可以成功的接收到消息,都给一个反馈,这样就比较合理了。
发布确认默认是没有开启的,如果要开启需要调用方法 confirmSelect,每当你要想使用发布确认,都需要在 channel 上调用该方法。
- // 只需要在创建完 channel 信道之后创建即可
- channel.confirmSelect();
这是一种最简单的同步确认发布的方式,只有前面发送的消息被确认发布了,后续的消息才能继续发布。
这种确认方式有一个最大的缺点就是:发布速度特别的慢,因为如果没有确认发布的消息就会阻塞所有后续消息的发布,这种方式最多提供每秒不超过数百条发布消息的吞吐量。当然对于某些应用程序来说这可能已经足够了。
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- import java.util.UUID;
-
- public class Task01 {
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个队列
- String queueName = UUID.randomUUID().toString();
- channel.queueDeclare(queueName,false,false,false,null);
- // 开启发布确认
- channel.confirmSelect();
- long begin = System.currentTimeMillis();
- for(int i=0;i<1000;i++){
- String message = i +"";
- channel.basicPublish("",queueName,null,message.getBytes());
- // 单个消息马上进行发布确认,可以通过返回值进行判断是否通知成功
- boolean flag = channel.waitForConfirms();
- }
- long end = System.currentTimeMillis();
- System.out.println("发布1000个单独确认消息,耗时:"+(end-begin)+"ms");
- }
- }

上面那种方式非常慢,与单个等待确认消息相比,先发布一批消息然后一起确认可以极大地提高吞吐量,当然这种方式的缺点就是:当发生故障导致发布出现问题时,不知道是哪个消息出现问题了,我们必须将整个批处理保存在内存中,以记录重要的信息而后重新发布消息。当然这种方案仍然是同步的,也一样阻塞消息的发布。
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- import java.util.UUID;
-
- public class Task02 {
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个队列
- String queueName = UUID.randomUUID().toString();
- channel.queueDeclare(queueName, false, false, false, null);
- // 开启发布确认
- channel.confirmSelect();
- // 批量确认消息大小
- int batchSize = 100;
- // 未确认消息个数
- int outstandingMessageCount = 0;
- long begin = System.currentTimeMillis();
- for (int i = 0; i < 1000; i++) {
- String message = i + "";
- channel.basicPublish("", queueName, null, message.getBytes());
- outstandingMessageCount++;
- if (outstandingMessageCount == batchSize) {
- channel.waitForConfirms();
- outstandingMessageCount = 0;
- }
- }
- long end = System.currentTimeMillis();
- System.out.println("发布1000个批量确认消息,耗时:" + (end - begin) + "ms");
- }
- }

异步确认虽然编程逻辑比上两个要复杂,但是性价比最高,无论是可靠性还是效率都没得说,他是利用回调函数来达到消息可靠性传递的,这个中间件也是通过函数回调来保证是否投递成功,下面就让我们来详细讲解异步确认是怎么实现的。
如下图,首先消息生产者发送消息到队列中(信道),数据在信道中的存储类型类似于 map ,key 存储消息序号,value 存储具体的消息内容。在信道里面会根据 key 为消息排列顺序,这样的好处是消息推送的成功与否完全可以根据 key 来识别出来。
broker 为 rabbitmq 的消息实体,当它接收到 1 号消息的时候,它就会进行一次确认收到的回调函数,告诉消息生产者消息我收到了,如果没有收到 1 号消息,它就会调用未收到消息的回调函数通知生产者,消息我没有收到。
所以作为消息生产者,我只管一直发送消息即可,将来会由 broker 告诉我哪些消息接收到了,哪些消息没有接收到。只需要将没接收到的消息重新发送即可。收到的不做任何处理。且 broker 的通知类型为异步,速度会很快。

- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.ConfirmCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- import java.util.UUID;
-
- public class Task03 {
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个队列
- String queueName = UUID.randomUUID().toString();
- channel.queueDeclare(queueName, false, false, false, null);
- // 开启发布确认
- channel.confirmSelect();
- // 开始的时间
- long begin = System.currentTimeMillis();
-
- // 消息确认成功的回调函数
- ConfirmCallback ackCallback = (deliveryTag,multiple)->{
- System.out.println("确认的消息:"+deliveryTag);
- };
- // 消息确认失败的回调函数
- // 第一个参数:消息的标记。第二个参数:是否为批量确认
- ConfirmCallback nackCallback = (deliveryTag,multiple)->{
- System.out.println("未确认的消息:"+deliveryTag);
- };
- // 添加一个消息的监听器,用于监听哪些消息成功了,哪些消息失败了
- // 异步通知
- // 第一个参数:监听哪些消息成功了。第二个参数:监听哪些消息失败了
- channel.addConfirmListener(ackCallback,nackCallback);
- // 批量发送消息
- for(int i=0;i<1000;i++){
- String message = i+"";
- channel.basicPublish("",queueName,null,message.getBytes());
- }
- // 结束的时间
- long end = System.currentTimeMillis();
- System.out.println("发布1000个异步确认消息,耗时:" + (end - begin) + "ms");
- }
- }

最好的解决的解决方案就是把未确认的消息放到一个基于内存且能被发布线程访问的队列,比如说用 ConcurrentLinkedQueue, 这个队列可以在 confirm callbacks 与发布线程之间进行消息的传递。
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.ConfirmCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- import java.util.UUID;
- import java.util.concurrent.ConcurrentNavigableMap;
- import java.util.concurrent.ConcurrentSkipListMap;
-
- public class Task03 {
- public static void main(String[] args) throws Exception {
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个队列
- String queueName = UUID.randomUUID().toString();
- channel.queueDeclare(queueName, false, false, false, null);
- // 开启发布确认
- channel.confirmSelect();
- /** 创建一个线程安全有序的哈希表,适用于高并发的情况
- * 1、将序号与消息进行关联
- * 2、可以根据需要批量的删除消息条目
- * 3、支持高并发
- */
- ConcurrentSkipListMap
outstandingConfirms =new ConcurrentSkipListMap<>(); - // 开始的时间
- long begin = System.currentTimeMillis();
-
- // 消息确认成功的回调函数
- ConfirmCallback ackCallback = (deliveryTag,multiple)->{
- if(multiple){
- // 第二步:删除掉已经确认的消息,剩下的就是未确认的消息
- ConcurrentNavigableMap
confirmed = outstandingConfirms.headMap(deliveryTag); - confirmed.clear();
- }else{
- outstandingConfirms.remove(deliveryTag);
- }
- System.out.println("确认的消息:"+deliveryTag);
- };
- // 消息确认失败的回调函数
- // 第一个参数:消息的标记。第二个参数:是否为批量确认
- ConfirmCallback nackCallback = (deliveryTag,multiple)->{
- // 第三步:打印未确认的消息有哪些
- String message = outstandingConfirms.get(deliveryTag);
- System.out.println("未确认的消息是:"+message+":::未确认消息的标记为:"+deliveryTag);
- };
- // 添加一个消息的监听器,用于监听哪些消息成功了,哪些消息失败了
- // 异步通知
- // 第一个参数:监听哪些消息成功了。第二个参数:监听哪些消息失败了
- channel.addConfirmListener(ackCallback,nackCallback);
- // 批量发送消息
- for(int i=0;i<1000;i++){
- String message = i+"";
- // 第一步:记录下所有要发送的消息
- outstandingConfirms.put(channel.getNextPublishSeqNo(), message);
- channel.basicPublish("",queueName,null,message.getBytes());
- }
- // 结束的时间
- long end = System.currentTimeMillis();
- System.out.println("发布1000个异步确认消息,耗时:" + (end - begin) + "ms");
- }
- }

单独发布消息:同步等待确认,简单,但吞吐量非常有限。
批量发布消息:批量同步等待确认,简单,合理的吞吐量,一旦出现问题但很难推断出是那条消息出现了问题。
异步发布处理:最佳性能和资源使用,在出现错误的情况下可以很好地控制,但是实现起来稍微难些。
我们在前面讲解了 Hello World 模式 和 Work Queues 模式,这两种都属于简单的队列模式,即生产者将消息直接推送到 rabbitmq 的队列里面,消费者直接从队列里面竞争消费。
我们接下来要讲解的模式为”发布/订阅“,即生产者生产完消息,只有它的订阅者才可以获取消息,想要使用这种模式就需要先认识一下交换机。
RabbitMQ 消息传递模型的核心思想是:生产者生产的消息不会直接发送到队列。而实际上生产者甚至都不知道这些消息传递传递到了哪些队列中。
相反,生产者只能将消息发送到交换机(exchange),交换机工作的内容非常简单,一方面接收来自生产者的消息,另一方面将它们推入队列。交换机必须清楚的知道如何处理收到的消息。是应该把这些消息放到特定队列、还是说把他们放到许多队列中、还是说应该丢弃它们。这就需要由交换机的类型来决定。

总共包含以下几种类型:直连交换机(direct)、主题交换机(topic)、头交换机(headers)、扇出交换机(fanout)。
在学习本章节之前我们对 exchange 一无所知,但仍然能够将消息发送到队列。之前能实现的原因是因为我们使用的是默认交换机,是通过空字符串 (“”) 进行标识。
- # 第一个参数是交换机的名称。空字符串表示默认或无名称交换机
- channel.basicPublish("",queueName,null,message.getBytes());
这个 AMQP default 就是默认的交换机,他的类型是直连交换机。

我们在前两章的学习中创建了 hello 队列和 ack_queue 队列,这些都是指定名称的队列,队列的名称很重要,因为我们需要根据队列的名称来指定消费者去哪里消费。
在实际的生产环境中,我们一般都会创建一个随机名称的临时队列,它的特点是:当消费者断开连接之后,该队列会被自动删除,创建临时队列的代码如下:
String queueName = channel.queueDeclare().getQueue();
创建之后的样子如下:

binding 是 exchange 和 queue 之间的桥梁,它告诉 exchange 和哪个队列进行了绑定。比如说下面这张图告诉我们的就是 X 与 Q1 和 Q2 进行了绑定。

路由广播的形式,这个交换机没有路由键概念,就算你绑了路由键也是无视的。 这个交换机在接收到消息后,会直接转发到绑定到它上面的所有队列。
路由键就是 RoutingKey,即扇出交换机不需要配置 RoutingKey,只需要将交换机和队列绑定即可。
我们根据下图来编写代码实现下:EmitLog 作为生产者,将消息发送到名字为 logs 的 fanout 交换机上,而交换机绑定了两个队列,队列里面的消息又分别被 ReceiveLogs01 和 ReceiveLogs02 接收。

编写两个消费者的代码,如下所示:
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class ReceiveLogs01 {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME="logs";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个交换机,类型为 fanout
- channel.exchangeDeclare(EXCHANGE_NAME,"fanout");
- // 声明一个临时队列,队列名称随机,好处是当消费者与队列断开连接的时候,队列就自动删除了
- String queueName = channel.queueDeclare().getQueue();
- // 交换机和队列进行绑定,第三个参数 routingKey,有没有值都是被无视的
- channel.queueBind(queueName,EXCHANGE_NAME,"");
- System.out.println("消费者1等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("控制台打印接收到的消息"+message);
- };
- channel.basicConsume(queueName,true,deliverCallback,consumerTag ->{});
- }
- }
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class ReceiveLogs02 {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME="logs";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个交换机,类型为 fanout
- channel.exchangeDeclare(EXCHANGE_NAME,"fanout");
- // 声明一个临时队列,队列名称随机,好处是当消费者与队列断开连接的时候,队列就自动删除了
- String queueName = channel.queueDeclare().getQueue();
- // 交换机和队列进行绑定,第三个参数 routingKey,有没有值都是被无视的
- channel.queueBind(queueName,EXCHANGE_NAME,"");
- System.out.println("消费者2等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("控制台打印接收到的消息"+message);
- };
- channel.basicConsume(queueName,true,deliverCallback,consumerTag ->{});
- }
- }
编写生产者的代码,如下所示,作为生产者,只需要知道将消息发送给哪个交换机即可。
- // 负责发送消息给交换机
- public class EmitLog {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME="logs";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- for(int i=0;i<10;i++) {
- String message = i + "";
- channel.basicPublish(EXCHANGE_NAME,"",null, message.getBytes());
- System.out.println("生产者发送的消息为:"+message);
- }
- }
- }
分别启动两个消费者和生产者,结果如下所示,可以发现两个消费者都分别获取到了生产者生产的消息。



RabbitMQ 默认的交换机模式,也是最简单的模式。初始化时队列绑定到一个直连交换机上,同时赋予一个路由键 BindingKey。当发送者发送消息的时候它会携带着路由值 Key。当 Key 和消息队列的 BindingKey 一致的时候,消息将会被发送到该消息队列中。
在下面这张图中,我们可以看到 X 交换机绑定了两个队列,绑定类型是 direct。队列 Q1 绑定键为 orange,队列 Q2 绑定键有两个:一个绑定键为 black,另一个绑定键为 green。
在这种绑定情况下,生产者发布消息到 exchange 上,绑定键为 orange 的消息会被发布到队列 Q1。绑定键为 black 和 green 的消息会被发布到队列 Q2,其他消息类型的消息将被丢弃。

我们根据下图来编写代码实现下:P 作为生产者,将消息发送到名字为 X 的 direct 交换机上,交换机 X 根据 RoutingKey 为 error 绑定 disk 队列、交换机 X 根据 RoutingKey 为 info 和 warning 绑定 console 队列, disk 队列里面的消息被 C2 接收,console 队列里面的消息被 C1 接收。

编写两个消费者的代码,如下所示:
- import com.rabbitmq.client.BuiltinExchangeType;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class ReceiveLogs01 {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME="direct_logs";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个交换机,类型为直连
- channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);
- // 声明一个名字为 console 的队列
- channel.queueDeclare("console",false,false,false,null);
- // 交换机和队列进行绑定,routingKey 为 info
- channel.queueBind("console",EXCHANGE_NAME,"info");
- // 针对同一个队列,再写一行即可实现多重绑定,routingKey 为 warning
- channel.queueBind("console",EXCHANGE_NAME,"warning");
-
- System.out.println("消费者1等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("控制台打印接收到的消息"+message);
- };
- channel.basicConsume("console",true,deliverCallback,consumerTag ->{});
- }
- }
- import com.rabbitmq.client.BuiltinExchangeType;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class ReceiveLogs02 {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME="direct_logs";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个交换机,类型为直连
- channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);
- // 声明一个名字为 disk 的队列
- channel.queueDeclare("disk",false,false,false,null);
- // 交换机和队列进行绑定,routingKey 为 error
- channel.queueBind("disk",EXCHANGE_NAME,"error");
-
- System.out.println("消费者2等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("控制台打印接收到的消息"+message);
- };
- channel.basicConsume("disk",true,deliverCallback,consumerTag ->{});
- }
- }
编写生产者的代码,如下所示,作为生产者,只需要知道将消息发送给哪个交换机即可。
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- // 负责发送消息给交换机
- public class DirectLogs {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME="direct_logs";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- for(int i=0;i<10;i++) {
- String message = i + "";
- // 程序需要运行三遍,将数据分别发送给不同的 Routing Key 的交换机
- channel.basicPublish(EXCHANGE_NAME,"error",null, message.getBytes());
- // channel.basicPublish(EXCHANGE_NAME,"info",null, message.getBytes());
- // channel.basicPublish(EXCHANGE_NAME,"warning",null, message.getBytes());
- System.out.println("生产者发送的消息为:"+message);
- }
- }
- }
分别启动两个消费者和生产者,结果如下所示,可以发现两个消费者都分别获取到了生产者生产的消息。



主题交换机,转发信息主要是依据通配符,队列和交换机的绑定主要是依据一种模式(通配符 + 字符串),而当发送消息的时候,只有指定的 Key 和该模式相匹配的时候,消息才会被发送到该消息队列中。
topic 交换机的 routing_key 不能随意写,它必须是一个单词列表,以点号分隔开。这些单词可以是任意单词,比如说:"stock.usd.nyse","nyse.vmw", "quick.orange.rabbit" 这种类型的。当然这个单词列表最多不能超过 255 个字节。
* 可以代替一个单词。
# 可以代替零个或多个单词。
下图是一个队列绑定关系图,我们可以发现 Q1 队列绑定的是:一共有 3 个单词且中间是 orange 的字符串。Q2 队列绑定的是:最后一个单词是 rabbit 的 3 个单词和第一个单词是 lazy 的多个单词。

我们分别测试底下这些 routing_key 和我们预想的结果是否一致。
| Routing key | 绑定关系 |
| quick.orange.rabbit | 被队列 Q1 和 Q2 接收到 |
| lazy.orange.elephant | 被队列 Q1 和 Q2 接收到 |
| quick.orange.fox | 被队列 Q1 接收到 |
| lazy.brown.fox | 被队列 Q2 接收到 |
| lazy.pink.rabbit | 虽然满足两个绑定但只被队列 Q2 接收一次 |
| quick.brown.fox | 不匹配任何绑定会被丢弃 |
| quick.orange.male.rabbit | 不匹配任何绑定会被丢弃 |
| lazy.orange.male.rabbit | 被队列 Q2 接收到 |
两个消费者的代码如下所示:
- import com.rabbitmq.client.BuiltinExchangeType;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class ReceiveLogsTopic01 {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME="topic_logs";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个交换机,类型为直连
- channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.TOPIC);
- // 声明一个名字为 Q1 的队列
- String queueName = "Q1";
- channel.queueDeclare(queueName,false,false,false,null);
- // 交换机和队列进行绑定,routingKey 为 *.orange.*
- channel.queueBind(queueName,EXCHANGE_NAME,"*.orange.*");
-
- System.out.println("消费者1等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("接收队列:"+queueName+"绑定的键值为:"+delivery.getEnvelope().getRoutingKey()+"::消息为:"+message);
- };
- channel.basicConsume(queueName,true,deliverCallback,consumerTag ->{});
- }
- }
- import com.rabbitmq.client.BuiltinExchangeType;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class ReceiveLogsTopic02 {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME="topic_logs";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个交换机,类型为直连
- channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.TOPIC);
- // 声明一个名字为 Q2 的队列
- String queueName = "Q2";
- channel.queueDeclare(queueName,false,false,false,null);
- // 交换机和队列进行绑定,routingKey 为 *.orange.*
- channel.queueBind(queueName,EXCHANGE_NAME,"*.*.rabbit");
- // 针对同一个队列,再写一行即可实现多重绑定,routingKey 为 lazy.#
- channel.queueBind(queueName,EXCHANGE_NAME,"lazy.#");
-
- System.out.println("消费者2等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("接收队列:"+queueName+"绑定的键值为:"+delivery.getEnvelope().getRoutingKey()+"::消息为:"+message);
- };
- channel.basicConsume(queueName,true,deliverCallback,consumerTag ->{});
- }
- }
编写生产者的代码,如下所示,作为生产者,只需要知道将消息发送给哪个交换机即可。
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- import java.util.HashMap;
- import java.util.Map;
-
- // 负责发送消息给交换机
- public class TopicLogs {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME = "topic_logs";
- public static void main(String[] args) throws Exception {
- Map
map = new HashMap<>(); - map.put("quick.orange.rabbit", "被队列 Q1 和 Q2 接收到");
- map.put("lazy.orange.elephant", "被队列 Q1 和 Q2 接收到");
- map.put("quick.orange.fox", "被队列 Q1 接收到");
- map.put("lazy.brown.fox", "被队列 Q2 接收到");
- map.put("lazy.pink.rabbit", "虽然满足两个绑定但只被队列 Q2 接收一次");
- map.put("quick.brown.fox", "不匹配任何绑定会被丢弃");
- map.put("quick.orange.male.rabbit", "不匹配任何绑定会被丢弃");
- map.put("lazy.orange.male.rabbit", "被队列 Q2 接收到");
- Channel channel = RabbitMqUtils.getChannel();
- for(Map.Entry
entry:map.entrySet()){ - String bindingKey = entry.getKey();
- String message = entry.getValue();
- channel.basicPublish(EXCHANGE_NAME, bindingKey, null, message.getBytes());
- System.out.println("生产者发出消息:"+message);
- }
- }
- }
结果如下所示,是可以和表格里面的数据对上的。



死信,顾名思义就是无法被消费的消息。一般来说,producer 将消息投递到 broker 或者直接到 queue 里了,consumer 从 queue 取出消息进行消费,但某些时候由于特定的原因导致 queue 中的某些消息无法被消费,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。
应用场景:比如为了保证订单业务的消息数据不丢失,需要使用到 RabbitMQ 的死信队列机制,当消息消费发生异常时,将消息投入死信队列中。还比如说: 用户在商城下单成功并点击去支付后在指定时间未支付时自动失效。
来源一:消息 TTL 过期(time to live)
来源二:队列达到最大长度(队列满了,无法再添加数据到 mq 中)
来源三:消息被拒绝(basic.reject 或 basic.nack)并且 requeue=false
如下图所示,Producer 生产者发送消息到类型为 direct 的 normal_exchange 交换机上,而交换机又通过 routingKey 为 zhangsan 和 normal-queue 队列进行绑定,消息最终被消费者 C1 消费。
当 normal-queue 队列满足 消息被拒绝、消息 TTL 过期或者队列达到最大长度的这三个条件之一时,会将消息转发到一个类型为 direct 的 dead_exchange 交换机上,而 dead_exchange 又通过 routingKey 为 lisi 和 dead-queue 队列进行绑定,最终消息被 C2 消费者消费。

根据上面的架构图,我们看下满足 消息TTL 过期 条件触发的死信队列该如何实现。消费者 Consumer01和消费者 Consumer02 代码如下所示:
- import com.rabbitmq.client.BuiltinExchangeType;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- import java.util.HashMap;
- import java.util.Map;
-
- public class Consumer01 {
-
- // 设置普通交换机的名字
- public static final String NORMAL_EXCHANGE="normal_exchange";
- // 设置死信交换机的名字
- public static final String DEAD_EXCHANGE="dead_exchange";
- // 设置普通队列的名字
- public static final String NORMAL_QUEUE="normal_queue";
- // 设置死信队列的名字
- public static final String DEAD_QUEUE="dead_queue";
-
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个普通交换机,类型为直连
- channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
- // 声明一个死信普通交换机,类型为直连
- channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
-
- Map
arguments = new HashMap<>(); - // 正常队列设置死信交换机
- arguments.put("x-dead-letter-exchange",DEAD_EXCHANGE);
- // 设置死信 RoutingKey
- arguments.put("x-dead-letter-routing-key","lisi");
- // 设置过期时间,单位为 ms,一般情况下不在这个地方配置,都在生产者代码里配置
- // arguments.put("x-message-ttl",10000);
- // 声明一个普通队列
- channel.queueDeclare(NORMAL_QUEUE,false,false,false,arguments);
- // 声明一个死信队列
- channel.queueDeclare(DEAD_QUEUE,false,false,false,null);
-
- // 绑定普通交换机和普通队列
- channel.queueBind(NORMAL_QUEUE,NORMAL_EXCHANGE,"zhangsan");
- // 绑定死信交换机和死信队列
- channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi");
-
- System.out.println("消费者1等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("Consumer01 接收的消息是:"+message);
- };
- channel.basicConsume(NORMAL_QUEUE,true,deliverCallback,consumerTag ->{});
- }
- }
- import com.rabbitmq.client.BuiltinExchangeType;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Consumer02 {
-
- // 设置死信交换机的名字
- public static final String DEAD_EXCHANGE="dead_exchange";
- // 设置死信队列的名字
- public static final String DEAD_QUEUE="dead_queue";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个死信普通交换机,类型为直连
- channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
- // 声明一个死信队列
- channel.queueDeclare(DEAD_QUEUE,false,false,false,null);
- // 绑定死信交换机和死信队列
- channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi");
- System.out.println("消费者2等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("Consumer02 接收的消息是:"+message);
- };
- channel.basicConsume(DEAD_QUEUE,true,deliverCallback,consumerTag ->{});
- }
- }
生产者的代码如下所示:
- import com.rabbitmq.client.AMQP;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Producer {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME = "normal_exchange";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 死信消息,设置 TTL 时间,单位为 ms
- AMQP.BasicProperties properties =
- new AMQP.BasicProperties()
- .builder().expiration("10000").build();
-
- for(int i=1;i<11;i++) {
- String message = "info"+i;
- channel.basicPublish(EXCHANGE_NAME,"zhangsan",properties, message.getBytes());
- System.out.println("生产者发送的消息为:"+message);
- }
- }
- }
首先启动消费者 Consumer01 用于创建交换机和队列,可以通过 rabbitmq 的管理界面查看是否创建成功,如下所示:

查看下死信队列和普通队列的绑定关系,如下图所示:


此时为了模拟消息 TTL 过期的场景,需要先关闭消费者 Consumer01,执行生产者 Producer 的代码。

执行完生产者之后,可以看到数据都存储在 normal_queue 队列里面等待消费者的消费。

等待 10s 之后,再次查看 rabbitmq 的管理界面,可以发现消息被存放到了死信队列里面,如下图。

此时执行消费者 Consumer02 ,如下图,可以看到,消息都被死信队列进行接收处理了。

首先,先在 rabbitmq 的管理界面删除掉我们上一节创建的两个交换机和队列,它的存在会对我们接下来的测试有影响。
需要先将消费者 Producer 代码去掉 TTL 属性,如下所示:
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Producer {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME = "normal_exchange";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- for(int i=1;i<11;i++) {
- String message = "info"+i;
- channel.basicPublish(EXCHANGE_NAME,"zhangsan",null, message.getBytes());
- System.out.println("生产者发送的消息为:"+message);
- }
- }
- }
修改 Customer01 的代码如下所示,仅仅添加了一个队列长度的限制。而 Customer02 的代码不需要改动。
- import com.rabbitmq.client.BuiltinExchangeType;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- import java.util.HashMap;
- import java.util.Map;
-
- public class Consumer01 {
-
- // 设置普通交换机的名字
- public static final String NORMAL_EXCHANGE="normal_exchange";
- // 设置死信交换机的名字
- public static final String DEAD_EXCHANGE="dead_exchange";
- // 设置普通队列的名字
- public static final String NORMAL_QUEUE="normal_queue";
- // 设置死信队列的名字
- public static final String DEAD_QUEUE="dead_queue";
-
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个普通交换机,类型为直连
- channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
- // 声明一个死信普通交换机,类型为直连
- channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
-
- Map
arguments = new HashMap<>(); - // 正常队列设置死信交换机
- arguments.put("x-dead-letter-exchange",DEAD_EXCHANGE);
- // 设置死信 RoutingKey
- arguments.put("x-dead-letter-routing-key","lisi");
- // 设置正常队列的长度限制
- arguments.put("x-max-length",6);
- // 声明一个普通队列
- channel.queueDeclare(NORMAL_QUEUE,false,false,false,arguments);
- // 声明一个死信队列
- channel.queueDeclare(DEAD_QUEUE,false,false,false,null);
-
- // 绑定普通交换机和普通队列
- channel.queueBind(NORMAL_QUEUE,NORMAL_EXCHANGE,"zhangsan");
- // 绑定死信交换机和死信队列
- channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi");
-
- System.out.println("消费者1等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("Consumer01 接收的消息是:"+message);
- };
- channel.basicConsume(NORMAL_QUEUE,true,deliverCallback,consumerTag ->{});
- }
- }
- import com.rabbitmq.client.BuiltinExchangeType;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Consumer02 {
-
- // 设置死信交换机的名字
- public static final String DEAD_EXCHANGE="dead_exchange";
- // 设置死信队列的名字
- public static final String DEAD_QUEUE="dead_queue";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个死信普通交换机,类型为直连
- channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
- // 声明一个死信队列
- channel.queueDeclare(DEAD_QUEUE,false,false,false,null);
- // 绑定死信交换机和死信队列
- channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi");
- System.out.println("消费者2等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("Consumer02 接收的消息是:"+message);
- };
- channel.basicConsume(DEAD_QUEUE,true,deliverCallback,consumerTag ->{});
- }
- }
还是老样子,先启动 Customer01,然后关掉 Customer01 ,启动生产者 Producer,如下可以看到,一共发送了 10 条消息,其中 6 条消息在 normal_queue 里面,剩下的 4 条消息在 dead_queue 里面。

再次启动 Customer01 和 Customer02 ,他们分别消费了自己队列里面的消息,如下,队列的特点是先进先出,所以将前面存储的消息挤进了死信队列。


首先,先在 rabbitmq 的管理界面删除掉我们上一节创建的两个交换机和队列,它的存在会对我们接下来的测试有影响。
消息的生产者 Producer 和消费者 Customer02 的代码不变,如下所示:
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Producer {
- // 设置交换机的名字
- public static final String EXCHANGE_NAME = "normal_exchange";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- for(int i=1;i<11;i++) {
- String message = "info"+i;
- channel.basicPublish(EXCHANGE_NAME,"zhangsan",null, message.getBytes());
- System.out.println("生产者发送的消息为:"+message);
- }
- }
- }
- import com.rabbitmq.client.BuiltinExchangeType;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- public class Consumer02 {
-
- // 设置死信交换机的名字
- public static final String DEAD_EXCHANGE="dead_exchange";
- // 设置死信队列的名字
- public static final String DEAD_QUEUE="dead_queue";
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个死信普通交换机,类型为直连
- channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
- // 声明一个死信队列
- channel.queueDeclare(DEAD_QUEUE,false,false,false,null);
- // 绑定死信交换机和死信队列
- channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi");
- System.out.println("消费者2等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- System.out.println("Consumer02 接收的消息是:"+message);
- };
- channel.basicConsume(DEAD_QUEUE,true,deliverCallback,consumerTag ->{});
- }
- }
修改生产者 Customer01 的代码如下所示,修改为手动应答,并拒绝指定的消息。
- import com.rabbitmq.client.BuiltinExchangeType;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.DeliverCallback;
- import com.rabbitmq.utils.RabbitMqUtils;
-
- import java.util.HashMap;
- import java.util.Map;
-
- public class Consumer01 {
-
- // 设置普通交换机的名字
- public static final String NORMAL_EXCHANGE="normal_exchange";
- // 设置死信交换机的名字
- public static final String DEAD_EXCHANGE="dead_exchange";
- // 设置普通队列的名字
- public static final String NORMAL_QUEUE="normal_queue";
- // 设置死信队列的名字
- public static final String DEAD_QUEUE="dead_queue";
-
- public static void main(String[] args) throws Exception{
- Channel channel = RabbitMqUtils.getChannel();
- // 声明一个普通交换机,类型为直连
- channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
- // 声明一个死信普通交换机,类型为直连
- channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
-
- Map
arguments = new HashMap<>(); - // 正常队列设置死信交换机
- arguments.put("x-dead-letter-exchange",DEAD_EXCHANGE);
- // 设置死信 RoutingKey
- arguments.put("x-dead-letter-routing-key","lisi");
- // 声明一个普通队列
- channel.queueDeclare(NORMAL_QUEUE,false,false,false,arguments);
- // 声明一个死信队列
- channel.queueDeclare(DEAD_QUEUE,false,false,false,null);
-
- // 绑定普通交换机和普通队列
- channel.queueBind(NORMAL_QUEUE,NORMAL_EXCHANGE,"zhangsan");
- // 绑定死信交换机和死信队列
- channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi");
-
- System.out.println("消费者1等待接收消息.....");
- // 接收消息时的回调函数
- DeliverCallback deliverCallback = (consumerTag, delivery) -> {
- String message = new String(delivery.getBody(), "UTF-8");
- if(message.equals("info5")){
- System.out.println("Consumer01 接收到消息" + message + "并拒绝签收该消息");
- // 第二个参数 request 设置为 false,表示拒绝重新入队,该队列如果设置了死信交换机则将发送到死信队列中
- channel.basicReject(delivery.getEnvelope().getDeliveryTag(),false);
- }else{
- System.out.println("Consumer01 接收到消息"+message);
- channel.basicAck(delivery.getEnvelope().getDeliveryTag(), false);
- }
- };
- boolean autoAck = false;
- channel.basicConsume(NORMAL_QUEUE,autoAck,deliverCallback,consumerTag ->{});
- }
- }
首先启动消费者 Customer01,然后关闭 Customer01,启动生产者 Producer,最后分别启动生产者 Customer01 和 Customer02,如下所示:


延时队列其实就是死信队列当中的 “消息TTL 过期” 这一种,这个可能不是太好理解,我们还是分析下我们前面讲过的那张架构图,如下。

生产者发送消息给 normal_exchange 交换机,而交换机把数据放到 normal-queue 里面,如果消费者 C1 始终无法工作的话,一旦消息过期,就肯定会成为死信,最终被 C2 消费。
这里面就存在一个问题,生产者生产消息到被 C2 消费一共经历了多长时间?我们当初配置的是 10s ,即生产者生产完消息 10s 之后才被转发到消费者 C2 这里进行消费。
站在生产者和 C2 的角度上来看,它们两个经历的时间就是 10s,其实这个 10s 就是一个延迟。假设 C1 永久消失,那么对于生产者和 C2 来说,他们之间的消息就是延迟消息,延迟为 10s。下图就是没有 C1 消费者了,只有 C2 消费者。

延迟队列,队列内部是有序的,最重要的特点是体现在它的延迟属性上,延时队列中的元素是希望在指定时间到了以后或之前取出和处理,简单的说,延迟队列就是用来存放需要在指定时间处理元素的队列。
1、订单在十分钟之内未支付则自动取消
2、新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。
3、用户注册成功后,如果三天内没有登陆则进行短信提醒。
4、用户发起退款,如果三天内没有得到处理则通知相关运营人员。
5、预定会议后,需要在预定的时间点前十分钟通知各个与会人员参加会议
以上的这些场景都有一个特点,需要在某个事件发生之后或者之前的指定时间点完成某一项任务,如:发生订单生成事件,在十分钟之后检查该订单支付状态,然后将未支付的订单进行关闭;看起来似乎使用定时任务,一直轮询数据,每秒查一次,取出需要被处理的数据,然后处理不就完事了吗?如果数据量比较少,确实可以这样做,比如:对于“如果账单一周内未支付则进行自动结算”这样的需求,如果对于时间不是严格限制,而是宽松意义上的一周,那么每天晚上跑个定时任务检查一下所有未支付的账单,确实也是一个可行的方案。
但对于数据量比较大,并且时效性较强的场景,如:“订单十分钟内未支付则关闭“,短期内未支付的订单数据可能会有很多,活动期间甚至会达到百万甚至千万级别,对这么庞大的数据量仍旧使用轮询的方式显然是不可取的,很可能在一秒内无法完成所有订单的检查,同时会给数据库带来很大压力,无法满足业务要求而且性能低下。所以延迟队列就是我们目前最好的选择。




- "1.0" encoding="UTF-8"?>
- <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
- xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
- <modelVersion>4.0.0modelVersion>
- <parent>
- <groupId>org.springframework.bootgroupId>
- <artifactId>spring-boot-starter-parentartifactId>
- <version>2.3.11.RELEASEversion>
- <relativePath/>
- parent>
- <groupId>comgroupId>
- <artifactId>springboot-rabbitmqartifactId>
- <version>0.0.1-SNAPSHOTversion>
- <name>springboot-rabbitmqname>
- <description>Demo project for Spring Bootdescription>
- <properties>
- <java.version>1.8java.version>
- properties>
- <dependencies>
- <dependency>
- <groupId>org.springframework.bootgroupId>
- <artifactId>spring-boot-starterartifactId>
- dependency>
-
- <dependency>
- <groupId>org.springframework.bootgroupId>
- <artifactId>spring-boot-starter-testartifactId>
- <scope>testscope>
- dependency>
-
- <dependency>
- <groupId>org.springframework.bootgroupId>
- <artifactId>spring-boot-starter-amqpartifactId>
- dependency>
- <dependency>
- <groupId>org.springframework.bootgroupId>
- <artifactId>spring-boot-starter-webartifactId>
- dependency>
- <dependency>
- <groupId>org.springframework.bootgroupId>
- <artifactId>spring-boot-starter-testartifactId>
- <scope>testscope>
- dependency>
- <dependency>
- <groupId>com.alibabagroupId>
- <artifactId>fastjsonartifactId>
- <version>1.2.47version>
- dependency>
- <dependency>
- <groupId>org.projectlombokgroupId>
- <artifactId>lombokartifactId>
- dependency>
-
- <dependency>
- <groupId>io.springfoxgroupId>
- <artifactId>springfox-swagger2artifactId>
- <version>2.9.2version>
- dependency>
- <dependency>
- <groupId>io.springfoxgroupId>
- <artifactId>springfox-swagger-uiartifactId>
- <version>2.9.2version>
- dependency>
-
- <dependency>
- <groupId>org.springframework.amqpgroupId>
- <artifactId>spring-rabbit-testartifactId>
- <scope>testscope>
- dependency>
- dependencies>
- <build>
- <plugins>
- <plugin>
- <groupId>org.springframework.bootgroupId>
- <artifactId>spring-boot-maven-pluginartifactId>
- plugin>
- plugins>
- build>
-
- project>
- spring.rabbitmq.host=192.168.229.149
- spring.rabbitmq.port=5672
- spring.rabbitmq.username=admin
- spring.rabbitmq.password=123
我们的前期准备工作已经准备完了,接下来我们根据底下的这个代码架构图来实现下延迟队列,如下所示。
消费者 P 将消息推送给类型为 direct 的 X 交换机,X 交换机通过 routingKey 为 XA 绑定 QA 队列,并设置消息存活时间为 10s;X 交换机通过 routingKey 为 XB 绑定 QB 队列,并设置消息存活时间为 40s。当 QA 队列里面的消息超过存活时间之后,会将消息转发给类型为 direct 的 Y 交换机,routingKey 为 YD。当 QB 队列里面的消息超过存活时间之后,也会将消息转发给类型为 direct 的 Y 交换机,routingKey 也为 YD。Y 交换机通过 routingKey 为 YD 绑定 QD 队列,最终被消费者 C 消费。

- import org.springframework.amqp.core.*;
- import org.springframework.beans.factory.annotation.Qualifier;
- import org.springframework.context.annotation.Bean;
- import org.springframework.context.annotation.Configuration;
-
- import java.util.HashMap;
- import java.util.Map;
-
- @Configuration
- public class TtlQueueConfig {
- // 普通交换机的名称
- public static final String X_EXCHANGE ="X";
- // 死信交换机的名称
- public static final String Y_DEAD_LETTER__EXCHANGE ="Y";
-
- // 普通队列的名称
- public static final String QUEUE_A = "QA";
- public static final String QUEUE_B = "QB";
- // 死信队列的名称
- public static final String DEAD_LETTER_QUEUE_D = "QD";
-
- // 声明 xExchange
- @Bean("xExchange")
- public DirectExchange xExchange(){
- return new DirectExchange(X_EXCHANGE);
- }
- // 声明 yExchange
- @Bean("yExchange")
- public DirectExchange yExchange(){
- return new DirectExchange(Y_DEAD_LETTER__EXCHANGE);
- }
- // 声明普通队列A,ttl 为 10s
- @Bean("queueA")
- public Queue queueA(){
- Map
arguments = new HashMap<>(); - // 设置死信交换机
- arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER__EXCHANGE);
- // 设置死信 routingKey
- arguments.put("x-dead-letter-routing-key","YD");
- // 设置过期时间,单位为 ms
- arguments.put("x-message-ttl",10000);
- return QueueBuilder.durable(QUEUE_A).withArguments(arguments).build();
- }
- // 声明普通队列B,ttl 为 40s
- @Bean("queueB")
- public Queue queueB(){
- Map
arguments = new HashMap<>(); - // 设置死信交换机
- arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER__EXCHANGE);
- // 设置死信 routingKey
- arguments.put("x-dead-letter-routing-key","YD");
- // 设置过期时间,单位为 ms
- arguments.put("x-message-ttl",40000);
- return QueueBuilder.durable(QUEUE_B).withArguments(arguments).build();
- }
- // 声明死信队列
- @Bean("queueD")
- public Queue queueD(){
- return QueueBuilder.durable(DEAD_LETTER_QUEUE_D).build();
- }
- // 将普通队列和交换机进行绑定
- @Bean
- public Binding queueABindingX(@Qualifier("queueA") Queue queueA,
- @Qualifier("xExchange") DirectExchange xExchange){
- return BindingBuilder.bind(queueA).to(xExchange).with("XA");
- }
- // 将普通队列和交换机进行绑定
- @Bean
- public Binding queueBBindingX(@Qualifier("queueB") Queue queueB,
- @Qualifier("xExchange") DirectExchange xExchange){
- return BindingBuilder.bind(queueB).to(xExchange).with("XB");
- }
- // 将死信队列和交换机进行绑定
- @Bean
- public Binding queueDBindingY(@Qualifier("queueD") Queue queueD,
- @Qualifier("yExchange") DirectExchange yExchange){
- return BindingBuilder.bind(queueD).to(yExchange).with("YD");
- }
- }
- // 发送延迟消息
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.amqp.rabbit.core.RabbitTemplate;
- import org.springframework.beans.factory.annotation.Autowired;
- import org.springframework.web.bind.annotation.GetMapping;
- import org.springframework.web.bind.annotation.PathVariable;
- import org.springframework.web.bind.annotation.RequestMapping;
- import org.springframework.web.bind.annotation.RestController;
-
- import java.util.Date;
-
- @Slf4j
- @RestController
- @RequestMapping("/ttl")
- public class SendMsgController {
-
- @Autowired
- private RabbitTemplate rabbitTemplate;
-
- @GetMapping("/sendMsg/{message}")
- public void sendMsg(@PathVariable String message){
- log.info("当前时间:{},发送一条信息给两个 TTL 队列:{}", new Date(), message);
- rabbitTemplate.convertAndSend("X","XA","我是来自 ttl 为10s的数据:"+message);
- rabbitTemplate.convertAndSend("X","XB","我是来自 ttl 为40s的数据:"+message);
- }
- }
- import com.rabbitmq.client.Channel;
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.amqp.core.Message;
- import org.springframework.amqp.rabbit.annotation.RabbitListener;
- import org.springframework.stereotype.Component;
-
- import java.util.Date;
-
-
- // 队列 ttl 的消费者
- @Slf4j
- @Component
- public class DeadLetterConsumer {
-
- // 接收消息
- @RabbitListener(queues="QD")
- public void receiveD(Message message, Channel channel) throws Exception{
- String msg = new String(message.getBody());
- log.info("当前时间:{},收到死信队列信息{}", new Date().toString(), msg);
- }
- }
发送一个请求:http://localhost:8080/ttl/sendMsg/我爱你

第一条消息在 10S 后变成了死信消息,然后被消费者消费掉,第二条消息在 40S 之后变成了死信消息,然后被消费掉,这样一个延时队列就打造完成了。
不过,如果这样使用的话,岂不是每增加一个新的时间需求,就要新增一个队列,这里只有 10S 和 40S 两个时间选项,如果需要一个小时后处理,那么就需要增加 TTL 为一个小时的队列,如果是预定会议室然后提前通知这样的场景,岂不是要增加无数个队列才能满足需求?
假设此时我们新增加了一个 QC 队列,该队列不设置 TTL 时间,那该如何设置消息过期?在生产者发送消息的时候设置过期时间即可。

- import org.springframework.amqp.core.*;
- import org.springframework.beans.factory.annotation.Qualifier;
- import org.springframework.context.annotation.Bean;
- import org.springframework.context.annotation.Configuration;
-
- import java.util.HashMap;
- import java.util.Map;
-
- @Configuration
- public class TtlQueueConfig {
- // 普通交换机的名称
- public static final String X_EXCHANGE ="X";
- // 死信交换机的名称
- public static final String Y_DEAD_LETTER__EXCHANGE ="Y";
-
- // 普通队列的名称
- public static final String QUEUE_A = "QA";
- public static final String QUEUE_B = "QB";
- // 死信队列的名称
- public static final String DEAD_LETTER_QUEUE_D = "QD";
-
- // 普通队列的名称
- public static final String QUEUE_C = "QC";
-
- // 声明 xExchange
- @Bean("xExchange")
- public DirectExchange xExchange(){
- return new DirectExchange(X_EXCHANGE);
- }
- // 声明 yExchange
- @Bean("yExchange")
- public DirectExchange yExchange(){
- return new DirectExchange(Y_DEAD_LETTER__EXCHANGE);
- }
- // 声明普通队列A,ttl 为 10s
- @Bean("queueA")
- public Queue queueA(){
- Map
arguments = new HashMap<>(); - // 设置死信交换机
- arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER__EXCHANGE);
- // 设置死信 routingKey
- arguments.put("x-dead-letter-routing-key","YD");
- // 设置过期时间,单位为 ms
- arguments.put("x-message-ttl",10000);
- return QueueBuilder.durable(QUEUE_A).withArguments(arguments).build();
- }
- // 声明普通队列B,ttl 为 40s
- @Bean("queueB")
- public Queue queueB(){
- Map
arguments = new HashMap<>(); - // 设置死信交换机
- arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER__EXCHANGE);
- // 设置死信 routingKey
- arguments.put("x-dead-letter-routing-key","YD");
- // 设置过期时间,单位为 ms
- arguments.put("x-message-ttl",40000);
- return QueueBuilder.durable(QUEUE_B).withArguments(arguments).build();
- }
- // 声明死信队列
- @Bean("queueD")
- public Queue queueD(){
- return QueueBuilder.durable(DEAD_LETTER_QUEUE_D).build();
- }
- // 声明普通队列C,不再设置 ttl
- @Bean("queueC")
- public Queue queueC(){
- Map
arguments = new HashMap<>(); - // 设置死信交换机
- arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER__EXCHANGE);
- // 设置死信 routingKey
- arguments.put("x-dead-letter-routing-key","YD");
- return QueueBuilder.durable(QUEUE_C).withArguments(arguments).build();
- }
- // 将普通队列和交换机进行绑定
- @Bean
- public Binding queueABindingX(@Qualifier("queueA") Queue queueA,
- @Qualifier("xExchange") DirectExchange xExchange){
- return BindingBuilder.bind(queueA).to(xExchange).with("XA");
- }
- // 将普通队列和交换机进行绑定
- @Bean
- public Binding queueBBindingX(@Qualifier("queueB") Queue queueB,
- @Qualifier("xExchange") DirectExchange xExchange){
- return BindingBuilder.bind(queueB).to(xExchange).with("XB");
- }
- // 将死信队列和交换机进行绑定
- @Bean
- public Binding queueDBindingY(@Qualifier("queueD") Queue queueD,
- @Qualifier("yExchange") DirectExchange yExchange){
- return BindingBuilder.bind(queueD).to(yExchange).with("YD");
- }
- // 将普通队列和交换机进行绑定
- @Bean
- public Binding queueCBindingX(@Qualifier("queueC") Queue queueC,
- @Qualifier("xExchange") DirectExchange xExchange){
- return BindingBuilder.bind(queueC).to(xExchange).with("XC");
- }
- }
- // 发送延迟消息
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.amqp.rabbit.core.RabbitTemplate;
- import org.springframework.beans.factory.annotation.Autowired;
- import org.springframework.web.bind.annotation.GetMapping;
- import org.springframework.web.bind.annotation.PathVariable;
- import org.springframework.web.bind.annotation.RequestMapping;
- import org.springframework.web.bind.annotation.RestController;
-
- import java.util.Date;
-
- @Slf4j
- @RestController
- @RequestMapping("/ttl")
- public class SendMsgController {
-
- @Autowired
- private RabbitTemplate rabbitTemplate;
-
- @GetMapping("/sendMsg/{message}")
- public void sendMsg(@PathVariable String message){
- log.info("当前时间:{},发送一条信息给两个 TTL 队列:{}", new Date(), message);
- rabbitTemplate.convertAndSend("X","XA","我是来自 ttl 为10s的数据:"+message);
- rabbitTemplate.convertAndSend("X","XB","我是来自 ttl 为40s的数据:"+message);
- }
-
- @GetMapping("/sendExpireMsg/{message}/{ttlTime}")
- public void sendMsg(@PathVariable String message,
- @PathVariable String ttlTime){
- rabbitTemplate.convertAndSend("X","XC",message,correlationData ->{
- correlationData.getMessageProperties().setExpiration(ttlTime);
- return correlationData;
- });
- log.info("当前时间:{},发送一条时长{}毫秒 TTL 信息给队列 C:{}", new Date(),ttlTime, message);
- }
- }
- import com.rabbitmq.client.Channel;
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.amqp.core.Message;
- import org.springframework.amqp.rabbit.annotation.RabbitListener;
- import org.springframework.stereotype.Component;
-
- import java.util.Date;
-
-
- // 队列 ttl 的消费者
- @Slf4j
- @Component
- public class DeadLetterConsumer {
-
- // 接收消息
- @RabbitListener(queues="QD")
- public void receiveD(Message message, Channel channel) throws Exception{
- String msg = new String(message.getBody());
- log.info("当前时间:{},收到死信队列信息{}", new Date().toString(), msg);
- }
- }
此时发送两个请求:
http://localhost:8080/ttl/sendExpireMsg/你好1/20000
http://localhost:8080/ttl/sendExpireMsg/你好2/2000

因为第二个消息过期时间我们只设置了 2s,所以我们认为它会第一个打印出来,但实际上还是第一个消息先打印出来的。 第二个消息等到第一个消息打印之后才打印。
看起来似乎没什么问题,但是如果在消息属性上设置 TTL ,消息可能并不会按时 “死亡“ ,因为 RabbitMQ 只会检查第一个消息是否过期,如果过期则丢到死信队列,如果第一个消息的延时时长很长,而第二个消息的延时时长很短,第二个消息并不会优先得到执行。
在上一节中存在一个消息排队的问题,它确实是一个问题,如果不能实现在消息粒度上的 TTL,并使其在设置的 TTL 时间及时死亡,就无法设计成一个通用的延时队列。这时就需要使用插件来解决这个问题。
在官网上下载 rabbitmq_delayed_message_exchange 插件,下载完成之后按照下面的步骤进行安装。
- # 1、切换到 rabbitmq 的插件目录
- [root@localhost /]# cd /usr/lib/rabbitmq/lib/rabbitmq_server-3.8.8/plugins/
-
- # 2、将下载下来的插件复制到这个目录下
-
- # 3、安装这个插件
- [root@localhost plugins]# rabbitmq-plugins enable rabbitmq_delayed_message_exchange
- Enabling plugins on node rabbit@localhost:
- rabbitmq_delayed_message_exchange
- The following plugins have been configured:
- rabbitmq_delayed_message_exchange
- rabbitmq_management
- rabbitmq_management_agent
- rabbitmq_web_dispatch
- Applying plugin configuration to rabbit@localhost...
- The following plugins have been enabled:
- rabbitmq_delayed_message_exchange
-
- started 1 plugins.
-
- # 4、重启 rabbitmq 服务
- [root@localhost plugins]# systemctl restart rabbitmq-server
安装完成之后,打开 rabbitmq 的管理界面,当我们手动新建一个交换机的时候出现了 x-delayed-message 选项,就证明安装成功了。

在这里我们新增一个队列 delayed.queue,一个自定义交换机 delayed.exchange,绑定关系如下:

- import org.springframework.amqp.core.*;
- import org.springframework.beans.factory.annotation.Qualifier;
- import org.springframework.context.annotation.Bean;
- import org.springframework.context.annotation.Configuration;
-
- import java.util.HashMap;
- import java.util.Map;
-
- @Configuration
- public class DelayedQueueConfig {
-
- // 队列
- public static final String DELAYED_QUEUE_NAME ="delayed.queue";
-
- // 交换机
- public static final String DELAYED_EXCHANGE_NAME = "delayed.exchange";
-
- // routingkey
- public static final String DELAYED_ROUTING_KEY = "delayed.routingkey";
-
- @Bean
- public Queue delayedQueue(){
- return new Queue(DELAYED_QUEUE_NAME);
- }
-
- // 声明一个基于插件的延迟交换机
- @Bean
- public CustomExchange delayedExchange(){
- Map
arguments = new HashMap<>(); - // 延迟类型为 direct,因为 routingkey 为一个固定的值
- arguments.put("x-delayed-type","direct");
- /**
- * 1、交换机的名称
- * 2、交换机的类型
- * 3、是否需要持久化
- * 4、是否需要自动删除
- * 5、其他的参数
- */
- return new CustomExchange(DELAYED_EXCHANGE_NAME,"x-delayed-message",true,false,arguments);
- }
- // 将普通队列和交换机进行绑定
- @Bean
- public Binding bindingDelayedQueue(@Qualifier("delayedQueue") Queue delayedQueue,
- @Qualifier("delayedExchange") CustomExchange delayedExchange){
- return BindingBuilder.bind(delayedQueue).to(delayedExchange).with(DELAYED_ROUTING_KEY).noargs();
- }
- }
- // 发送延迟消息
-
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.amqp.rabbit.core.RabbitTemplate;
- import org.springframework.beans.factory.annotation.Autowired;
- import org.springframework.web.bind.annotation.GetMapping;
- import org.springframework.web.bind.annotation.PathVariable;
- import org.springframework.web.bind.annotation.RequestMapping;
- import org.springframework.web.bind.annotation.RestController;
-
- import java.util.Date;
-
- @Slf4j
- @RestController
- @RequestMapping("/ttl")
- public class SendMsgController {
-
- @Autowired
- private RabbitTemplate rabbitTemplate;
-
- @GetMapping("sendDelayMsg/{message}/{delayTime}")
- public void sendMsg(@PathVariable String message, @PathVariable Integer delayTime) {
- rabbitTemplate.convertAndSend("delayed.exchange", "delayed.routingkey", message,
- correlationData -> {
- correlationData.getMessageProperties().setDelay(delayTime);
- return correlationData;
- });
- log.info(" 当 前 时 间 : {}, 发送一条延迟 {} 毫秒的信息给队列 delayed.queue:{}", new
- Date(), delayTime, message);
- }
- }
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.amqp.core.Message;
- import org.springframework.amqp.rabbit.annotation.RabbitListener;
- import org.springframework.stereotype.Component;
-
- import java.util.Date;
-
- @Slf4j
- @Component
- public class DelayQueueConsumer {
-
- @RabbitListener(queues = "delayed.queue")
- public void receiveDelayedQueue(Message message){
- String msg = new String(message.getBody());
- log.info("当前时间:{},收到延时队列的消息:{}", new Date().toString(), msg);
- }
- }
此时发送两个请求:
http://localhost:8080/ttl/sendDelayMsg/come on baby1/20000
http://localhost:8080/ttl/sendDelayMsg/come on baby2/2000
第二个消息被优先消费掉了,符合我们的预期效果。

延时队列在需要延时处理的场景下非常有用,使用 RabbitMQ 来实现延时队列可以很好的利用 RabbitMQ 的特性,如:消息可靠发送、消息可靠投递、死信队列来保障消息至少被消费一次以及未被正确处理的消息不会被丢弃。另外,通过 RabbitMQ 集群的特性,可以很好的解决单点故障问题,不会因为单个节点挂掉导致延时队列不可用或者消息丢失。
当然,延时队列还有很多其它选择,比如利用 Java 的 DelayQueue,利用 Redis 的 zset,利用 Quartz 或者利用 kafka 的时间轮,这些方式各有特点,看需要适用的场景。
在生产环境中由于一些不明原因,导致 rabbitmq 重启,在 rabbitMQ 重启期间生产者消息投递失败,导致消息丢失,需要手动处理和恢复。于是,我们开始思考,如何才能进行 RabbitMQ 的消息可靠投递呢?特别是在这样比较极端的情况,RabbitMQ 集群不可用的时候,无法投递的消息该如何处理。
我们在第五章节的时候讲过使用死信队列来解决 rabbitmq 和消费者之间进行可靠投递的问题。接下来我们讲下生产者与 rabbitmq 如何实现消息的可靠投递。
当消费者发送消息给 rabbitmq 时,添加一个消息确认的机制,即 rabbitmq 无法正常接收生产者的消息时,给生产者一个反馈,生产者再将投递失败的消息放到缓存中来,等待 rabbitmq 正常了再继续推送。下面这个流程就是在生产过程中处理类似情况的方案。

接下来我们模拟下 rabbitmq 无法工作时的自动反馈机制,如下,先搭建一个基础的工程,生产者 P 发送消息给类型为 direct 类型名字为 confirm.exchange 交换机,交换机通过 key1 与 confirm.queue 队列进行绑定,最终被消费者 confirm.consumer 消费者消费。

- import org.springframework.amqp.core.*;
- import org.springframework.beans.factory.annotation.Qualifier;
- import org.springframework.context.annotation.Bean;
- import org.springframework.context.annotation.Configuration;
-
- @Configuration
- public class ConfirmConfig {
- // 定义交换机
- public static final String CONFIRM_EXCHANGE ="confirm.exchange";
- // 定义队列
- public static final String CONFIRM_QUEUE = "confirm.queue";
- // 定义路由 key
- public static final String ROUTING_KEY = "key1";
-
- // 声明交换机
- @Bean
- public DirectExchange confirmExchange(){
- return new DirectExchange(CONFIRM_EXCHANGE);
- }
- // 声明队列
- @Bean
- public Queue confirmQueue(){
- return QueueBuilder.durable(CONFIRM_QUEUE).build();
- }
- // 队列和交换机进行绑定
- @Bean
- public Binding queueBinding(@Qualifier("confirmQueue") Queue confirmQueue,
- @Qualifier("confirmExchange") DirectExchange confirmExchange){
- return BindingBuilder.bind(confirmQueue).to(confirmExchange).with(ROUTING_KEY);
- }
- }
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.amqp.rabbit.connection.CorrelationData;
- import org.springframework.amqp.rabbit.core.RabbitTemplate;
- import org.springframework.beans.factory.annotation.Autowired;
- import org.springframework.stereotype.Component;
-
- import javax.annotation.PostConstruct;
-
- @Slf4j
- @Component
- public class MyCallBack implements RabbitTemplate.ConfirmCallback {
-
- @Autowired
- private RabbitTemplate rabbitTemplate;
- @PostConstruct
- public void init(){
- // 注入当前回调函数充当实现类
- rabbitTemplate.setConfirmCallback(this);
- }
- /**
- *交换机确认消息的回调方法
- * 情况一:交换机接收生产者发送的消息成功,进行回调
- * 1、CorrelationData 保存了回调消息的 ID 和其他信息
- * 2、ack = true, 表示接收到了消息
- * 3、cause = '', 表示没有失败的原因
- * 情况二:交换机接收生产者发送的消息失败,进行回调
- * 1、CorrelationData 保存了回调消息的 ID 和其他信息
- * 2、ack = false, 表示没有接收到了消息
- * 3、cause , 存储的是失败的原因
- */
- @Override
- public void confirm(CorrelationData correlationData, boolean ack, String cause) {
- String id = correlationData !=null?correlationData.getId():"";
- if(ack){
- log.info("交换机已经成功收到 ID 为:{} 的消息",id);
- }else{
- log.info("交换机没有接收到 ID 为:{} 的消息,原因为:{}",id,cause);
- }
- }
- }
在 application.properties 的配置文件中添加如下的标签:
- # none :默认值,禁用发布确认模式
- # correlated : 发布消息成功到交换器会触发该回调方法
- # simple : 经测试有两种效果: 效果一:和 CORRELATED 值一样会触发回调方法。
- # 效果二:在发布消息成功后使用 rabbitTemplate 调用 waitForConfirms 或 waitForConfirmsOrDie 方法等待 broker 节点返回发送结果,
- # 根据返回结果来判定下一步的逻辑,要注意的点是 waitForConfirmsOrDie 方法如果返回 false 则会关闭 channel,则接下来无法发送消息到 broker
- spring.rabbitmq.publisher-confirm-type=correlated
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.amqp.core.Message;
- import org.springframework.amqp.rabbit.annotation.RabbitListener;
- import org.springframework.stereotype.Component;
-
- @Slf4j
- @Component
- public class ConfirmConsumer {
-
- public static final String CONFIRM_QUEUE_NAME = "confirm.queue";
- @RabbitListener(queues =CONFIRM_QUEUE_NAME)
- public void receiveMsg(Message message){
- String msg=new String(message.getBody());
- log.info("消费者成功接收到队列 confirm.queue 的消息:{}",msg);
- }
- }
- import com.springbootrabbitmq.config.ConfirmConfig;
- import com.springbootrabbitmq.config.MyCallBack;
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.amqp.rabbit.connection.CorrelationData;
- import org.springframework.amqp.rabbit.core.RabbitTemplate;
- import org.springframework.beans.factory.annotation.Autowired;
- import org.springframework.web.bind.annotation.GetMapping;
- import org.springframework.web.bind.annotation.PathVariable;
- import org.springframework.web.bind.annotation.RequestMapping;
- import org.springframework.web.bind.annotation.RestController;
-
- @RestController
- @RequestMapping("/confirm")
- @Slf4j
- public class ProducerController {
-
- @Autowired
- private RabbitTemplate rabbitTemplate;
- @Autowired
- private MyCallBack myCallBack;
-
- @GetMapping("/sendMessage1/{message}")
- public void sendMessage1(@PathVariable String message){
- // 测试发送正常消息的回调函数,会出现什么情况
- // 指定消息 id 为 1
- CorrelationData correlationData=new CorrelationData("1");
- String routingKey="key1";
- rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE,routingKey,message+routingKey,correlationData);
- log.info("key1:发送消息内容:{}",message);
- }
- @GetMapping("/sendMessage2/{message}")
- public void sendMessage2(@PathVariable String message){
-
- // 测试出现未找到交换机的情况下,会出现什么情况
- CorrelationData correlationData=new CorrelationData("2");
- String routingKey="key1";
- rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE+"123",routingKey,message+routingKey,correlationData);
- log.info("key2:发送消息内容:{}",message);
- }
- @GetMapping("/sendMessage3/{message}")
- public void sendMessage3(@PathVariable String message){
- // 测试出现找到交换机但未找到队列的情况下,会出现什么情况
- CorrelationData correlationData=new CorrelationData("3");
- String routingKey="key2";
- rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE,routingKey,message+routingKey,correlationData);
- log.info("key2:发送消息内容:{}",message);
- }
输入 http://localhost:8080/confirm/sendMessage1/大家好,来测试正常情况下的输出和打印,如下所示,可以看到,消费者成功的发送消息到交换机,交换机也触发了回调函数,最终消息也被消费者消费了,整个流程没有什么问题。

输入 http://localhost:8080/confirm/sendMessage2/大家好,来测试交换机名称错误的情况下的输出和打印,如下所示,可以看到,消费者成功的发送消息到交换机,交换机也触发了回调函数,打印了失败的原因。即未找到交换机。

输入 http://localhost:8080/confirm/sendMessage3/大家好,来测试队列名称错误的情况下的输出和打印,如下所示,可以看到,消费者成功的发送消息到交换机,交换机触发了回调函数,但是队列没有应答也没有确认。这个不是我们想要的结果。
![]()
上面一章节在仅开启了生产者确认机制的情况下,交换机接收到消息后,会直接给消息生产者发送确认消息,如果发现该消息不可路由,那么消息会被直接丢弃,此时生产者是不知道消息被丢弃这个事件的。
那么如何让无法被路由的消息帮我想办法处理一下?最起码通知我一声,我好自己处理啊。通过设置 mandatory 参数可以在当消息传递过程中不可达目的地时将消息返回给生产者。
- # 当队列的消息无法路由到队列时,会将消息回退给生产者
- spring.rabbitmq.publisher-returns=true
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.amqp.core.Message;
- import org.springframework.amqp.rabbit.connection.CorrelationData;
- import org.springframework.amqp.rabbit.core.RabbitTemplate;
- import org.springframework.beans.factory.annotation.Autowired;
- import org.springframework.stereotype.Component;
-
- import javax.annotation.PostConstruct;
-
- @Slf4j
- @Component
- public class MyCallBack implements RabbitTemplate.ConfirmCallback,RabbitTemplate.ReturnCallback {
-
- @Autowired
- private RabbitTemplate rabbitTemplate;
- @PostConstruct
- public void init(){
- // 注入当前实现类
- rabbitTemplate.setConfirmCallback(this);
- rabbitTemplate.setReturnCallback(this);
- }
- /**
- *交换机确认消息的回调方法
- * 情况一:交换机接收生产者发送的消息成功,进行回调
- * 1、CorrelationData 保存了回调消息的 ID 和其他信息
- * 2、ack = true, 表示接收到了消息
- * 3、cause = '', 表示没有失败的原因
- * 情况二:交换机接收生产者发送的消息失败,进行回调
- * 1、CorrelationData 保存了回调消息的 ID 和其他信息
- * 2、ack = false, 表示没有接收到了消息
- * 3、cause , 存储的是失败的原因
- */
- @Override
- public void confirm(CorrelationData correlationData, boolean ack, String cause) {
- String id = correlationData !=null?correlationData.getId():"";
- if(ack){
- log.info("交换机已经成功收到 ID 为:{} 的消息",id);
- }else{
- log.info("交换机没有接收到 ID 为:{} 的消息,原因为:{}",id,cause);
- }
- }
-
- // 只有不能达到目的地的时候才会进行回退
- @Override
- public void returnedMessage(Message message, int replyCode, String replyText, String exchange, String routingKey) {
- log.info("消息:{}被服务器退回,退回原因:{}, 交换机是:{}, 路由 key:{}",
- new String(message.getBody()),replyText, exchange, routingKey);
- }
- }
输入 http://localhost:8080/confirm/sendMessage3/大家好,来测试队列名称错误的情况下的输出和打印,如下所示,可以看到,消费者成功的发送消息到交换机,交换机触发了回调函数,队列也触发了回调函数,打印了路由失败的原因,如下,这个就是我们想要的结果。

有了 mandatory 参数和回退消息,我们获得了对无法投递消息的感知能力,有机会在生产者的消息无法被投递时发现并处理。但有时候,我们并不知道该如何处理这些无法路由的消息,最多打个日志,然后触发报警,再来手动处理。
而通过日志来处理这些无法路由的消息是很不优雅的做法,特别是当生产者所在的服务有多台机器的时候,手动复制日志会更加麻烦而且容易出错。而且设置 mandatory 参数会增加生产者的复杂性,需要添加处理这些被退回的消息的逻辑。
如果既不想丢失消息,又不想增加生产者的复杂性,该怎么做呢?前面在设置死信队列的文章中,我们提到,可以为队列设置死信交换机来存储那些处理失败的消息,可是这些不可路由消息根本没有机会进入到队列,因此无法使用死信队列来保存消息。
在 RabbitMQ 中,有一种备份交换机的机制存在,可以很好的应对这个问题。什么是备份交换机呢?备份交换机可以理解为 RabbitMQ 中交换机的“备胎”,当我们为某一个交换机声明一个对应的备份交换机时,就是为它创建一个备胎,当交换机接收到一条不可路由消息时,将会把这条消息转发到备份交换机中,由备份交换机来进行转发和处理,
通常备份交换机的类型为 Fanout ,这样就能把所有消息都投递到与其绑定的队列中,然后我们在备份交换机下绑定一个队列,这样所有那些原交换机无法被路由的消息,就会都进入这个队列了。当然,我们还可以建立一个报警队列,用独立的消费者来进行监测和报警。
先搭建一个基础的工程,生产者 P 发送消息给类型为 direct 类型名字为 confirm.exchange 交换机,交换机通过 key1 与 confirm.queue 队列进行绑定,最终被消费者 confirm.consumer 消费者消费。
当 confim.exchange 交换机遇到无法投递的消息时,就将消息转发给类型为 fanout 的 back.exchange 交换机,交换机又与 backup.queue 和 warning.queue 队列进行绑定。其中 warning.queue 队列里面的消息最终被 warning.consumer 消费者消费。

- import org.springframework.amqp.core.*;
- import org.springframework.beans.factory.annotation.Qualifier;
- import org.springframework.context.annotation.Bean;
- import org.springframework.context.annotation.Configuration;
-
- @Configuration
- public class ConfirmConfig {
- // 定义交换机
- public static final String CONFIRM_EXCHANGE ="confirm.exchange";
- // 定义队列
- public static final String CONFIRM_QUEUE = "confirm.queue";
- // 定义路由 key
- public static final String ROUTING_KEY = "key1";
- // 定义备份交换机
- public static final String BACKUP_EXCHANGE_NAME = "backup.exchange";
-
- // 定义备份队列
- public static final String BACKUP_QUEUE_NAME = "backup.queue";
- // 定义警告队列
- public static final String WARNING_QUEUE_NAME = "warning.queue";
-
- // 声明交换机,并绑定备份交换机
- @Bean
- public DirectExchange confirmExchange(){
- return ExchangeBuilder.directExchange(CONFIRM_EXCHANGE).durable(true)
- .withArgument("alternate-exchange",BACKUP_EXCHANGE_NAME).build();
- }
- // 声明备份 Exchange,并将其绑定到备份交换机上
- @Bean("backupExchange")
- public FanoutExchange backupExchange(){
- return new FanoutExchange(BACKUP_EXCHANGE_NAME);
- }
- // 声明队列
- @Bean
- public Queue confirmQueue(){
- return QueueBuilder.durable(CONFIRM_QUEUE).build();
- }
- // 声明备份队列
- @Bean
- public Queue backupQueue(){
- return QueueBuilder.durable(BACKUP_QUEUE_NAME).build();
- }
- // 声明警告队列
- @Bean
- public Queue warningQueue(){
- return QueueBuilder.durable(WARNING_QUEUE_NAME).build();
- }
- // 队列和交换机进行绑定
- @Bean
- public Binding queueBinding(@Qualifier("confirmQueue") Queue confirmQueue,
- @Qualifier("confirmExchange") DirectExchange confirmExchange){
- return BindingBuilder.bind(confirmQueue).to(confirmExchange).with(ROUTING_KEY);
- }
- // 队列和交换机进行绑定
- @Bean
- public Binding backupQueueBinding(@Qualifier("backupQueue") Queue backupQueue,
- @Qualifier("backupExchange") FanoutExchange backupExchange){
- return BindingBuilder.bind(backupQueue).to(backupExchange);
- }
- // 队列和交换机进行绑定
- @Bean
- public Binding warningQueueBinding(@Qualifier("warningQueue") Queue warningQueue,
- @Qualifier("backupExchange") FanoutExchange backupExchange){
- return BindingBuilder.bind(warningQueue).to(backupExchange);
- }
- }
- @Slf4j
- @Component
- public class WarningConsumer {
-
- public static final String CONFIRM_QUEUE_NAME = "warning.queue";
- @RabbitListener(queues =CONFIRM_QUEUE_NAME)
- public void receiveMsg(Message message){
- String msg=new String(message.getBody());
- log.error("报警发现不可路由消息:{}", msg);
- }
- }
在进行测试之间需要先在 rabbitmq 的管理界面删除掉我们前面几个章节创建的交换机,否则结果会收到影响。
输入 http://localhost:8080/confirm/sendMessage3/大家好,来测试队列名称错误的情况下的输出和打印,如下所示,可以看到,消费者成功的发送消息到交换机,交换机直接将消息转发给了 back.exchange 交换机,最终消息被 warning.customer 消费者消费。这个就是我们想要的结果。
因为我们的代码是 Mandatory 参数与备份交换机一起使用的,如果两者同时开启,则备份交换机优先级高。即日志并没有打印 7.1.5 章节的日志信息。

用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用。举个支付的例子,用户购买商品后支付,支付扣款成功,但是返回结果的时候网络异常,此时钱已经扣了,用户再次点击按钮,此时会进行第二次扣款,返回结果成功,用户查询余额发现多扣钱了,流水记录也变成了两条。在以前的单应用系统中,我们只需要把数据操作放入事务中即可,发生错误立即回滚,但是再响应客户端的时候也有可能出现网络中断或者异常等等。
消费者在消费 MQ 中的消息时,MQ 已把消息发送给消费者,消费者在给 MQ 返回 ack 时网络中断,故 MQ 未收到确认信息,该条消息会重新发给其他的消费者,或者在网络重连后再次发送给该消费者,但实际上该消费者已成功消费了该条消息,造成消费者消费了重复的消息。
MQ 消费者的幂等性的解决一般使用全局 ID 或者写个唯一标识,比如:时间戳或者 UUID 等, 也可以按自己的规则生成一个全局唯一 id,每次消费消息时用该 id 先判断该消息是否已消费过。
在海量订单生成的业务高峰期,生产端有可能就会重复发送消息,这时候消费端就要实现幂等性保障,这就意味着我们的消息永远不会被消费多次。
业界主流的幂等性有两种操作:a. 唯一 ID + 指纹码机制,利用数据库主键去重。 b. 利用 redis 的原子性去实现。
指纹码:我们的一些规则或者时间戳加别的服务给到的唯一信息码,它并不一定是我们系统生成的,基本都是由我们的业务规则拼接而来,但是一定要保证唯一性,然后就利用查询语句进行判断,这个 id 是否存在数据库中。
优势就是实现简单就一个拼接,然后查询判断是否重复;劣势就是在高并发时,如果是单个数据库就会有写入性能瓶颈当然也可以采用分库分表提升性能,但也不是我们最推荐的方式。
利用 redis 执行 setnx 命令,天然具有幂等性。从而实现不重复消费。
假设现在有一个订单催付的场景,顾客在淘宝下的订单,淘宝会及时将订单推送给我们,如果用户在设定的时间内未付款那么就会给用户推送一条短信提醒。但是对于淘宝来说,商家肯定是要分大客户和小客户,比如像苹果,小米这样的就属于大客户,所以他们的订单必须得到优先处理,即优先给这些大客户的消费者发送短信提醒。
以前后端系统是使用 redis 来存放的定时轮询,但是 redis 的 List 只能做一个简简单单的消息队列,并不能实现一个优先级的场景,所以订单量大了后采用 RabbitMQ 进行改造和优化,如果发现是大客户的订单给一个相对比较高的优先级,否则就是默认优先级。
第一种方式:可以在 rabbitmq 的管理界面进行手动的添加,其中优先级的取值范围为 0 到 255 之间,我们在实际的开发中最大值设置为 10 就足够了。

第二种方式:在生产者代码里面添加,一共需要修改两处,第一处是在队列代码中添加优先级; 第二处是在发送消息的时候,需要设置消息的优先级。
- Map
arguments = new HashMap<>(); - // 官方允许的范围为 0-255,此处设置为 10,即允许的范围为 0-10,不宜设置过大,会浪费 CPU 内存
- arguments.put("x-max-priority",10);
- channel.queueDeclare(QUEUE_NAME,true,false,false,arguments);
- AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().priority(5).build();
- channel.basicPublish("",QUEUE_NAME,properties,message.getBytes());
如果想要让队列实现优先级:首先队列需要设置为优先级队列,消息需要设置消息的优先级,消费者需要等待消息已经发送到队列中才去消费因为,这样才有机会对消息进行排序。
生产者代码如下:
- import com.rabbitmq.client.AMQP;
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.Connection;
- import com.rabbitmq.client.ConnectionFactory;
-
- import java.util.HashMap;
- import java.util.Map;
-
- public class Producer {
-
- private final static String QUEUE_NAME = "hello";
- public static void main(String[] args) throws Exception {
- // 创建一个连接工厂
- ConnectionFactory factory = new ConnectionFactory();
- factory.setHost("192.168.229.150");
- factory.setUsername("admin");
- factory.setPassword("123");
-
- // channel 实现了自动 close 接口 自动关闭 不需要显示关闭
- Connection connection = factory.newConnection();
- Channel channel = connection.createChannel();
- Map
arguments = new HashMap<>(); - // 官方允许的范围为 0-255,此处设置为 10,即允许的范围为 0-10,不宜设置过大,会浪费 CPU 内存
- arguments.put("x-max-priority",10);
- channel.queueDeclare(QUEUE_NAME,true,false,false,arguments);
- for(int i=0;i<10;i++){
- String message="info"+i;
- if(i==5){
- AMQP.BasicProperties properties =
- new AMQP.BasicProperties().builder().priority(5).build();
- channel.basicPublish("",QUEUE_NAME,properties,message.getBytes());
-
- }else{
- channel.basicPublish("",QUEUE_NAME,null,message.getBytes());
- }
- }
- System.out.println("消息发送完毕");
- }
- }
消费者代码如下:
- import com.rabbitmq.client.*;
-
- // 接收消息的消费者
- public class Consumer {
- // 队列的名称
- private final static String QUEUE_NAME = "hello";
- public static void main(String[] args) throws Exception {
- ConnectionFactory factory = new ConnectionFactory();
- factory.setHost("192.168.229.150");
- factory.setUsername("admin");
- factory.setPassword("123");
- Connection connection = factory.newConnection();
- Channel channel = connection.createChannel();
- System.out.println("等待接收消息....");
-
- // 接收到消息时的回调函数
- DeliverCallback deliverCallback=(consumerTag, message)->{
- String resultMessage= new String(message.getBody());
- System.out.println(resultMessage);
- };
- // 取消消费时的回调函数,比如在消费的时候队列被删除掉了
- CancelCallback cancelCallback=(consumerTag)->{
- System.out.println("消息消费被中断");
- };
- channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
- }
- }
先启动消费者,如下

再启动消费者,如下,可以看到 info5 的消息被提前消费掉了,满足我们的预期。

RabbitMQ 从 3.6.0 版本开始引入了惰性队列的概念。惰性队列会尽可能的将消息存入磁盘中,而在消费者消费到相应的消息时才会被加载到内存中,它的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储。当消费者由于各种各样的原因(比如消费者下线、宕机亦或者是由于维护而关闭等)而致使长时间内不能消费消息造成堆积时,惰性队列就很有必要了。
默认情况下,当生产者将消息发送到 RabbitMQ 的时候,队列中的消息会尽可能的存储在内存之中,这样可以更加快速的将消息发送给消费者。即使是持久化的消息,在被写入磁盘的同时也会在内存中驻留一份备份。当 RabbitMQ 需要释放内存的时候,会将内存中的消息换页至磁盘中,这个操作会耗费较长的时间,也会阻塞队列的操作,进而无法接收新的消息。虽然 RabbitMQ 的开发者们一直在升级相关的算法,但是效果始终不太理想,尤其是在消息量特别大的时候。
队列具备两种模式:default 和 lazy。默认的为 default 模式,在 3.6.0 之前的版本无需做任何变更。lazy 模式即为惰性队列的模式,可以通过调用 channel.queueDeclare() 方法的时候在参数中设置,也可以通过 Policy 的方式设置,如果一个队列同时使用这两种方式设置的话,那么 Policy 的方式具备更高的优先级。如果要通过声明的方式改变已有队列的模式的话,那么只能先删除队列,然后再重新声明一个新的。
在队列声明的时候可以通过 “x-queue-mode” 参数来设置队列的模式,取值为 “default” 和 “lazy” 。下面示例中演示了一个惰性队列的声明细节:
- Map
arguments = new HashMap<>(); - arguments.put("x-queue-mode","lazy");
- channel.queueDeclare("myqueue",true,false,false,arguments);
在发送 1 百万 条消息,每条消息大概占 1KB 的情况下,普通队列占用内存是 1.2GB,而惰性队列仅仅占用 1.5MB。

最开始我们介绍了如何安装及运行 RabbitMQ 服务,不过这些是单机版的,无法满足目前真实应用的要求。如果 RabbitMQ 服务器遇到内存崩溃、机器掉电或者主板故障等情况,该怎么办?单台 RabbitMQ 服务器可以满足每秒 1000 条消息的吞吐量,那么如果应用需要 RabbitMQ 服务满足每秒 10 万条消息的吞吐量呢?购买昂贵的服务器来增强单机 RabbitMQ 服务的性能显得捉襟见肘,搭建一个 RabbitMQ 集群才是解决实际问题的关键。
我们准备搭建一个 rabbitmq 的集群,如下图所示,搭建的步骤如下

1、准备 3 台服务器,并确保 3 台服务器都已经安装了 rabbitmq 的服务。
2、修改 3 台服务器的主机名称,改成如下效果即可。
- # 第一步:修改主机名称
- vim /etc/hostname
- # 第二步:执行重启命令使配置生效
- reboot
![]()
![]()
3、 配置各个节点的 hosts 文件,让各个节点都能互相识别对方
- # 修改配置文件
- vim /etc/hosts
-
- # 每个节点都添加以下的信息
- 192.168.229.150 node1
- 192.168.229.152 node2
- 192.168.229.151 node3
4、确保各个节点的 cookie 文件使用的是同一个值
- # 只在 node1 节点上执行远程操作命令
- scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie
- scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie
5、启动 Rabbitmq 服务
- # 在三台节点上分别执行以下命令
- rabbitmq-server -detached
6、在节点 2 执行以下的命令
- # 先关闭服务
- rabbitmqctl stop_app
-
- # 重置服务
- rabbitmqctl reset
-
- # 把自己加入到 1 号节点当中
- # 如果执行此条语句报错,有可能是节点 1 的防火墙未关闭,需要先关闭防火墙
- rabbitmqctl join_cluster rabbit@node1
-
- # 重启
- rabbitmqctl start_app(只启动应用服务)
7、在节点 3 执行以下的命令
- # 先关闭服务
- rabbitmqctl stop_app
-
- # 重置服务
- rabbitmqctl reset
-
- # 把自己加入到 2 号节点当中
- # 如果执行此条语句报错,有可能是节点 2 的防火墙未关闭,需要先关闭防火墙
- rabbitmqctl join_cluster rabbit@node2
-
- # 重启
- rabbitmqctl start_app(只启动应用服务)
8、查看集群的状态
- # 任一节点执行都可以
- rabbitmqctl cluster_status
9、重新设置账户信息
- # 任一账号执行均可
- # 创建账号
- rabbitmqctl add_user admin 123
-
- # 设置用户角色
- rabbitmqctl set_user_tags admin administrator
-
- # 设置用户权限
- rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"
10、解除集群节点命令
- # 删除节点 2 需要执行的命令
- rabbitmqctl stop_app
- rabbitmqctl reset
- rabbitmqctl start_app
- rabbitmqctl cluster_status
- # 此条命令需要在 node1 机器上执行
- rabbitmqctl forget_cluster_node rabbit@node2
-
- # 删除节点 3 需要执行的命令
- rabbitmqctl stop_app
- rabbitmqctl reset
- rabbitmqctl start_app
- rabbitmqctl cluster_status
- # 此条命令需要在 node2 机器上执行
- rabbitmqctl forget_cluster_node rabbit@node3
登录 rabbitmq 的管理界面,可以看到,此时我们有了 3 台服务的集群

根据上一节的步骤创建的 rabbitmq 集群是不可复用的,不可服用的意思是在 node1 上创建的队列,在 node2 上是没有的,意味着只要 node1 宕机了,那么这个队列就消失了,它不会因为有 3 台机器就会有 3 个队列。我们实际来感受下。
首选使用 node1 来创建一个 hello 队列并发送一条消息,代码如下
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.Connection;
- import com.rabbitmq.client.ConnectionFactory;
-
- public class Producer {
-
- private final static String QUEUE_NAME = "hello";
- public static void main(String[] args) throws Exception {
- // 创建一个连接工厂
- ConnectionFactory factory = new ConnectionFactory();
- factory.setHost("192.168.229.150");
- factory.setUsername("admin");
- factory.setPassword("123");
- Connection connection = factory.newConnection();
- Channel channel = connection.createChannel();
- channel.queueDeclare(QUEUE_NAME,true,false,false,null);
- String message = "HELLO WORLD";
- channel.basicPublish("",QUEUE_NAME,null,message.getBytes());
- System.out.println("消息发送完毕");
- }
- }
打开 rabbitmq 的管理界面可以看到 hello 队列是属于 node1 节点的,在 node2 和 node3 上是没有的。

如果此时 node1 节点宕机了,那消息是不是就丢失了呢?答案是会丢失的,我们来测试以下,我们执行下面的命令来手动使 node1 节点宕机。
rabbitmqctl stop_app
执行完命令之后,刷新下 rabbitmq 的管理界面,发现连接不上了,因为它宕机了,现在只能连接另外的两台机器,可以看到,此时 node1 的状态时不可用的状态。

再来看看之间创建的 hello 队列,我们发现队列还在,但是里面的消息数量不显示了

此时,我们尝试是否可以消费 hello 队列里面的消息,代码如下:
- import com.rabbitmq.client.*;
-
- // 接收消息的消费者
- public class Consumer {
- // 队列的名称
- private final static String QUEUE_NAME = "hello";
- public static void main(String[] args) throws Exception {
- ConnectionFactory factory = new ConnectionFactory();
- // 由于 node1 节点挂掉了,此时只能连接另外的两个节点
- factory.setHost("192.168.229.151");
- factory.setUsername("admin");
- factory.setPassword("123");
- Connection connection = factory.newConnection();
- Channel channel = connection.createChannel();
- System.out.println("等待接收消息....");
-
- // 接收到消息时的回调函数
- DeliverCallback deliverCallback=(consumerTag, message)->{
- String resultMessage= new String(message.getBody());
- System.out.println(resultMessage);
- };
- // 取消消费时的回调函数,比如在消费的时候队列被删除掉了
- CancelCallback cancelCallback=(consumerTag)->{
- System.out.println("消息消费被中断");
- };
- channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
- }
- }
根据日志的输出打印可以看出,node1 节点已经挂机了,无法取出数据了,即消息丢失了

此时,我们输入以下的命令重新启动 node1 节点,再次刷新 rabbitmq,发现,消息丢失了。
rabbitmqctl start_app

如果我们在发送消息的时候,将消息进行了持久化,参考 2.3.3 章节,rabbitmq 宕机之后重启消息是不会丢失的,这里就不在赘述了。
镜像队列是什么意思是?就是备份,我们应该给每一个 node 都进行备份,只要生产者发送消息不应该只在某一个节点上存在,这样就可以避免当一个 node 宕机了消息就丢失了。
我们想要的是生产者发送消息给 node1 节点,node1 节点再备份一份到 node2 节点,这样信息就有两份了,一份在 node1 ,一份在 node2 ,下面我们就来具体的搭建一下。
1、启动三台集群节点
2、随便找一个节点添加 policy

- # 名字,随便起
- Name
-
- # 规则,正则表达式,^mirrior:表示以 mirrior 为前缀的队列和交换机
- Pattern
-
- # 应用的一些参数
- Definition
- # 备份模式:指定模式,指定备份几份
- ha-mode = exactly
- # 由此参数指定,指定两份(主一份备一份)
- ha-params = 2
- # 同步的模式:自动同步
- ha-syn-mode= automatic
此时我们测试下镜像队列是否生效,生产者代码如下:
- import com.rabbitmq.client.Channel;
- import com.rabbitmq.client.Connection;
- import com.rabbitmq.client.ConnectionFactory;
- import com.rabbitmq.client.MessageProperties;
-
- public class Producer {
-
- private final static String QUEUE_NAME = "mirrior-hello";
- public static void main(String[] args) throws Exception {
- // 创建一个连接工厂
- ConnectionFactory factory = new ConnectionFactory();
- factory.setHost("192.168.229.150");
- factory.setUsername("admin");
- factory.setPassword("123");
- Connection connection = factory.newConnection();
- Channel channel = connection.createChannel();
- channel.queueDeclare(QUEUE_NAME,true,false,false,null);
- String message = "HELLO WORLD";
- channel.basicPublish("",QUEUE_NAME, MessageProperties.PERSISTENT_TEXT_PLAIN,message.getBytes());
- System.out.println("消息发送完毕");
- }
- }
启动生产者,打开 rabbitmq 的管理界面,这个 +1 就是备份的意思。

可以点进去看一眼,看看哪两个节点涉及到了备份,如下

此时输入 rabbitmqctl stop_app 命令关闭 node1 ,再次打开 rabbitmq 的管理界面,可以看到 node1 节点挂掉了。

可以看到,此时主变为了 node3 ,备份又在 node2 上了,因为 node1 宕机了。

此时再去获取消息,消息是不会丢失的,如下:
- import com.rabbitmq.client.*;
-
- // 接收消息的消费者
- public class Consumer {
- // 队列的名称
- private final static String QUEUE_NAME = "mirrior-hello";
- public static void main(String[] args) throws Exception {
- ConnectionFactory factory = new ConnectionFactory();
- // 由于 node1 节点挂掉了,此时只能连接另外的两个节点
- factory.setHost("192.168.229.151");
- factory.setUsername("admin");
- factory.setPassword("123");
- Connection connection = factory.newConnection();
- Channel channel = connection.createChannel();
- System.out.println("等待接收消息....");
-
- // 接收到消息时的回调函数
- DeliverCallback deliverCallback=(consumerTag, message)->{
- String resultMessage= new String(message.getBody());
- System.out.println(resultMessage);
- };
- // 取消消费时的回调函数,比如在消费的时候队列被删除掉了
- CancelCallback cancelCallback=(consumerTag)->{
- System.out.println("消息消费被中断");
- };
- channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
- }
- }

就算整个集群只剩下一台机器了,依然能消费队列里面的消息,说明队列里面的消息被镜像队列传递到相应机器里面了。
生产者发消息给 VIP,平时 VIP 走主机,主机 node11 再进行转发给其他的节点,一旦 node11 宕机了,它里面是有一个 keepalive 软件用于监控,发现 node11 宕机了,就会将 ip 进行飘移到另外一个备机 node21 上,备机再进行转发和处理;当然了,备机也会时不时的去判断主机是否存活。

HAProxy 提供高可用性、负载均衡及基于 TCP、HTTP 应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案,包括 Twitter、Reddit、StackOverflow、GitHub 在内的多家知名互联网公司在使用。HAProxy 实现了一种事件驱动、单一进程模型,此模型支持非常大的井发连接数。
nginx、lvs 和 haproxy 之间的区别: http://www.ha97.com/5646.html
联邦交换机,又名联合交换机。
我们公司有两个机房,一个在北京,一个在深圳。彼此之间相距甚远,网络延迟是一个不得不面对的问题。如下图,有两个交换机 A 和 B,如果北京的客户想要访问北京的交换机是没有问题的;但是如果北京的客户想访问深圳的交换机就会出现网络延迟,因为距离太远了,网络传输需要一定的时间。
我们希望的是北京的客户访问北京的 rabbitmq,深圳的客户访问深圳的 rabbitmq,但是北京客户如果想要访问深圳的 rabbitmq,就有可能会存在数据不一致的问题,怎么办呢?应该让两台交换机互相的同步数据,保证北京和深圳的交换机数据是一致的。
那么如何保证一致呢?就需要使用 Federation 插件,搭建步骤在下一节。

1、需要保证每台节点单独运行
2、在每一台服务器上执行以下的命令
- rabbitmq-plugins enable rabbitmq_federation
- rabbitmq-plugins enable rabbitmq_federation_management
在 rabbitmq 的管理界面出现这两个菜单就证明安装成功了。

3、原理图如下,我们把上半部分理解为北京节点 node1,下半部分理解为深圳节点 node2,我们认为 node1 为上游节点,node2 为下游节点,此时上游的数据往下游进行同步。此时同步数据是以交换机为节点;即 node1 的交换机同步数据给 node2 交换机。中间经历了两个阶段,一个阶段是配置,即 node1 节点的交换机要配置 node2 节点的地址。也就是要让 node1 可以找到 node2 节点,自然就会把交换机里面的数据同步给 node2 节点中的交换机。两个交换机的名字一样,而且同步有个前提,node2 节点必须现有 fed_exchange 交换机,如果没有就无法进行同步

4、在 downstream(node2)配置 upstream(node1)

5、添加 policy

6、在这个地方可以查看成功的状态。

联邦队列可以在多个 Broker 节点(或者集群)之间为单个队列提供均衡负载的功能。一个联邦队列可以连接一个或者多个上游队列 (upstream queue),并从这些上游队列中获取消息以满足本地消费者消费消息的需求。
1、原理图如下:

与 Federation 具备的数据转发功能类似,Shovel 可以可靠、持续地从一个 Broker 中的队列(作为源端,即 source)拉取数据并转发至另一个 Broker 中的交换器(作为目的端,即 destination)。作为源端的队列和作为目的端的交换器可以同时位于同一个 Broker,也可以位于不同的 Broker 上。
Shovel 可以翻译为 "铲子" ,是一种比较形象的比喻,这个 "铲子" 可以将消息从一方铲到另一方。Shovel 行为就像优秀的客户端应用程序能够负责连接源和目的地、负责消息的读写及负责连接失败问题的处理。
1、开启插件,源端和目的端都执行下面的命令
- rabbitmq-plugins enable rabbitmq_shovel
- rabbitmq-plugins enable rabbitmq_shovel_management
安装完毕之后进入 rabbitmq 的管理界面看到下面的两个选项就证明安装成功了。

2、原理图,如下,如果先往 Q1 和 Q2 各自发一条消息,当设置 shovel 之后,Q2 里面就有两条消息了。

3、添加 shovel 的源和目的地。

