当前位置:   article > 正文

【RabbitMQ】【尚硅谷】学习笔记_rabbitmq笔记尚硅谷csdn

rabbitmq笔记尚硅谷csdn

ps:目录有点乱,待整理

RabbitMQ学习路线

什么是MQ

MQ(message queue),从字面意思上看,本质是队列,FIFO先入先出,只不过队列中存放的内容是message而已,还是一种跨进程的通信机制,用于上下游传递消息。在互联网架构中,MQ是一种非常常见的上下游“逻辑解耦+物理解耦”的消息通信服务。使用了MQ之后,消息发送上游只需要依赖MQ,不用依赖其他服务

MQ三大功能

MQ的流量削峰

举个例子,如果订单系统最多能处理一万次订单每秒,这个处理能力应付正常时段的下单绰绰有余,正常时段我们下单后就能返回结果。但是在高峰期,如果两有万次下单每秒,操作系统是处理不了的,只能限制订单超过一万后不允许用户下单。使用消息队列做缓冲,我们可以取消这个限制,把一秒内下的订单分散成一段时间来处理,这时有些用户可能在下单十几秒后收到下单成功的操作,但是比不能下单的体验要好

总结:就是在XX系统服务前加一个消息队列

MQ的应用解耦

以电商应用为例,应用中由订单系统、库存系统、物流系统、支付系统。
用户创建订单后,如果耦合调用库存系统、物流系统、支付系统,任何一个子系统出了故障,都会造成下单操作异常。当转变成基于消息队列的方式后,系统间调用的问题会减少很多,比如物流系统因为发生故障,需要几分钟来修复。在这几分钟的时间里,物流系统要处理的内存被缓存在消息队列中,用户的下单操作可以正常完成。当物流系统恢复后,继续处理订单信息即可,其中用户感受不到物流系统的故障,提升系统的可用性。

在这里插入图片描述

MQ的异步处理

有些服务间调用是异步的,例如A调用B,B需要花费很长时间执行,但是A需要知道B什么时候可以执行完,以前一般有两种方式,A过一段时间去调用B的查询方法进行查询,或者A提供一个回调方法,B执行完之后调用方法通知A服务。这两种方式都不是很优雅,使用消息总线,可以很方解决这个问题,A调用B服务后,只需要监听B处理完后的消息,当需要监听B处理完完成的消息,当B处理完成后,会发送一条消息给MQ,MQ会将此消息转给A服务。这样A服务既不用循环调用B的查询方法,也不用提供回调方法。同样B服务也不用做这些操作,A服务还能即使的得到异步处理成功的消息。

在这里插入图片描述

MQ的分类

ActiveMQ
优点:单机吞吐量万级,时效性ms级,可用性高,基于主从架构实现高可用性,不容易丢失消息
缺点:维护少,高吞吐量场景少

kafka
大数据领域杀手锏,为大数据而生,百万级TPS的吞吐量,主要作用于大数据采集、传输、存储的过程
优点:高吞吐量,时效性ms级,分布式保存数据,一个数据多个副本,不会丢失数据,消息有序可以保证消息仅被消费一次,日志成熟
缺点:社区更新慢

RocketMQ
阿里巴巴使用java实现,设计参考kafka
优点:单机吞吐量十万级,性能高,分布式架构,消息零丢失,支持10亿级消息堆积
缺点:目前仅支持java

RabbitMQ
是一个在AMQP高级消息队列协议基础上完成的,当前主流
优点:高并发特性,吞吐量达到万级,支持多语言,功能健壮,社区活跃度高
缺点:商业版收费

MQ的选择

kafka
适合大数据,大型公司,日志采集首选

RocketMQ
适用于金融互联网领域,对于可靠性要求非常高的场景,电商系统

RabbitMQ
数据量不是很大的,中小型公司

RabbitMQ的概念

RabbitMQ是一个消息中间件:它接收并转发消息。你可以把它 当作一个快递站点,当你要发送一个包裹时,你把你的包裹放到快递站,快递员最终会将你的快递送到收件人那里,按照这种逻辑RabbitMQ就是一个快递站。RabbitMQ接收,存储和转发消息数据。

四大核心概念

生产者
产生数据发送消息的程序是生产者

交换机
交换机是 RabbitMQ 非常重要的一个部件,一方面它接收来自生产者的消息,另一方面它将消息
推送到队列中。交换机必须确切知道如何处理它接收到的消息,是将这些消息推送到特定队列还是推
送到多个队列,亦或者是把消息丢弃,这个得有交换机类型决定

队列
队列是 RabbitMQ 内部使用的一种数据结构,尽管消息流经 RabbitMQ 和应用程序,但它们只能存
储在队列中。队列仅受主机的内存和磁盘限制的约束,本质上是一个大的消息缓冲区。许多生产者可
以将消息发送到一个队列,许多消费者可以尝试从一个队列接收数据。这就是我们使用队列的方式

消费者
消费与接收具有相似的含义。消费者大多时候是一个等待接收消息的程序。请注意生产者,消费
者和消息中间件很多时候并不在同一机器上。同一个应用程序既可以是生产者又是可以是消费者

原理名词解释

在这里插入图片描述Broker:接收和分发消息的应用,RabbitMQ Server就是Message Broker

Virtual host:出于多租户和安全因素设计的,把 AMQP 的基本组件划分到一个虚拟的分组中,类似于网络中的 namespace 概念。当多个不同的用户使用同一个 RabbitMQ server 提供的服务时,可以划分出多个 vhost,每个用户在自己的 vhost 创建 exchange/queue 等

Connection:publisher/consumer 和 broker 之间的 TCP 连接

Channel:如果每一次访问 RabbitMQ 都建立一个 Connection,在消息量大的时候建立 TCP Connection 的开销将是巨大的,效率也较低。Channel 是在 connection 内部建立的逻辑连接,如果应用程序支持多线程,通常每个 thread 创建单独的 channel 进行通讯,AMQP method 包含了 channel id 帮助客户端和 message broker 识别 channel,所以 channel 之间是完全隔离的。Channel 作为轻量级的Connection 极大减少了操作系统建立 TCP connection 的开销

Exchange:message 到达 broker 的第一站,根据分发规则,匹配查询表中的 routing key,分发消息到 queue 中去。常用的类型有:direct (point-to-point), topic (publish-subscribe) and fanout (multicast)

Queue:消息最终被送到这里等待 consumer 取走

Binding:exchange 和 queue 之间的虚拟连接,binding 中可以包含 routing key,Binding 信息被保存到 exchange 中的查询表中,用于 message 的分发依据

生产者代码

引入RabbitMQ依赖


<!--指定 jdk 编译版本--> 
<build>
	<plugins>
		<plugin>
			<groupId>org.apache.maven.plugins</groupId>
			<artifactId>maven-compiler-plugin</artifactId>
			<configuration>
				<source>8</source>
				<target>8</target>
			</configuration>
		</plugin>
	</plugins>
</build> 
<dependencies>
	<!--rabbitmq 依赖客户端-->
	<dependency>
		<groupId>com.rabbitmq</groupId>
		<artifactId>amqp-client</artifactId>
		<version>5.8.0</version>
	</dependency>
	<!--操作文件流的一个依赖-->
	<dependency>
		<groupId>commons-io</groupId>
		<artifactId>commons-io</artifactId>
		<version>2.6</version>
	</dependency>
</dependencies>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28

创建生产者发送消息


public class Producer {
	// 声明队列名称
	private final static String QUEUE_NAME = "hello";
	
	public static void main(String[] args) throws Exception {
	//创建一个连接工厂,设置连接IP,账号密码
		ConnectionFactory factory = new ConnectionFactory();
		factory.setHost("182.92.234.71");
		factory.setUsername("admin");
		factory.setPassword("123");
		//channel 实现了自动 close 接口 自动关闭 不需要显示关闭
		Connection connection = factory.newConnection();
		Channel channel = connection.createChannel()
		/**
		* 生成一个队列,参数含义
		* 1.队列名称
		* 2.队列里面的消息是否持久化 默认消息存储在内存中
		* 3.该队列是否只供一个消费者进行消费 是否进行共享 true 可以多个消费者消费
		* 4.是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true 自动删除
		* 5.其他参数
		*/
		channel.queueDeclare(QUEUE_NAME,false,false,false,null);
		String message="hello world";
		/**
		* 发送一个消息,参数含义
		* 1.发送到那个交换机
		* 2.路由的 key 是哪个
		* 3.其他的参数信息
		* 4.发送消息的消息体
		*/
		channel.basicPublish("",QUEUE_NAME,null,message.getBytes());
		System.out.println("消息发送完毕");
		}
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36

消费者代码


public class Consumer {
	private final static String QUEUE_NAME = "hello";
	
	public static void main(String[] args) throws Exception {
		// 创建连接工厂
		ConnectionFactory factory = new ConnectionFactory();
		factory.setHost("182.92.234.71");
		factory.setUsername("admin");
		factory.setPassword("123");
		// 创建连接
		Connection connection = factory.newConnection();
		// 从连接中获取信道
		Channel channel = connection.createChannel();
		System.out.println("等待接收消息....");
		
		//推送的消息如何进行消费的接口回调
		DeliverCallback deliverCallback=(consumerTag,delivery)->{
			String message= new String(delivery.getBody());
			System.out.println(message);
		};
		
		//取消消费的一个回调接口 如在消费的时候队列被删除掉了
		CancelCallback cancelCallback=(consumerTag)->{
			System.out.println("消息消费被中断");
		};
		
		/**
		* 消费者消费消息
		* 1.消费哪个队列
		* 2.消费成功之后是否要自动应答 true 代表自动应答 false 手动应答3
		* 3.推送的消息如何进行消费
		* 4.消费者未成功消费的回调
		*/
		channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37

工作队列原理

工作队列(又称任务队列)的主要思想是避免立即执行资源密集型任务,而不得不等待他完成。相反我们安排任务在之后执行。我们把任务封装为消息并将其发送到队列。在后台运行的工作进程将弹出任务并最终执行作业。当有多个工作线程时,这些工作线程将一起处理这些任务。

抽取连接工厂工具类


public class RabbitMqUtils {
	//得到一个连接的 channel
	public static Channel getChannel() throws Exception{
		//创建一个连接工厂
		ConnectionFactory factory = new ConnectionFactory();
		factory.setHost("182.92.234.71");
		factory.setUsername("admin");
		factory.setPassword("123");
		Connection connection = factory.newConnection();
		Channel channel = connection.createChannel();
		return channel;
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

工作线程代码


public class Worker01 {
	private static final String QUEUE_NAME="hello";
	
	public static void main(String[] args) throws Exception {
		Channel channel = RabbitMqUtils.getChannel();
		
		DeliverCallback deliverCallback=(consumerTag,delivery)->{
			String receivedMessage = new String(delivery.getBody());
			System.out.println("接收到消息:"+receivedMessage);
		};
		
		CancelCallback cancelCallback=(consumerTag)->{
			System.out.println(consumerTag+"消费者取消消费接口回调逻辑");
		};
		
		System.out.println("C1 消费者启动等待消费......");
		channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

工作队列(生产者代码)


public class Task01 {
	private static final String QUEUE_NAME="hello";
	
	public static void main(String[] args) throws Exception {
		Channel channel=RabbitMqUtils.getChannel();
		channel.queueDeclare(QUEUE_NAME,false,false,false,null);
		//从控制台当中接受信息
		Scanner scanner = new Scanner(System.in);
		while (scanner.hasNext()){
			String message = scanner.next();
			channel.basicPublish("",QUEUE_NAME,null,message.getBytes());
			System.out.println("发送消息完成:"+message);
		}
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

消息应答概念

消费者完成一个任务可能需要一段时间,如果其中一个消费者处理一个长的任务并仅只完成了部分突然它挂掉了,会发生什么情况。

RabbitMQ 一旦向消费者传递了一条消息,便立即将该消息标记为删除。在这种情况下,突然有个消费者挂掉了,我们将丢失正在处理的消息。以及后续发送给该消费者的消息,因为它无法接收到。

为了保证消息在发送过程中不丢失,rabbitmq 引入消息应答机制。

消息应答机制
消费者在接收到消息并且处理该消息之后,告诉 rabbitmq 它已经处理了,rabbitmq 可以把该消息删除了。

自动应答

消息发送后立即被认为已经传送成功,这种模式需要在高吞吐量和数据传输安全性方面做权衡,因为这种模式如果消息在接收到之前,消费者那边出现连接或者 channel 关闭,那么消息就丢失了,当然另一方面这种模式消费者那边可以传递过载的消息,没有对传递的消息数量进行限制,当然这样有可能使得消费者这边由于接收太多还来不及处理的消息,导致这些消息的积压,最终使得内存耗尽,最终这些消费者线程被操作系统杀死,所以这种模式仅适用在消费者可以高效并以某种速率能够处理这些消息的情况下使用

接收到消息就应答,当后续方法出错就导致消息丢失,所以自动应答并不安全

消息应答重新入队

如果消费者由于某些原因失去连接(其通道已关闭,连接已关闭或TCP 连接丢失),导致消息未发送 ACK 确认,RabbitMQ 将了解到消息未完全处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。

消息手动应答


public class Work03 {
	private static final String ACK_QUEUE_NAME="ack_queue";
	
	public static void main(String[] args) throws Exception {
		Channel channel = RabbitMqUtils.getChannel();
		System.out.println("C1 等待接收消息处理时间较短");
		//消息消费的时候如何处理消息
		DeliverCallback deliverCallback=(consumerTag,delivery)->{
			String message= new String(delivery.getBody());
			SleepUtils.sleep(1);
			System.out.println("接收到消息:"+message);
			/**
			* 参数:
			* 1.消息标记 tag
			* 2.是否批量应答未应答消息
			*/
			channel.basicAck(delivery.getEnvelope().getDeliveryTag(),false);
		};
		//采用手动应答
		boolean autoAck=false;
		channel.basicConsume(ACK_QUEUE_NAME,autoAck,deliverCallback,(consumerTag)->{
			System.out.println(consumerTag+"消费者取消消费接口回调逻辑");
		});
	}
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26

持久化

刚刚我们已经看到了如何处理任务不丢失的情况,但是如何保障当 RabbitMQ 服务停掉以后消息生产者发送过来的消息不丢失。默认情况下 RabbitMQ 退出或由于某种原因崩溃时,它忽视队列和消息,除非告知它不要这样做。确保消息不会丢失需要做两件事:我们需要将队列和消息都标记为持久化。

队列持久化

非持久化队列,rabbitmq 重启该队列就会被删除掉


// 持久化队列
Boolean durable=true;
channel.queueDeclare(QUEUE_NAME,false,false,false,null);
  • 1
  • 2
  • 3
  • 4

消息持久化

要想让消息实现持久化需要在消息生产者修改代码,MessageProperties.PERSISTENT_TEXT_PLAIN 添加这个属性


// 设置持久化消息,将信息保存在磁盘上
channel.basicPublish("",TASK_QUEUE_NAME,MessageProperties.PERSISTENT_TEXT_PLAIN,message.getBytes("UTF-8"));
  • 1
  • 2
  • 3

将消息标记为持久化并不能完全保证不会丢失消息。
尽管它告诉 RabbitMQ 将消息保存到磁盘,但是这里依然存在当消息刚准备存储在磁盘的时候,但是还没有存储完,消息还在缓存的一个间隔点。此时并没有真正写入磁盘。持久性保证并不强,但是对于我们的简单任务队列而言,这已经绰绰有余了。

不公平分发

对于消费者,能者多劳


int prefetchCount=1;
channel.basicQos(prefetchCount);
  • 1
  • 2
  • 3

预取值

指定消费者获取几条消息,不管消费者效率如何,初始都会按照预取值来分配

预取值指消息堆积的数量

发布确认原理

生产者将信道设置成 confirm 模式,一旦信道进入 confirm 模式,所有在该信道上面发布的消息都将会被指派一个唯一的 ID(从 1 开始),一旦消息被投递到所有匹配的队列之后,broker就会发送一个确认给生产者(包含消息的唯一 ID),这就使得生产者知道消息已经正确到达目的队列了,如果消息和队列是可持久化的,那么确认消息会在将消息写入磁盘之后发出,broker 回传给生产者的确认消息中 delivery-tag 域包含了确认消息的序列号,此外 broker 也可以设置basic.ack 的 multiple 域,表示到这个序列号之前的所有消息都已经得到了处理

confirm 模式最大的好处在于他是异步的,一旦发布一条消息,生产者应用程序就可以在等信道返回确认的同时继续发送下一条消息,当消息最终得到确认之后,生产者应用便可以通过回调方法来处理该确认消息,如果 RabbitMQ 因为自身内部错误导致消息丢失,就会发送一条 nack 消息,生产者应用程序同样可以在回调方法中处理该 nack 消息

真正的消息不丢失:
1.持久化队列(生产者端设置)
2.持久化消息(生产者端设置)
3.发布确认(生产者端设置)

开启发布确认的方法

发布确认默认是没有开启的,如果要开启需要调用方法confirmSelect,每当你要想使用发布确认,都需要在 channel 上调用该方法


Channel channel = connection.createChannel();
channel.confirmSelect();
  • 1
  • 2
  • 3

单个发布确认

发布一条,确认一条,同步确认发布的方式
缺点是发布速度慢,会有阻塞


public static void publishMessageIndividually() throws Exception {
	try (Channel channel = RabbitMqUtils.getChannel()) {
		String queueName = UUID.randomUUID().toString();
		channel.queueDeclare(queueName, false, false, false, null);
		//开启发布确认
		channel.confirmSelect();
		long begin = System.currentTimeMillis();
		for (int i = 0; i < MESSAGE_COUNT; i++) {
			String message = i + "";
			channel.basicPublish("", queueName, null, message.getBytes());
			//服务端返回 false 或超时时间内未返回,生产者可以消息重发
			boolean flag = channel.waitForConfirms();
			if(flag){
				System.out.println("消息发送成功");
			}
		}
		long end = System.currentTimeMillis();
		System.out.println("发布" + MESSAGE_COUNT + "个单独确认消息,耗时" + (end - begin) + 
		"ms");
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

批量发布确认

与单个发布确认相比,效率提高了
缺点是当发生问题时,不能精准定位问题


public static void publishMessageBatch() throws Exception {
	try (Channel channel = RabbitMqUtils.getChannel()) {
		String queueName = UUID.randomUUID().toString();
		channel.queueDeclare(queueName, false, false, false, null);
		//开启发布确认
		channel.confirmSelect();
		//批量确认消息大小
		int batchSize = 100;
		//未确认消息个数
		int outstandingMessageCount = 0;
		long begin = System.currentTimeMillis();
		for (int i = 0; i < MESSAGE_COUNT; i++) {
			String message = i + "";
			channel.basicPublish("", queueName, null, message.getBytes());
			outstandingMessageCount++;
			if (outstandingMessageCount == batchSize) {
				channel.waitForConfirms();
				outstandingMessageCount = 0;
			}
		}
		//为了确保还有剩余没有确认消息 再次确认
		if (outstandingMessageCount > 0) {
			channel.waitForConfirms();
		}
		long end = System.currentTimeMillis();
		System.out.println("发布" + MESSAGE_COUNT + "个批量确认消息,耗时" + (end - begin) + 
		"ms");
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30

异步发布确认原理

异步确认虽然编程逻辑比上两个要复杂,但是性价比最高,无论是可靠性还是效率都没得说,他是利用回调函数来达到消息可靠性传递的,这个中间件也是通过函数回调来保证是否投递成功,下面就让我们来详细讲解异步确认是怎么实现的

在这里插入图片描述

异步发布确认


public static void publishMessageAsync() throws Exception {
	try (Channel channel = RabbitMqUtils.getChannel()) {
		String queueName = UUID.randomUUID().toString();
		channel.queueDeclare(queueName, false, false, false, null);
		//开启发布确认
		channel.confirmSelect();
		/**
		* 线程安全有序的一个哈希表,适用于高并发的情况
		* 1.轻松的将序号与消息进行关联
		* 2.轻松批量删除条目 只要给到序列号
		* 3.支持并发访问
		*/
		ConcurrentSkipListMap<Long, String> outstandingConfirms = new 
		ConcurrentSkipListMap<>();
		/**
		* 消息确认成功 回调函数
		* 1.消息序列号
		* 2.true 可以确认小于等于当前序列号的消息
		* false 确认当前序列号消息
		*/
		ConfirmCallback ackCallback = (sequenceNumber, multiple) -> {
			// 如果是批量的
			if (multiple) {
				//返回的是小于等于当前序列号的未确认消息 是一个 map
				ConcurrentNavigableMap<Long, String> confirmed = 
				outstandingConfirms.headMap(sequenceNumber, true);
				//清除该部分未确认消息
				confirmed.clear();
			}else{
				//只清除当前序列号的消息
				outstandingConfirms.remove(sequenceNumber);
			}
		};
		/**
		* 消息确认失败 回调函数
		*/
		ConfirmCallback nackCallback = (sequenceNumber, multiple) -> {
			String message = outstandingConfirms.get(sequenceNumber);
			System.out.println("发布的消息"+message+"未被确认,序列号"+sequenceNumber);
		};
		/**
		* 添加一个异步确认的监听器
		* 1.确认收到消息的回调
		* 2.未收到消息的回调
		*/
		channel.addConfirmListener(ackCallback, null);
		long begin = System.currentTimeMillis();
		for (int i = 0; i < MESSAGE_COUNT; i++) {
			String message = "消息" + i;
			/**
			* channel.getNextPublishSeqNo()获取下一个消息的序列号
			* 通过序列号与消息体进行一个关联
			* 全部都是未确认的消息体
			*/
			outstandingConfirms.put(channel.getNextPublishSeqNo(), message);
			channel.basicPublish("", queueName, null, message.getBytes());
		}
		long end = System.currentTimeMillis();
		System.out.println("发布" + MESSAGE_COUNT + "个异步确认消息,耗时" + (end - begin) + 
		"ms");
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63

如何处理异步未确认消息

最好的解决的解决方案就是把未确认的消息放到一个基于内存的能被发布线程访问的队列,比如说用 ConcurrentLinkedQueue 这个队列在 confirm callbacks 与发布线程之间进行消息的传递

以上3种发布确认速度对比

单独发布消息
同步等待确认,简单,但吞吐量非常有限。
批量发布消息
批量同步等待确认,简单,合理的吞吐量,一旦出现问题但很难推断出是那条消息出现了问题。
异步处理
最佳性能和资源使用,在出现错误的情况下可以很好地控制,但是实现起来稍微难些

交换机的作用

将消息传达给多个消费者。这种模式
称为 ”发布/订阅”

RabbitMQ 消息传递模型的核心思想是: 生产者生产的消息从不会直接发送到队列。实际上,通常生产者甚至都不知道这些消息传递传递到了哪些队列中

相反,生产者只能将消息发送到交换机(exchange),交换机工作的内容非常简单,一方面它接收来自生产者的消息,另一方面将它们推入队列。交换机必须确切知道如何处理收到的消息。是应该把这些消息放到特定队列还是说把他们到许多队列中还是说应该丢弃它们。这就的由交换机的类型来决定

Exchange的类型
直接(direct)
主题(topic)
标题(headers)
扇出(fanout)
无名(默认类型)

临时队列:
无名称,不持久化


// 创建临时队列
String queueName = channel.queueDeclare().getQueue();
  • 1
  • 2
  • 3

绑定

binding 其实是 exchange 和 queue 之间的桥梁,它告诉我们 exchange 和那个队列进行了绑定关系

fanout 发布订阅模式

fanout交换机(消费者)


public class ReceiveLogs01 {
	private static final String EXCHANGE_NAME = "logs";
	public static void main(String[] argv) throws Exception {
		Channel channel = RabbitUtils.getChannel();
		channel.exchangeDeclare(EXCHANGE_NAME, "fanout");
		/**
		* 生成一个临时的队列 队列的名称是随机的
		* 当消费者断开和该队列的连接时 队列自动删除
		*/
		String queueName = channel.queueDeclare().getQueue();
		//把该临时队列绑定我们的 exchange 其中 routingkey(也称之为 binding key)为空字符串
		channel.queueBind(queueName, EXCHANGE_NAME, "");
		System.out.println("等待接收消息,把接收到的消息打印在屏幕.....");
		DeliverCallback deliverCallback = (consumerTag, delivery) -> {
			String message = new String(delivery.getBody(), "UTF-8");
			System.out.println("控制台打印接收到的消息"+message);
		};
		channel.basicConsume(queueName, true, deliverCallback, consumerTag -> { });
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21

fanout交换机(生产者)


public class EmitLog {
	private static final String EXCHANGE_NAME = "logs";
	public static void main(String[] argv) throws Exception {
		try (Channel channel = RabbitUtils.getChannel()) {
			/**
			* 声明一个 exchange
			* 1.exchange 的名称
			* 2.exchange 的类型
			*/
			channel.exchangeDeclare(EXCHANGE_NAME, "fanout");
			Scanner sc = new Scanner(System.in);
			System.out.println("请输入信息");
			while (sc.hasNext()) {
				String message = sc.nextLine();
				channel.basicPublish(EXCHANGE_NAME, "", null, message.getBytes("UTF-8"));
				System.out.println("生产者发出消息" + message);
			}
		}
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21

direct交换机

直接交换机,一对一
但是它绑定的多个队列的 key 如果都相同,在这种情况下虽然绑定类型是 direct 但是它表现的就和 fanout 有点类似了,就跟广播差不多

direct交换机(消费者)


public class ReceiveLogsDirect02 {
	private static final String EXCHANGE_NAME = "direct_logs";
	public static void main(String[] argv) throws Exception {
		Channel channel = RabbitUtils.getChannel();
		channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);
		String queueName = "console";
		channel.queueDeclare(queueName, false, false, false, null);
		channel.queueBind(queueName, EXCHANGE_NAME, "info");
		channel.queueBind(queueName, EXCHANGE_NAME, "warning");
		System.out.println("等待接收消息.....");
		DeliverCallback deliverCallback = (consumerTag, delivery) -> {
			String message = new String(delivery.getBody(), "UTF-8");
			System.out.println(" 接收绑定键 :"+delivery.getEnvelope().getRoutingKey()+", 消 息:"+message);
		};
		channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {
		});
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

direct交换机(生产者)


public class EmitLogDirect {
	private static final String EXCHANGE_NAME = "direct_logs";
	public static void main(String[] argv) throws Exception {
		try (Channel channel = RabbitUtils.getChannel()) {
			channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);
			//创建多个 bindingKey
			Map<String, String> bindingKeyMap = new HashMap<>();
			bindingKeyMap.put("info","普通 info 信息");
			bindingKeyMap.put("warning","警告 warning 信息");
			bindingKeyMap.put("error","错误 error 信息");
			//debug 没有消费这接收这个消息 所有就丢失了
			bindingKeyMap.put("debug","调试 debug 信息");
			for (Map.Entry<String, String> bindingKeyEntry: bindingKeyMap.entrySet()){
				String bindingKey = bindingKeyEntry.getKey();
				String message = bindingKeyEntry.getValue();
				channel.basicPublish(EXCHANGE_NAME,bindingKey, null, 
				message.getBytes("UTF-8"));
				System.out.println("生产者发出消息:" + message);
		}
		}
	}
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

Topic交换机

发送到类型是 topic 交换机的消息的 routing_key 不能随意写,必须满足一定的要求,它必须是一个单词列表,以点号分隔开。这些单词可以是任意单词,比如说:“stock.usd.nyse”, “nyse.vmw”,
“quick.orange.rabbit”.这种类型的。当然这个单词列表最多不能超过 255 个字节。

在这个规则列表中,其中有两个替换符是大家需要注意的
*(星号)可以代替一个单词
#(井号)可以替代零个或多个单词

当一个队列绑定键是#,那么这个队列将接收所有数据,就有点像 fanout 了
如果队列绑定键当中没有#和*出现,那么该队列绑定类型就是 direct 了

Topic交换机(消费者)


public class ReceiveLogsTopic02 {
	private static final String EXCHANGE_NAME = "topic_logs";
	
	public static void main(String[] argv) throws Exception {
		Channel channel = RabbitUtils.getChannel();
		channel.exchangeDeclare(EXCHANGE_NAME, "topic");
		//声明 Q2 队列与绑定关系
		String queueName="Q2";
		channel.queueDeclare(queueName, false, false, false, null);
		channel.queueBind(queueName, EXCHANGE_NAME, "*.*.rabbit");
		channel.queueBind(queueName, EXCHANGE_NAME, "lazy.#");
		System.out.println("等待接收消息.....");
		DeliverCallback deliverCallback = (consumerTag, delivery) -> {
			String message = new String(delivery.getBody(), "UTF-8");
			System.out.println(" 接收队列 :"+queueName+" 绑 定
			键:"+delivery.getEnvelope().getRoutingKey()+",消息:"+message);
		};
		channel.basicConsume(queueName, true, deliverCallback, consumerTag -> {
		});
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

Topic交换机(生产者)


public class EmitLogTopic {
	private static final String EXCHANGE_NAME = "topic_logs";
	
	public static void main(String[] argv) throws Exception {
		try (Channel channel = RabbitUtils.getChannel()) {
			channel.exchangeDeclare(EXCHANGE_NAME, "topic");
			/**
			* Q1-->绑定的是
			* 中间带 orange 带 3 个单词的字符串(*.orange.*)
			* Q2-->绑定的是
			* 最后一个单词是 rabbit 的 3 个单词(*.*.rabbit)
			* 第一个单词是 lazy 的多个单词(lazy.#)
			*
			*/
			Map<String, String> bindingKeyMap = new HashMap<>();
			bindingKeyMap.put("quick.orange.rabbit","被队列 Q1Q2 接收到");
			bindingKeyMap.put("lazy.orange.elephant","被队列 Q1Q2 接收到");
			bindingKeyMap.put("quick.orange.fox","被队列 Q1 接收到");
			bindingKeyMap.put("lazy.brown.fox","被队列 Q2 接收到");
			bindingKeyMap.put("lazy.pink.rabbit","虽然满足两个绑定但只被队列 Q2 接收一次");
			bindingKeyMap.put("quick.brown.fox","不匹配任何绑定不会被任何队列接收到会被丢弃");
			bindingKeyMap.put("quick.orange.male.rabbit","是四个单词不匹配任何绑定会被丢弃");
			bindingKeyMap.put("lazy.orange.male.rabbit","是四个单词但匹配 Q2");
			for (Map.Entry<String, String> bindingKeyEntry: bindingKeyMap.entrySet()){
				String bindingKey = bindingKeyEntry.getKey();
				String message = bindingKeyEntry.getValue();
				channel.basicPublish(EXCHANGE_NAME,bindingKey, null, 
				message.getBytes("UTF-8"));
				System.out.println("生产者发出消息" + message);
			}
		} 
	}
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34

死信队列

先从概念解释上搞清楚这个定义,死信,顾名思义就是无法被消费的消息,字面意思可以这样理解,一般来说,producer 将消息投递到 broker 或者直接到 queue 里了,consumer 从 queue 取出消息
进行消费,但某些时候由于特定的原因导致 queue 中的某些消息无法被消费,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。

应用场景:

  • 为了保证订单业务的消息数据不丢失,需要使用到 RabbitMQ 的死信队列机制,当消息消费发生异常时,将消息投入死信队列中
  • 用户在商城下单成功并点击去支付后在指定时
    间未支付时自动失效

死信的来源
消息 TTL(存活时间) 过期
队列达到最大长度(队列满了,无法再添加数据到 mq 中)
消息被拒绝(basic.reject 或 basic.nack)并且不放回队列中 (requeue=false)

死信实战(消费者1)


public class Consumer01 {
	//普通交换机名称
	private static final String NORMAL_EXCHANGE = "normal_exchange";
	//死信交换机名称
	private static final String DEAD_EXCHANGE = "dead_exchange";
	//普通队列
	private static final String NORMAL_QUEUE = "normal_queue";
	//死信队列
	private static final String DEAD_QUEUE = "dead_queue";

	public static void main(String[] argv) throws Exception {
		Channel channel = RabbitUtils.getChannel();
		//声明死信和普通交换机 类型为 direct
		channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
		channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
		channel.queueDeclare(DEAD_QUEUE, false, false, false, null);
		//死信队列绑定死信交换机与 routingkey
		channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE, "lisi");
		//正常队列绑定死信队列信息
		Map<String, Object> params = new HashMap<>();
		//正常队列设置死信交换机 参数 key 是固定值
		params.put("x-dead-letter-exchange", DEAD_EXCHANGE);
		//正常队列设置死信 routing-key 参数 key 是固定值
		params.put("x-dead-letter-routing-key", "lisi");
		
		channel.queueDeclare(NORMAL_QUEUE, false, false, false, params);
		//绑定普通的交换机与普通的队列
		channel.queueBind(NORMAL_QUEUE, NORMAL_EXCHANGE, "zhangsan");
		//绑定死信的交换机与死信的队列
		channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE, "lisi");
		System.out.println("等待接收消息.....");
		DeliverCallback deliverCallback = (consumerTag, delivery) -> {
			String message = new String(delivery.getBody(), "UTF-8");
			System.out.println("Consumer01 接收到消息"+message);
		};
		channel.basicConsume(normalQueue, true, deliverCallback, consumerTag -> {
		});
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40

死信实战(生产者)


public class Producer {
	private static final String NORMAL_EXCHANGE = "normal_exchange";
	public static void main(String[] argv) throws Exception {
		try (Channel channel = RabbitMqUtils.getChannel()) {
			channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
			//设置消息的 TTL 时间
			AMQP.BasicProperties properties = new 
			AMQP.BasicProperties().builder().expiration("10000").build();
			//该信息是用作演示队列个数限制
			for (int i = 1; i <11 ; i++) {
				String message="info"+i;
				channel.basicPublish(NORMAL_EXCHANGE, "zhangsan", properties, 
				message.getBytes());
				System.out.println("生产者发送消息:"+message);
			}
		}
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

死信实战(消费者2)


private static final String DEAD_EXCHANGE = "dead_exchange";
public static void main(String[] argv) throws Exception {
	Channel channel = RabbitUtils.getChannel();
	System.out.println("等待接收死信队列消息.....");
	DeliverCallback deliverCallback = (consumerTag, delivery) -> {
		String message = new String(delivery.getBody(), "UTF-8");
		System.out.println("Consumer02 接收死信队列的消息" + message);
	};
	channel.basicConsume(deadQueue, true, deliverCallback, consumerTag -> {});
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

死信实战(队列达到最大长度)

在消费者,设置正常队列的长度限制


//正常队列绑定死信队列信息
Map<String, Object> params = new HashMap<>();
//正常队列设置死信交换机 参数 key 是固定值
params.put("x-dead-letter-exchange", DEAD_EXCHANGE);
//正常队列设置死信 routing-key 参数 key 是固定值
params.put("x-dead-letter-routing-key", "lisi");
//设置队列的长度限制是6
params.put("x-max-length", 6);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

当发送消息时,超过6条后就会发到死信队列

死信实战(消息被拒)


public class Consumer01 {
	//普通交换机名称
	private static final String NORMAL_EXCHANGE = "normal_exchange";
	//死信交换机名称
	private static final String DEAD_EXCHANGE = "dead_exchange";
	public static void main(String[] argv) throws Exception {
		Channel channel = RabbitUtils.getChannel();
		//声明死信和普通交换机 类型为 direct
		channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
		channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
		//声明死信队列
		String deadQueue = "dead-queue";
		channel.queueDeclare(deadQueue, false, false, false, null);
		//死信队列绑定死信交换机与 routingkey
		channel.queueBind(deadQueue, DEAD_EXCHANGE, "lisi");
		//正常队列绑定死信队列信息
		Map<String, Object> params = new HashMap<>();
		//正常队列设置死信交换机 参数 key 是固定值
		params.put("x-dead-letter-exchange", DEAD_EXCHANGE);
		//正常队列设置死信 routing-key 参数 key 是固定值
		params.put("x-dead-letter-routing-key", "lisi");
		String normalQueue = "normal-queue";
		channel.queueDeclare(normalQueue, false, false, false, params);
		channel.queueBind(normalQueue, NORMAL_EXCHANGE, "zhangsan");
		System.out.println("等待接收消息.....");
		DeliverCallback deliverCallback = (consumerTag, delivery) -> {
			String message = new String(delivery.getBody(), "UTF-8");
			if(message.equals("info5")){
				System.out.println("Consumer01 接收到消息" + message + "并拒绝签收该消息");
				//requeue 设置为 false 代表拒绝重新入队 该队列如果配置了死信交换机将发送到死信队列中
				channel.basicReject(delivery.getEnvelope().getDeliveryTag(), false);
			}else {
				System.out.println("Consumer01 接收到消息"+message);
				channel.basicAck(delivery.getEnvelope().getDeliveryTag(), false);
			}
		};
		boolean autoAck = false;
		channel.basicConsume(normalQueue, autoAck, deliverCallback, consumerTag -> {});
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41

延迟队列

延时(有效期)队列,队列内部是有序的,最重要的特性就体现在它的延时属性上,延时队列中的元素是希望在指定时间到了以后或之前取出和处理,简单来说,延时队列就是用来存放需要在指定时间被处理的
元素的队列

延迟队列使用场景
1.订单在十分钟之内未支付则自动取消
2.新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。
3.用户注册成功后,如果三天内没有登陆则进行短信提醒。
4.用户发起退款,如果三天内没有得到处理则通知相关运营人员。
5.预定会议后,需要在预定的时间点前十分钟通知各个与会人员参加会议

TTL

表明一条消息或者该队列中的所有消息的最大存活时间(有效时间)


//消息设置TTL
correlationData.getMessageProperties().setExpiration(ttlTime);
//队列设置TTL,设置队列的’x-message-ttl‘属性
args.put("x-message-ttl",5000);
  • 1
  • 2
  • 3
  • 4
  • 5

队列的 TTL 属性,那么一旦消息过期,就会被队列丢弃(如果配置了死信队列被丢到死信队列中)

消息TTL属性,不一定会被马上丢弃,消息是否过期是在即将投递到消费者之前判定的,如果当前队列有严重的消息积压情况,则已过期的消息也许还能存活较长时间

整合SpringBoot

pom添加依赖


<dependencies>
	<!--RabbitMQ 依赖-->
	<dependency>
		<groupId>org.springframework.boot</groupId>
		<artifactId>spring-boot-starter-amqp</artifactId>
	</dependency>
	<dependency>
		<groupId>org.springframework.boot</groupId>
		<artifactId>spring-boot-starter-web</artifactId>
	</dependency>
	<dependency>
		<groupId>org.springframework.boot</groupId>
		<artifactId>spring-boot-starter-test</artifactId>
		<scope>test</scope>
	</dependency>
	<dependency>
		<groupId>com.alibaba</groupId>
		<artifactId>fastjson</artifactId>
		<version>1.2.47</version>
	</dependency>
	<dependency>
		<groupId>org.projectlombok</groupId>
		<artifactId>lombok</artifactId>
	</dependency>
	<!--swagger-->
	<dependency>
		<groupId>io.springfox</groupId>
		<artifactId>springfox-swagger2</artifactId>
		<version>2.9.2</version>
	</dependency>
	<dependency>
		<groupId>io.springfox</groupId>
		<artifactId>springfox-swagger-ui</artifactId>
		<version>2.9.2</version>
	</dependency>
	<!--RabbitMQ 测试依赖-->
	<dependency>
		<groupId>org.springframework.amqp</groupId>
		<artifactId>spring-rabbit-test</artifactId>
		<scope>test</scope>
	</dependency>
</dependencies>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43

application.yml添加rabbitmq配置


spring.rabbitmq.host=182.92.234.71
spring.rabbitmq.port=5672
spring.rabbitmq.username=admin
spring.rabbitmq.password=123
  • 1
  • 2
  • 3
  • 4
  • 5

队列TTL

队列TTL(配置类代码)


@Configuration
public class TtlQueueConfig {
	public static final String X_EXCHANGE = "X";
	public static final String QUEUE_A = "QA";
	public static final String QUEUE_B = "QB";
	public static final String Y_DEAD_LETTER_EXCHANGE = "Y";
	public static final String DEAD_LETTER_QUEUE = "QD";
	// 声明 xExchange
	@Bean("xExchange")
	public DirectExchange xExchange(){
		return new DirectExchange(X_EXCHANGE);
	}
	// 声明 xExchange
	@Bean("yExchange")
	public DirectExchange yExchange(){
		return new DirectExchange(Y_DEAD_LETTER_EXCHANGE);
	}
	//声明队列 A ttl 为 10s 并绑定到对应的死信交换机
	@Bean("queueA")
	public Queue queueA(){
		Map<String, Object> args = new HashMap<>(3);
		//声明当前队列绑定的死信交换机
		args.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);
		//声明当前队列的死信路由 key
		args.put("x-dead-letter-routing-key", "YD");
		//声明队列的 TTL
		args.put("x-message-ttl", 10000);
		return QueueBuilder.durable(QUEUE_A).withArguments(args).build();
	}
	// 声明队列 A 绑定 X 交换机
	@Bean
	public Binding queueaBindingX(@Qualifier("queueA") Queue queueA,
	@Qualifier("xExchange") DirectExchange xExchange){
		return BindingBuilder.bind(queueA).to(xExchange).with("XA");
	}
	//声明队列 B ttl 为 40s 并绑定到对应的死信交换机
	@Bean("queueB")
	public Queue queueB(){
		Map<String, Object> args = new HashMap<>(3);
		//声明当前队列绑定的死信交换机
		args.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);
		//声明当前队列的死信路由 key
		args.put("x-dead-letter-routing-key", "YD");
		//声明队列的 TTL
		args.put("x-message-ttl", 40000);
		return QueueBuilder.durable(QUEUE_B).withArguments(args).build();
	}
	//声明队列 B 绑定 X 交换机
	@Bean
	public Binding queuebBindingX(@Qualifier("queueB") Queue queue1B,
	@Qualifier("xExchange") DirectExchange xExchange){
		return BindingBuilder.bind(queue1B).to(xExchange).with("XB");
	}
	//声明死信队列 QD
	@Bean("queueD")
	public Queue queueD(){
		return new Queue(DEAD_LETTER_QUEUE);
	}
	//声明死信队列 QD 绑定关系
	@Bean
	public Binding deadLetterBindingQAD(@Qualifier("queueD") Queue queueD,
	@Qualifier("yExchange") DirectExchange yExchange){
		return BindingBuilder.bind(queueD).to(yExchange).with("YD");
	}
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66

队列TTL(生产者)


@Slf4j
@RequestMapping("ttl")
@RestController
public class SendMsgController {
	@Autowired
	private RabbitTemplate rabbitTemplate;
	
	@GetMapping("sendMsg/{message}")
	public void sendMsg(@PathVariable String message){
		log.info("当前时间:{},发送一条信息给两个 TTL 队列:{}", new Date(), message);
		rabbitTemplate.convertAndSend("X", "XA", "消息来自 ttl 为 10S 的队列: "+message);
		rabbitTemplate.convertAndSend("X", "XB", "消息来自 ttl 为 40S 的队列: "+message);
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

队列TTL(消费者)


@Slf4j
@Component
public class DeadLetterQueueConsumer {
	@RabbitListener(queues = "QD")
	public void receiveD(Message message, Channel channel) throws IOException {
		String msg = new String(message.getBody());
		log.info("当前时间:{},收到死信队列信息{}", new Date().toString(), msg);
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

延迟队列优化

延迟队列优化(配置类代码)


@Component
public class MsgTtlQueueConfig {
	public static final String Y_DEAD_LETTER_EXCHANGE = "Y";
	public static final String QUEUE_C = "QC";
	
	//声明队列 C 死信交换机
	@Bean("queueC")
	public Queue queueB(){
		Map<String, Object> args = new HashMap<>(3);
		//声明当前队列绑定的死信交换机
		args.put("x-dead-letter-exchange", Y_DEAD_LETTER_EXCHANGE);
		//声明当前队列的死信路由 key
		args.put("x-dead-letter-routing-key", "YD");
		//没有声明 TTL 属性
		return QueueBuilder.durable(QUEUE_C).withArguments(args).build();
	}
	
	//声明队列 B 绑定 X 交换机
	@Bean
	public Binding queuecBindingX(@Qualifier("queueC") Queue queueC,
	@Qualifier("xExchange") DirectExchange xExchange){
		return BindingBuilder.bind(queueC).to(xExchange).with("XC");
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

延迟队列优化(生产者)


@GetMapping("sendExpirationMsg/{message}/{ttlTime}")
public void sendMsg(@PathVariable String message,@PathVariable String ttlTime) {
	rabbitTemplate.convertAndSend("X", "XC", message, correlationData ->{
		correlationData.getMessageProperties().setExpiration(ttlTime);
		return correlationData;
	});
	log.info("当前时间:{},发送一条时长{}毫秒 TTL 信息给队列 C:{}", new Date(),ttlTime, message);
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

延迟队列(基于死信存在问题)

在这里插入图片描述
看起来似乎没什么问题,但是在最开始的时候,就介绍过如果使用在消息属性上设置 TTL 的方式,消息可能并不会按时“死亡“,因为** RabbitMQ 只会检查第一个消息是否过期,如果过期则丢到死信队列,如果第一个消息的延时时长很长,而第二个消息的延时时长很短,第二个消息并不会优先得到执行**

延迟队列(基于插件的)

上文中提到的问题,确实是一个问题,如果不能实现在消息粒度上的 TTL,并使其在设置的 TTL 时间及时死亡,就无法设计成一个通用的延时队列。那如何解决呢,接下来我们就去解决该问题

安装延时队列插件
rabbitmq_delayed_message_exchange

基于插件的延迟队列(配置类)

在我们自定义的交换机中,这是一种新的交换类型,该类型消息支持延迟投递机制 消息传递后并不会立即投递到目标队列中,而是存储在 mnesia(一个分布式数据系统)表中,当达到投递时间时,才投递到目标队列中


@Configuration
public class DelayedQueueConfig {
	public static final String DELAYED_QUEUE_NAME = "delayed.queue";
	public static final String DELAYED_EXCHANGE_NAME = "delayed.exchange";
	public static final String DELAYED_ROUTING_KEY = "delayed.routingkey";
	
	@Bean
	public Queue delayedQueue() {
		return new Queue(DELAYED_QUEUE_NAME);
	}
	//自定义交换机 我们在这里定义的是一个延迟交换机
	@Bean
	public CustomExchange delayedExchange() {
		Map<String, Object> args = new HashMap<>();
		//自定义交换机的类型
		args.put("x-delayed-type", "direct");
		return new CustomExchange(DELAYED_EXCHANGE_NAME, "x-delayed-message", true, false, 
		args);
	}
	@Bean
	public Binding bindingDelayedQueue(@Qualifier("delayedQueue") Queue queue,
	@Qualifier("delayedExchange") CustomExchange 
	delayedExchange) {
		return 
		BindingBuilder.bind(queue).to(delayedExchange).with(DELAYED_ROUTING_KEY).noargs();
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28

基于插件的延迟队列(生产者)


public static final String DELAYED_EXCHANGE_NAME = "delayed.exchange";
public static final String DELAYED_ROUTING_KEY = "delayed.routingkey";
@GetMapping("sendDelayMsg/{message}/{delayTime}")
public void sendMsg(@PathVariable String message,@PathVariable Integer delayTime) {
	rabbitTemplate.convertAndSend(DELAYED_EXCHANGE_NAME, DELAYED_ROUTING_KEY, message, 
	correlationData ->{
		correlationData.getMessageProperties().setDelay(delayTime);
		return correlationData;
	});
	log.info(" 当 前 时 间 : {}, 发送一条延迟 {} 毫秒的信息给队列 delayed.queue:{}", new 
	Date(),delayTime, message);
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

基于插件的延迟队列(消费者)


public static final String DELAYED_QUEUE_NAME = "delayed.queue";
@RabbitListener(queues = DELAYED_QUEUE_NAME)
public void receiveDelayedQueue(Message message){
	String msg = new String(message.getBody());
	log.info("当前时间:{},收到延时队列的消息:{}", new Date().toString(), msg);
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

总结

延时队列在需要延时处理的场景下非常有用,使用 RabbitMQ 来实现延时队列可以很好的利用RabbitMQ 的特性,如:消息可靠发送、消息可靠投递、死信队列来保障消息至少被消费一次以及未被正确处理的消息不会被丢弃。另外,通过 RabbitMQ 集群的特性,可以很好的解决单点故障问题,不会因为单个节点挂掉导致延时队列不可用或者消息丢失。

当然,延时队列还有很多其它选择,比如利用 Java 的 DelayQueue,利用Redis 的 zset,利用 Quartz或者利用 kafka 的时间轮,这些方式各有特点,看需要适用的场景

发布确认高级

在生产环境中由于一些不明原因,导致 rabbitmq 重启,在 RabbitMQ 重启期间生产者消息投递失败,导致消息丢失,需要手动处理和恢复。于是,我们开始思考,如何才能进行 RabbitMQ 的消息可靠投递呢?特别是在这样比较极端的情况,RabbitMQ 集群不可用的时候,无法投递的消息该如何处理呢

发布确认高级(配置类)

application.yml文件修改

spring.rabbitmq.publisher-confirm-type=correlated


NONE:禁用发布确认模式,是默认值
CORRELATED:发布消息成功到交换器后会触发回调方法
SIMPLE:同步确认,会有关闭信道的风险
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

@Configuration
public class ConfirmConfig {
	public static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";
	public static final String CONFIRM_QUEUE_NAME = "confirm.queue";
	
	//声明业务 Exchange
	@Bean("confirmExchange")
	public DirectExchange confirmExchange(){
		return new DirectExchange(CONFIRM_EXCHANGE_NAME);
	}
	
	// 声明确认队列
	@Bean("confirmQueue")
	public Queue confirmQueue(){
		return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build();
	}
	
	// 声明确认队列绑定关系
	@Bean
	public Binding queueBinding(@Qualifier("confirmQueue") Queue queue,
	@Qualifier("confirmExchange") DirectExchange exchange){
		return BindingBuilder.bind(queue).to(exchange).with("key1");
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

发布确认高级(生产者)


@RestController
@RequestMapping("/confirm")
@Slf4j
public class Producer {
	public static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";
	@Autowired
	private RabbitTemplate rabbitTemplate;


	@GetMapping("sendMessage/{message}")
	public void sendMessage(@PathVariable String message){
		//指定消息 id 为 1
		CorrelationData correlationData1=new CorrelationData("1");
		String routingKey="key1";
		
		rabbitTemplate.convertAndSend(CONFIRM_EXCHANGE_NAME,routingKey,
									message+routingKey,correlationData1);
		CorrelationData correlationData2=new CorrelationData("2");
		routingKey="key2";
		
		rabbitTemplate.convertAndSend(CONFIRM_EXCHANGE_NAME,routingKey,
									message+routingKey,correlationData2);
		log.info("发送消息内容:{}",message);
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26

发布确认高级(回调接口)


@Component
@Slf4j
public class MyCallBack implements RabbitTemplate.ConfirmCallback {
	
	@Autowirted
	private RabbitTemplate rabbitTemplate;

	@PostConstruct
	public void init(){
		rabbitTemplate.setConfirmCallback(this);
	}

	/**
	* 交换机不管是否收到消息的一个回调方法
	* CorrelationData 消息相关数据
	* ack 交换机是否收到消息true、false
	* cause 失败原因
	*/
	@Override
	public void confirm(CorrelationData correlationData, boolean ack, String cause) {
		String id=correlationData!=null?correlationData.getId():"";
		if(ack){
			log.info("交换机已经收到 id 为:{}的消息",id);
		}else{
			log.info("交换机还未收到 id 为:{}消息,由于原因:{}",id,cause);
		}
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29

发布确认高级(消费者)


@Component
@Slf4j
public class ConfirmConsumer {
	public static final String CONFIRM_QUEUE_NAME = "confirm.queue";
	
	@RabbitListener(queues =CONFIRM_QUEUE_NAME)
	public void receiveMsg(Message message){
		String msg=new String(message.getBody());
		log.info("接受到队列 confirm.queue 消息:{}",msg);
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

发布确认高级(回退消息)

在仅开启了生产者确认机制的情况下,交换机接收到消息后,会直接给消息生产者发送确认消息,如果发现该消息不可路由,那么消息会被直接丢弃,此时生产者是不知道消息被丢弃这个事件的。那么如何让无法被路由的消息帮我想办法处理一下?最起码通知我一声,我好自己处理啊。通过设置 mandatory 参数可以在当消息传递过程中不可达目的地时将消息返回给生产者

application.yml

spring.rabbitmq.publisher-returns=true
  • 1

生产者


@Slf4j
@Component
public class MessageProducer implements RabbitTemplate.ConfirmCallback , 
RabbitTemplate.ReturnCallback {
	@Autowired
	private RabbitTemplate rabbitTemplate;
	//rabbitTemplate 注入之后就设置该值
	@PostConstruct
	private void init() {
		rabbitTemplate.setConfirmCallback(this);
		/**
		* true:
		* 交换机无法将消息进行路由时,会将该消息返回给生产者
		* false:
		* 如果发现消息无法进行路由,则直接丢弃
		*/
		rabbitTemplate.setMandatory(true);
		//设置回退消息交给谁处理
		rabbitTemplate.setReturnCallback(this);
	}
	@GetMapping("sendMessage")
	public void sendMessage(String message){
		//让消息绑定一个 id 值
		CorrelationData correlationData1 = new CorrelationData(UUID.randomUUID().toString());
		
		rabbitTemplate.convertAndSend("confirm.exchange","key1",message+"key1",correlationData1)
		;
		log.info("发送消息 id 为:{}内容为{}",correlationData1.getId(),message+"key1");
		CorrelationData correlationData2 = new CorrelationData(UUID.randomUUID().toString());
		
		rabbitTemplate.convertAndSend("confirm.exchange","key2",message+"key2",correlationData2)
		;
		log.info("发送消息 id 为:{}内容为{}",correlationData2.getId(),message+"key2");
	}
	
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37

回调接口


@Component
@Slf4j
public class MyCallBack implements 
RabbitTemplate.ConfirmCallback,RabbitTemplate.ReturnCallback {
	/**
	* 交换机不管是否收到消息的一个回调方法
	* CorrelationData
	* 消息相关数据
	* ack
	* 交换机是否收到消息
	*/
	@Override
	public void confirm(CorrelationData correlationData, boolean ack, String cause) {
		String id=correlationData!=null?correlationData.getId():"";
		if(ack){
			log.info("交换机已经收到 id 为:{}的消息",id);
		}else{
			log.info("交换机还未收到 id 为:{}消息,由于原因:{}",id,cause);
		}
	}
	//可以在当消息传递过程中不可达目的地时,将消息返回给生产者
	//只有不可达目的地的时候才会回退
	@Override
	public void returnedMessage(Message message, int replyCode, String replyText, String 
	exchange, String routingKey) {
		log.error(" 消 息 {}, 被交换机 {} 退回,退回原因 :{}, 路 由 key:{}",new 
		String(message.getBody()),exchange,replyText,routingKey);
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30

备份交换机

RabbitMQ 中交换机的“备胎”,当我们为某一个交换机声明一个对应的备份交换机时,就是为它创建一个备胎,当交换机接收到一条不可路由消息时,将会把这条消息转发到备份交换机中,由备份交换机来进行转发和处理,通常备份交换机的类型为 Fanout ,这样就能把所有消息都投递到与其绑定的队列中,然后我们在备份交换机下绑定一个队列,这样所有那些原交换机无法被路由的消息,就会都进入这个队列了。当然,我们还可以建立一个报警队列,用独立的消费者来进行监测和报警

在这里插入图片描述

备份交换机(配置类)


@Configuration
public class ConfirmConfig {
	public static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";
	public static final String CONFIRM_QUEUE_NAME = "confirm.queue";
	public static final String BACKUP_EXCHANGE_NAME = "backup.exchange";
	public static final String BACKUP_QUEUE_NAME = "backup.queue";
	public static final String WARNING_QUEUE_NAME = "warning.queue";
	// 声明确认队列
	@Bean("confirmQueue")
	public Queue confirmQueue(){
		return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build();
	}
	//声明确认队列绑定关系
	@Bean
	public Binding queueBinding(@Qualifier("confirmQueue") Queue queue,
	@Qualifier("confirmExchange") DirectExchange exchange){
		return BindingBuilder.bind(queue).to(exchange).with("key1");
	}
	//声明备份 Exchange
	@Bean("backupExchange")
	public FanoutExchange backupExchange(){
		return new FanoutExchange(BACKUP_EXCHANGE_NAME);
	}
	//声明确认 Exchange 交换机的备份交换机
	@Bean("confirmExchange")
	public DirectExchange confirmExchange(){
		ExchangeBuilder exchangeBuilder =
		ExchangeBuilder.directExchange(CONFIRM_EXCHANGE_NAME)
		.durable(true)
		//设置该交换机的备份交换机
		.withArgument("alternate-exchange", BACKUP_EXCHANGE_NAME);
		return (DirectExchange)exchangeBuilder.build();
	}
	// 声明警告队列
	@Bean("warningQueue")
	public Queue warningQueue(){
		return QueueBuilder.durable(WARNING_QUEUE_NAME).build();
	}
	// 声明报警队列绑定关系
	@Bean
	public Binding warningBinding(@Qualifier("warningQueue") Queue queue,
	@Qualifier("backupExchange") FanoutExchange 
	backupExchange){
		return BindingBuilder.bind(queue).to(backupExchange);
	}
	// 声明备份队列
	@Bean("backQueue")
	public Queue backQueue(){
		return QueueBuilder.durable(BACKUP_QUEUE_NAME).build();
	}
	// 声明备份队列绑定关系
	@Bean
	public Binding backupBinding(@Qualifier("backQueue") Queue queue,
	@Qualifier("backupExchange") FanoutExchange backupExchange){
		return BindingBuilder.bind(queue).to(backupExchange);
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58

备份交换机(消费者)


@Component
@Slf4j
public class WarningConsumer {
	public static final String WARNING_QUEUE_NAME = "warning.queue";
	@RabbitListener(queues = WARNING_QUEUE_NAME)
	public void receiveWarningMsg(Message message) {
		String msg = new String(message.getBody());
		log.error("报警发现不可路由消息:{}", msg);
	} 
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

回退与备份交换机可以一起使用的时候,如果两者同时开启,消息究竟何去何从?谁优先级高,经过上面结果显示答案是备份交换机优先级高

其他知识点(幂等性)

用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用。
举个最简单的例子,那就是支付,用户购买商品后支付,支付扣款成功,但是返回结果的时候网络异常,此时钱已经扣了,用户再次点击按钮,此时会进行第二次扣款,返回结果成功,用户查询余额发现多扣钱了,流水记录也变成了两条。在以前的单应用系统中,我们只需要把数据操作放入事务中即可,发生错误立即回滚,但是再响应客户端的时候也有可能出现网络中断或者异常等等

幂等性简单的说就是短时间内重复提交

重复消费
消费者在消费 MQ 中的消息时,MQ 已把消息发送给消费者,消费者在给 MQ 返回 ack 时网络中断,故 MQ 未收到确认信息,该条消息会重新发给其他的消费者,或者在网络重连后再次发送给该消费者,但实际上该消费者已成功消费了该条消息,造成消费者消费了重复的消息

解决思路
MQ 消费者的幂等性的解决一般使用全局 ID 或者写个唯一标识比如时间戳 或者 UUID 或者订单消费者消费 MQ 中的消息也可利用 MQ 的该 id 来判断,或者可按自己的规则生成一个全局唯一 id,每次消费消息时用该 id 先判断该消息是否已消费过

消费端的幂等性保障
在海量订单生成的业务高峰期,生产端有可能就会重复发生了消息,这时候消费端就要实现幂等性,这就意味着我们的消息永远不会被消费多次,即使我们收到了一样的消息。业界主流的幂等性有两种操作:
a.唯一 ID+指纹码机制,利用数据库主键去重
b.利用 redis 的原子性去实现

唯一 ID+指纹码机制
指纹码:我们的一些规则或者时间戳加别的服务给到的唯一信息码,它并不一定是我们系统生成的,基本都是由我们的业务规则拼接而来,但是一定要保证唯一性,然后就利用查询语句进行判断这个 id 是否存在数据库中,优势就是实现简单就一个拼接,然后查询判断是否重复;劣势就是在高并发时,如果是单个数
据库就会有写入性能瓶颈当然也可以采用分库分表提升性能,但也不是我们最推荐的方式

edis 的原子性
利用 redis 执行 setnx 命令,天然具有幂等性。从而实现不重复消费

优化级队列(使用场景)

在我们系统中有一个订单催付的场景,我们的客户在天猫下的订单,淘宝会及时将订单推送给我们,如果在用户设定的时间内未付款那么就会给用户推送一条短信提醒,很简单的一个功能对吧,但是,tmall商家对我们来说,肯定是要分大客户和小客户的对吧,比如像苹果,小米这样大商家一年起码能给我们创造很大的利润,所以理应当然,他们的订单必须得到优先处理,而曾经我们的后端系统是使用 redis 来存放的定时轮询,大家都知道 redis 只能用 List 做一个简简单单的消息队列,并不能实现一个优先级的场景,所以订单量大了后采用 RabbitMQ 进行改造和优化,如果发现是大客户的订单给一个相对比较高的优先级,否则就是默认优先级

优化级队列(代码实现)

队列设置最大优先级


Map<String, Object> params = new HashMap();
params.put("x-max-priority", 10);
channel.queueDeclare("hello", true, false, false, params);
  • 1
  • 2
  • 3
  • 4

消息设置优先级


AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().priority(5).build();
  • 1
  • 2

注意事项
要让队列实现优先级需要做的事情有如下事情:队列需要设置为优先级队列,消息需要设置消息的优先级,消费者需要等待消息已经发送到队列中才去消费因为,这样才有机会对消息进行排序

惰性队列

正常情况:消息是保存在内存中
惰性队列:消息是保存在磁盘中

RabbitMQ 从 3.6.0 版本开始引入了惰性队列的概念。惰性队列会尽可能的将消息存入磁盘中,而在消费者消费到相应的消息时才会被加载到内存中,它的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储。当消费者由于各种各样的原因(比如消费者下线、宕机亦或者是由于维护而关闭等)而致使长时间内不能消费消息造成堆积时,惰性队列就很有必要了。

默认情况下,当生产者将消息发送到 RabbitMQ 的时候,队列中的消息会尽可能的存储在内存之中,这样可以更加快速的将消息发送给消费者。即使是持久化的消息,在被写入磁盘的同时也会在内存中驻留一份备份。当 RabbitMQ 需要释放内存的时候,会将内存中的消息换页至磁盘中,这个操作会耗费较长的时间,也会阻塞队列的操作,进而无法接收新的消息。虽然 RabbitMQ 的开发者们一直在升级相关的算法,但是效果始终不太理想,尤其是在消息量特别大的时候

两种模式:
default模式
lazy模式

设置lazy模式


Map<String, Object> args = new HashMap<String, Object>();
args.put("x-queue-mode", "lazy");
channel.queueDeclare("myqueue", false, false, false, args);
  • 1
  • 2
  • 3
  • 4

集群原理

集群可以提高性能,高可用

在这里插入图片描述

搭建步骤:
1.修改 3 台机器的主机名称
vim /etc/hostname
2.配置各个节点的 hosts 文件,让各个节点都能互相识别对方
vim /etc/hosts
10.211.55.74 node1
10.211.55.75 node2
10.211.55.76 node3

3.以确保各个节点的 cookie 文件使用的是同一个值
在 node1 上执行远程操作命令
scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie
scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie
4.启动 RabbitMQ 服务,顺带启动 Erlang 虚拟机和 RbbitMQ 应用服务(在三台节点上分别执行以
下命令)
rabbitmq-server -detached
5.在节点 2 执行
rabbitmqctl stop_app
(rabbitmqctl stop 会将 Erlang 虚拟机关闭,rabbitmqctl stop_app 只关闭 RabbitMQ 服务)
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node1
rabbitmqctl start_app(只启动应用服务)
6.在节点 3 执行
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node2
rabbitmqctl start_app
7.集群状态
rabbitmqctl cluster_status
8.需要重新设置用户
创建账号
rabbitmqctl add_user admin 123
设置用户角色
rabbitmqctl set_user_tags admin administrator
设置用户权限
rabbitmqctl set_permissions -p “/” admin “." ".” “.*”
9.解除集群节点(node2 和 node3 机器分别执行)
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl start_app
rabbitmqctl cluster_status
rabbitmqctl forget_cluster_node rabbit@node2(node1 机器上执行)

镜像队列

如果 RabbitMQ 集群中只有一个 Broker 节点,那么该节点的失效将导致整体服务的临时性不可用,并且也可能会导致消息的丢失。可以将所有消息都设置为持久化,并且对应队列的durable属性也设置为true,但是这样仍然无法避免由于缓存导致的问题:因为消息在发送之后和被写入磁盘井执行刷盘动作之间存在一个短暂却会产生问题的时间窗。通过 publisherconfirm 机制能够确保客户端知道哪些消息己经存入磁盘,尽管如此,一般不希望遇到因单点故障导致的服务不可用

引入镜像队列(Mirror Queue)的机制,可以将队列镜像到集群中的其他 Broker 节点之上,如果集群中的一个节点失效了,队列能自动地切换到镜像中的另一个节点上以保证服务的可用性

实现高可用负载均衡

HAProxy 提供高可用性、负载均衡及基于 TCPHTTP 应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案,包括Twitter,Reddit,StackOverflow,GitHub 在内的多家知名互联网公司在使用。HAProxy 实现了一种事件驱动、单一进程模型,此模型支持非常大的井发连接数

搭建步骤:
1.下载 haproxy(在 node1 和 node2)
yum -y install haproxy
2.修改 node1 和 node2 的 haproxy.cfg
vim /etc/haproxy/haproxy.cfg
需要修改红色 IP 为当前机器 IP

3.在两台节点启动 haproxy
haproxy -f /etc/haproxy/haproxy.cfg
ps -ef | grep haproxy
4.访问地址
http://10.211.55.71:8888/stats

Keepalived 实现双机(主备)热备
试想如果前面配置的 HAProxy 主机突然宕机或者网卡失效,那么虽然 RbbitMQ 集群没有任何故障但是对于外界的客户端来说所有的连接都会被断开结果将是灾难性的为了确保负载均衡服务的可靠性同样显得十分重要,这里就要引入 Keepalived 它能够通过自身健康检查、资源接管功能做高可用(双机热备),实现
故障转移

搭建步骤:
1.下载 keepalived
yum -y install keepalived
2.节点 node1 配置文件
vim /etc/keepalived/keepalived.conf
把资料里面的 keepalived.conf 修改之后替换
3.节点 node2 配置文件
需要修改 global_defs 的 router_id,如:nodeB
其次要修改 vrrp_instance_VI 中 state 为"BACKUP";
最后要将 priority 设置为小于 100 的值
4.添加 haproxy_chk.sh
(为了防止 HAProxy 服务挂掉之后 Keepalived 还在正常工作而没有切换到 Backup 上,所以
这里需要编写一个脚本来检测 HAProxy 务的状态,当 HAProxy 服务挂掉之后该脚本会自动重启
HAProxy 的服务,如果不成功则关闭 Keepalived 服务,这样便可以切换到 Backup 继续工作)
vim /etc/keepalived/haproxy_chk.sh(可以直接上传文件)
修改权限 chmod 777 /etc/keepalived/haproxy_chk.sh
5.启动 keepalive 命令(node1 和 node2 启动)
systemctl start keepalived
6.观察 Keepalived 的日志
tail -f /var/log/messages -n 200
7.观察最新添加的 vip
ip add show
8.node1 模拟 keepalived 关闭状态
systemctl stop keepalived
9.使用 vip 地址来访问 rabbitmq 集群

FederationExchange

联合交换机
将多个异地MQ信息同步

FederationExchange原理

联邦队列可以在多个 Broker 节点(或者集群)之间为单个队列提供均衡负载的功能。一个联邦队列可以连接一个或者多个上游队列(upstream queue),并从这些上游队列中获取消息以满足本地消费者消费消息的需求。

Shovel

Federation 具备的数据转发功能类似,Shovel 够可靠、持续地从一个 Broker 中的队列(作为源端,即source)拉取数据并转发至另一个 Broker 中的交换器(作为目的端,即 destination)。作为源端的队列和作为目的端的交换器可以同时位于同一个 Broker,也可以位于不同的 Broker 上。Shovel 可以翻译为"铲子",是一种比较形象的比喻,这个"铲子"可以将消息从一方"铲子"另一方。Shovel 行为就像优秀的客户端应用程序能够负责连接源和目的地、负责消息的读写及负责连接失败问题的处理

教程来自尚硅谷

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/神奇cpp/article/detail/903681
推荐阅读
相关标签
  

闽ICP备14008679号