RabbitMQ学习笔记
rabbitmq
- 前言
- 1.消息队列
- 2. Hello World
- 3. Work Queues
- 4. 发布确认
- 5. 交换机
- 6.死信队列
- 7. 延迟队列
- 8. 发布 确认高级
- 9. RabbitMQ其他知识点
- 10 RabbitMQ 集群
- 总结
前言
首先感谢尚硅谷王旭老师,本篇文章是参考他的课件编写而成的。
1.消息队列
1.1. MQ的相关概念
1.1.1. 什么是MQ
MQ(message queue),从字面意思上看,本质是个队列,FIFO先入先出,只不过队列中存放的内容是message而已,还是一种跨进程的通信机制,用于上下游传递消息。在互联网架构中,MQ是一种非常常见的上下游“逻辑解耦+物理解耦”的消息通信服务。使用了MQ之后,消息发送上游只需要依赖MQ,不用依赖其他服务。
1.1.2. 为什么要用MQ
1.1.3. MQ的分类
1.1.4. MQ的选择
1.2. RabbitMQ
1.2.1. RabbitMQ的概念
1.2.2. 四大核心概念
1.2.3. RabbitMQ核心部分
1.2.4. 各个名词介绍
1.2.5. 安装
-
官网地址
https://www.rabbitmq.com/download.html -
文件上传
上传到/usr/local/software目录下(如果没有software需要自己创建)
-
安装文件(分别按照以下顺序安装)
rpm -ivh erlang-21.3-1.el7.x86_64.rpm
yum install socat -y
rpm -ivh rabbitmq-server-3.8.8-1.el7.noarch.rpm
-
常用命令(按照以下顺序执行)
添加开机启动RabbitMQ服务
chkconfig rabbitmq-server on
启动服务
/sbin/service rabbitmq-server start
查看服务状态
/sbin/service rabbitmq-server status
停止服务(选择执行)
/sbin/service rabbitmq-server stop
开启web管理插件
rabbitmq-plugins
用默认账号密码(guest)访问地址http://47.115.185.244:15672/出现权限问题
-
添加一个新的用户
创建账号
rabbitmqctl add_user admin 123
设置用户角色
rabbitmqctl set_user_tags admin administrator
设置用户权限
set_permissions [-p <vhostpath>] <user> <conf> <write> <read>
rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"
用户user_admin具有 /vhost1 这个 virtual host 中所有资源的配置、写、读权限
当前用户和角色
rabbitmqctl list_users
-
再次利用admin用户登录
-
重置命令
关闭应用的命令为
rabbitmqctl stop_app
清除的命令为
rabbitmqctl reset
重新启动命令为
rabbitmqctl start_app
2. Hello World
2.1. 依赖
<!--指定jdk编译版本-->
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<configuration>
<source>8</source>
<target>8</target>
</configuration>
</plugin>
</plugins>
</build>
<dependencies>
<!--rabbitmq依赖客户端-->
<dependency>
<groupId>com.rabbitmq</groupId>
<artifactId>amqp-client</artifactId>
<version>5.8.0</version>
</dependency>
<!--操作文件流的一个依赖-->
<dependency>
<groupId>commons-io</groupId>
<artifactId>commons-io</artifactId>
<version>2.6</version>
</dependency>
</dependencies>
2.2. 消息生产者
** 简单队列模式的案例演示
* 生产者生产消息
*/
public class Producer {
//队列名称
public static final String QUEUE_NAME = "hello";
//URL
public static final String URL_NAME = "192.168.249.103";
//用户名
public static final String USER_NAME = "admin";
//密码
public static final String PASSWORD = "123";
//发消息
public static void main(String[] args) throws IOException, TimeoutException {
//创建一个连接工厂
ConnectionFactory factory = new ConnectionFactory();
//工厂IP 连接RabbitMQ的队列
factory.setHost(URL_NAME);
//用户名
factory.setUsername(USER_NAME);
//密码
factory.setPassword(PASSWORD);
//创建连接
Connection connection = factory.newConnection();
//获取信道
Channel channel = connection.createChannel();
/**
* 生成一个队列
* 1.队列名称
* 2.队列里面的消息是否持久化(磁盘)默认情况下消息存储在内存中
* 3.该队列是否只供一个消费者进行消费,是否进行消息共享,true可以多个消费者消费 false:只能一个消费者消费
* 4.是否自动删除 最后一个消费者断开连接以后 该队列是否自动删除 true自动删除 false 不自动删除
* 5.其他参数
*/
channel.queueDeclare(QUEUE_NAME,false,false,false,null);
*/
//发消息
String message = "hello world";//初次使用
/**
* 发送一个消息
* 1.发送到哪个交换机
* 2.路由的Key值是哪个 本次队列的名称
* 3.其他参数信息
* 4.发送消息的消息体
*/
channel.basicPublish("",QUEUE_NAME,null,message.getBytes());
System.out.println("消息发送完毕");
}
}
2.3. 消息消费者
/**消费者消费消息
*/
public class Consumer {
//队列名称
public static final String QUEUE_NAME = "hello";
//以全局变量的方式进行声明,这样就避免在代码中写死了
//URL
public static final String URL_NAME = "192.168.249.103";
//用户名
public static final String USER_NAME = "admin";
//密码
public static final String PASSWORD = "123";
public static void main(String[] args) throws IOException, TimeoutException {
ConnectionFactory factory = new ConnectionFactory();
factory.setHost(URL_NAME);
factory.setUsername(USER_NAME);
factory.setPassword(PASSWORD);
Connection connection = factory.newConnection();
Channel channel = connection.createChannel();
//① 实现接口的方式之 匿名内部类方式实现接口
//声明接收消息
/*
DeliverCallback deliverCallback = new DeliverCallback() {
@Override
public void handle(String consumerTag, Delivery message) throws IOException {
System.out.println(new String(message.getBody()));//接收消息的消息体
}
};
//取消消息时的回调
CancelCallback cancelCallback = new CancelCallback() {
@Override
public void handle(String consumerTag) throws IOException {
System.out.println("消息消费被中断");
}
};
*/
//② 实现接口的方式之 lambda表达式
//1 先复制参数 写小括号(参数类型可以省略因为有类型推断的原因;如果只有一个参数,小括号也可以省略)
//2 写死 右箭头 ->
//3 落地 大括号{}
//声明接收消息
DeliverCallback deliverCallback = (consumerTag, message) -> {
System.out.println(new String(message.getBody()));//接收消息的消息体(消息有消息头、消息体、消息属性)
};
//取消消息时的回调
CancelCallback cancelCallback = consumerTag ->{
System.out.println("消息消费被中断");
};
/**
* 消费者消费消息
* 1.消费哪个队列
* 2.消费成功之后是否要自动应答 true 代表的是自动应答 false 代表手动应答
* 3.消费者成功消费的回调 接口 使用匿名内部类或lambda
* 4.消费者取消消费的回调 -- 接口 使用匿名内部类或lambda
*/
channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
}
}
3. Work Queues
工作队列(又称任务队列)的主要思想是避免立即执行资源密集型任务,而不得不等待它完成。相反我们安排任务在之后执行。我们把任务封装为消息并将其发送到队列。在后台运行的工作进程将弹出任务并最终执行作业。当有多个工作线程时,这些工作线程将一起处理这些任务。
3.1. 轮训分发消息
在这个案例中我们会启动两个工作线程,一个消息发送线程,我们来看看他们两个工作线程是如何工作的。
3.1.1. 抽取工具类
因为生产者和消费者最初创建信道的代码是一样的,所以我们可以进行抽取为一个工具类,然后返回这个信道即可。
/**此类为连接工厂创建信道的工具类
*/
public class RabbitMqUtils {
//URL
public static final String URL_NAME = "192.168.249.103";
//用户名
public static final String USER_NAME = "admin";
//密码
public static final String PASSWORD = "123";
//发消息
public static Channel getChannel() throws Exception {
//创建一个连接工厂
ConnectionFactory factory = new ConnectionFactory();
//工厂IP 连接RabbitMQ的队列
factory.setHost(URL_NAME);
//用户名
factory.setUsername(USER_NAME);
//密码
factory.setPassword(PASSWORD);
//创建连接
Connection connection = factory.newConnection();
//获取信道
Channel channel = connection.createChannel();
return channel;
}
}
3.1.2. 启动两个工作线程
启动两次 Worker01 即可模拟两个线程
下图是如何启动两个线程(乃至多个线程):
/** 工作队列 //轮训分发消息 创建多个线程进行测试
*/
public class Worker01 {
public static final String QUEUE_NAME = "hello";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//消息的接收
DeliverCallback deliverCallback = (consumerTag,message) ->{
System.out.println("接收到的消息:" + new String(message.getBody()));
};
//消息接收被取消时 执行下面的内容
CancelCallback cancelCallback = (consumerTag) -> {
System.out.println(consumerTag + "消息者取消消费接口回调逻辑");
};
/**
* 消费者消费消息
* 1.消费哪个队列
* 2.消费成功之后是否要自动应答 true 代表的是自动应答 false 代表手动应答
* 3.消费者未成功消费的回调 接口 使用匿名内部类或lambda
* 4.消费者取消消费的回调 -- 接口 使用匿名内部类或lambda
*/
System.out.println("c2等待接收消息");//c2线程
channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
}
}
3.1.3. 启动一个发送线程
/**工作队列 //轮训分发消息
* 队列中的消费者属于相互竞争关系 “一个消息只能被消费一次”
*/
public class Task01 {
public static final String QUEUE_NAME = "hello";
//发送大量消息
public static void main(String[] args) throws Exception {
//通过自己写的 RabbitMqUtils 类获取信道
Channel channel = RabbitMqUtils.getChannel();
//队列的声明
/**
* 生成一个队列
* 1.队列名称
* 2.队列里面的消息是否持久化(磁盘)默认情况下消息存储在内存中
* 3.该队列是否只供一个消费者进行消费,是否进行消息共享,true可以多个消费者消费 false:只能一个消费者消费
* 4.是否自动删除 最后一个消费者断开连接以后 该队列是否自动删除 true自动删除 false 不自动删除
* 5.其他参数
*/
channel.queueDeclare(QUEUE_NAME,false,false,false,null);
//从控制台当中接受信息
Scanner scanner = new Scanner(System.in);
while (scanner.hasNext()){
String message = scanner.next();
/**
* 发送一个消息
* 1.发送到哪个交换机
* 2.路由的Key值是哪个 本次队列的名称
* 3.其他参数信息
* 4.发送消息的消息体
*/
channel.basicPublish("",QUEUE_NAME,null,message.getBytes());
System.out.println("发送消息完成:" + message);
}
}
}
3.1.4. 结果展示
通过程序执行发现生产者总共发送4个消息,消费者1和消费者2分别分得两个消息,并且是按照有序的一个接收一次消息。
3.2. 消息应答
3.2.1. 概念
消费者完成一个任务可能需要一段时间,如果其中一个消费者处理一个长的任务并仅只完成了部分突然它挂掉了,会发生什么情况。RabbitMQ一旦向消费者传递了一条消息,便立即将该消息标记为删除。在这种情况下,突然有个消费者挂掉了,我们将丢失正在处理的消息。以及后续发送给该消费这的消息,因为它无法接收到。
为了保证消息在发送过程中不丢失,rabbitmq引入消息应答机制,消息应答就是:消费者在接收到消息并且处理该消息之后,告诉rabbitmq它已经处理了,rabbitmq可以把该消息删除了。
3.2.2. 自动应答
消息发送后立即被认为已经传送成功,这种模式需要在高吞吐量和数据传输安全性方面做权衡,因为这种模式如果消息在接收到之前,消费者那边出现连接或者channel关闭,那么消息就丢失了,当然另一方面这种模式消费者那边可以传递过载的消息,没有对传递的消息数量进行限制,当然这样有可能使得消费者这边由于接收太多还来不及处理的消息,导致这些消息的积压,最终使得内存耗尽,最终这些消费者线程被操作系统杀死,所以这种模式仅适用在消费者可以高效并以某种速率能够处理这些消息的情况下使用。
工作中几乎不用。我们采用手动应答的方式
。
3.2.3. 消息应答的方法
3.2.4. Multiple的解释
手动应答的好处是可以批量应答并且减少网络拥堵
3.2.5. 消息自动重新入队
如果消费者由于某些原因失去连接(其通道已关闭,连接已关闭或TCP连接丢失),导致消息未发送ACK确认,RabbitMQ将了解到消息未完全处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。
3.2.6. 消息手动应答代码
默认消息采用的是自动应答,所以我们要想实现消息消费过程中不丢失,需要把自动应答改为手动应答。
生产者
/**测试消息应答
*/
public class Task02 {
public static final String TASK_QUEUE_NAME = "ack_queue";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//开启发布确认
channel.confirmSelect();
//队列的声明
boolean durable = true;//让队列持久化(和消息持久化不同,队列是信道中的组件,队列持久化并不能说明其内的信息也能保证持久化)
// channel.queueDeclare(TASK_QUEUE_NAME,false,false,false,null);
channel.queueDeclare(TASK_QUEUE_NAME,durable,false,false,null);//测试持久化
//从控制台获取消息
Scanner scanner = new Scanner(System.in);
while (scanner.hasNext()){
String message = scanner.next();
//设置生产者发送消息为持久化信息(要求保存到磁盘上) 如果不是持久化消息,是保存在内存中的
//但是此时并不能完全保证能够消息不丢失-----因为从内存中保存到磁盘中有一个过渡时间,在这个时间内有可能会丢失
// channel.basicPublish("",TASK_QUEUE_NAME,null,message.getBytes("UTF-8"));
channel.basicPublish("",TASK_QUEUE_NAME, MessageProperties.PERSISTENT_TEXT_PLAIN,message.getBytes("UTF-8"));
System.out.println("生产者发出消息:"+ message);
}
}
}
消费者 1
/**测试消息应答
* 消息在手动应答的时候是不丢失的,放回队列中重新消费
*/
public class Work02 {
public static final String TASK_QUEUE_NAME = "ack_queue";
//接收消息
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
System.out.println("C1等待接收消息处理时间较短");
//消息的接收
DeliverCallback deliverCallback = (consumerTag, message) ->{
//沉睡1秒 为了模拟C1线程处理其余业务逻辑
SleepUtils.sleep(1);
System.out.println("接收到的消息:" + new String(message.getBody(),"UTF-8"));//写上编码集为了反之中文乱码
//手动应答
/**
* 1.消息的标记 tag
* 2.是否批量应答 false : 不批量应答信道中的消息 true:批量 批量应答有风险(所以我们选择不批量应答)
*/
channel.basicAck(message.getEnvelope().getDeliveryTag(),false);
};
//消息接收被取消时 执行下面的内容
CancelCallback cancelCallback = consumerTag -> {
System.out.println(consumerTag + "消费者取消消费接口回调逻辑");
};
//采用手动应答
boolean atuoAck = false;
channel.basicConsume(TASK_QUEUE_NAME,atuoAck,deliverCallback,cancelCallback);
}
}
消费者 2
/**测试消息应答
* 消息在手动应答的时候是不丢失的,放回队列中重新消费
*/
public class Work03 {
public static final String TASK_QUEUE_NAME = "ack_queue";
//接收消息
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
System.out.println("C2等待接收消息处理时间较长");
//消息的接收
DeliverCallback deliverCallback = (consumerTag, message) ->{
//沉睡 30 秒 为了模拟C2线程处理其余业务逻辑
SleepUtils.sleep(30);
System.out.println("接收到的消息:" + new String(message.getBody(),"UTF-8"));//写上编码集为了反之中文乱码
//手动应答
/**
* 1.消息的标记 tag
* 2.是否批量应答 false : 不批量应答信道中的消息 true:批量 批量应答有风险(所以我们选择不批量应答)
*/
channel.basicAck(message.getEnvelope().getDeliveryTag(),false);
};
//消息接收被取消时 执行下面的内容
CancelCallback cancelCallback = consumerTag -> {
System.out.println(consumerTag + "消费者取消消费接口回调逻辑");
};
//采用手动应答
boolean atuoAck = false;
channel.basicConsume(TASK_QUEUE_NAME,atuoAck,deliverCallback,cancelCallback);
}
}
睡眠工具类
/**
* 睡眠工具类
*/
public class SleepUtils {
public static void sleep(int second) {
try {
Thread.sleep(1000 * second);
} catch (InterruptedException _ignored) {
Thread.currentThread().interrupt();
}
}
}
3.2.7. 手动应答效果演示
3.3. RabbitMQ持久化
3.3.1. 概念
刚刚我们已经看到了如何处理任务不丢失的情况,但是如何保障当RabbitMQ服务停掉以后消息生产者发送过来的消息不丢失。默认情况下RabbitMQ退出或由于某种原因崩溃时,它忽视队列和消息,除非告知它不要这样做。确保消息不会丢失需要做两件事:我们需要将队列和消息都标记为持久化。
3.3.2. 队列如何实现持久化
3.3.3. 消息实现持久化
要想让消息实现持久化需要在消息生产者修改代码,MessageProperties.PERSISTENT_TEXT_PLAIN
添加这个属性。
将消息标记为持久化并不能完全保证不会丢失消息。尽管它告诉RabbitMQ将消息保存到磁盘,但是这里依然存在当消息刚准备存储在磁盘的时候 但是还没有存储完,消息还在缓存的一个间隔点。此时并没有真正写入磁盘。持久性保证并不强,但是对于我们的简单任务队列而言,这已经绰绰有余了。如果需要更强有力的持久化策略,参考后边课件发布确认章节。
3.3.4. 不公平分发
在最开始的时候我们学习到RabbitMQ分发消息采用的轮训分发,但是在某种场景下这种策略并不是很好,比方说有两个消费者在处理任务,其中有个消费者1处理任务的速度非常快,而另外一个消费者2处理速度却很慢,这个时候我们还是采用轮训分发的化就会到这处理速度快的这个消费者很大一部分时间处于空闲状态,而处理慢的那个消费者一直在干活,这种分配方式在这种情况下其实就不太好,但是RabbitMQ并不知道这种情况它依然很公平的进行分发。
为了避免这种情况,我们可以设置参数channel.basicQos(1);
意思就是如果这个任务我还没有处理完或者我还没有应答你,你先别分配给我,我目前只能处理一个任务,然后rabbitmq就会把该任务分配给没有那么忙的那个空闲消费者,当然如果所有的消费者都没有完成手上任务,队列还在不停的添加新任务,队列有可能就会遇到队列被撑满的情况,这个时候就只能添加新的worker或者改变其他存储任务的策略。
3.3.5. 预取值
本身消息的发送就是异步发送的,所以在任何时候,channel上肯定不止只有一个消息另外来自消费者的手动确认本质上也是异步的。因此这里就存在一个未确认的消息缓冲区,因此希望开发人员能限制此缓冲区的大小,以避免缓冲区里面无限制的未确认消息问题。这个时候就可以通过使用basic.qos方法设置“预取计数”值来完成的。 该值定义通道上允许的未确认消息的最大数量。 一旦数量达到配置的数量,RabbitMQ将停止在通道上传递更多消息,除非至少有一个未处理的消息被确认,例如,假设在通道上有未确认的消息5、6、7,8,并且通道的预取计数设置为4,此时RabbitMQ将不会在该通道上再传递任何消息,除非至少有一个未应答的消息被ack。比方说tag=6这个消息刚刚被确认ACK,RabbitMQ将会感知这个情况到并再发送一条消息。消息应答和QoS预取值对用户吞吐量有重大影响。通常,增加预取将提高向消费者传递消息的速度。虽然自动应答传输消息速率是最佳的,但是,在这种情况下已传递但尚未处理的消息的数量也会增加,从而增加了消费者的RAM消耗(随机存取存储器)应该小心使用具有无限预处理的自动确认模式或手动确认模式,消费者消费了大量的消息如果没有确认的话,会导致消费者连接节点的内存消耗变大,所以找到合适的预取值是一个反复试验的过程,不同的负载该值取值也不同100到300范围内的值通常可提供最佳的吞吐量,并且不会给消费者带来太大的风险。预取值为1是最保守的。当然这将使吞吐量变得很低,特别是消费者连接延迟很严重的情况下,特别是在消费者连接等待时间较长的环境中。对于大多数应用来说,稍微高一点的值将是最佳的。
3.3.6 代码实现
其实改动很小,就一行代码。
public class Work02 {
public static final String TASK_QUEUE_NAME = "ack_queue";
//接收消息
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
System.out.println("C1等待接收消息处理时间较短");
//消息的接收
DeliverCallback deliverCallback = (consumerTag, message) ->{
//沉睡1秒 为了模拟C1线程处理其余业务逻辑
SleepUtils.sleep(1);
System.out.println("接收到的消息:" + new String(message.getBody(),"UTF-8"));//写上编码集为了反之中文乱码
//手动应答
/**
* 1.消息的标记 tag
* 2.是否批量应答 false : 不批量应答信道中的消息 true:批量 批量应答有风险(所以我们选择不批量应答)
*/
channel.basicAck(message.getEnvelope().getDeliveryTag(),false);
};
//消息接收被取消时 执行下面的内容
CancelCallback cancelCallback = consumerTag -> {
System.out.println(consumerTag + "消费者取消消费接口回调逻辑");
};
//设置不公平分发(体现 “能者多劳”,让处理速度快的多处理)
// int prefetchCount = 1; //默认值为 0(轮训分发) ,“int”小写的int默认值就是0
// channel.basicQos(prefetchCount);
//设置预取值(指定分多少:是指消息堆积在信道中
// 并不是看最后的输出效果来判断的,因为02处理快,如信道中堆积了2条
// 但是当队列下一次分发时,在这之前02已经处理了1条,此时队列还会认为02中的信道只有1条堆积,所以不能通过观察02的输出效果
// 来看,应该通过03的输出效果来观看))
int prefetchCount = 2;
channel.basicQos(prefetchCount);
//采用手动应答
boolean atuoAck = false;
channel.basicConsume(TASK_QUEUE_NAME,atuoAck,deliverCallback,cancelCallback);
}
}
public class Work03 {
public static final String TASK_QUEUE_NAME = "ack_queue";
//接收消息
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
System.out.println("C2等待接收消息处理时间较长");
//消息的接收
DeliverCallback deliverCallback = (consumerTag, message) ->{
//沉睡 30 秒 为了模拟C2线程处理其余业务逻辑
SleepUtils.sleep(30);
System.out.println("接收到的消息:" + new String(message.getBody(),"UTF-8"));//写上编码集为了反之中文乱码
//手动应答
/**
* 1.消息的标记 tag
* 2.是否批量应答 false : 不批量应答信道中的消息 true:批量 批量应答有风险(所以我们选择不批量应答)
*/
channel.basicAck(message.getEnvelope().getDeliveryTag(),false);
};
//消息接收被取消时 执行下面的内容
CancelCallback cancelCallback = consumerTag -> {
System.out.println(consumerTag + "消费者取消消费接口回调逻辑");
};
// //设置不公平分发(体现 “能者多劳”,让处理速度快的多处理)
// int prefetchCount = 1; //默认值为 0 ,“int”小写的int默认值就是0
// channel.basicQos(prefetchCount);
//设置预取值
int prefetchCount = 5;
channel.basicQos(prefetchCount);
//采用手动应答
boolean atuoAck = false;
channel.basicConsume(TASK_QUEUE_NAME,atuoAck,deliverCallback,cancelCallback);
}
}
轮训分发 设置属性为 0(默认),不公平分发设置属性为1,预取值按照自己设置。
4. 发布确认
4.1. 发布确认原理
4.2发布确认的策略
4.2.1 开启发布确认的方法
发布确认默认是没有开启的,如果要开启需要调用方法confirmSelect,每当你要想使用发布确认,都需要在channel上调用该方法
4.2.2 单个确认发布
这是一种简单的确认方式,它是一种同步确认发布
的方式,也就是发布一个消息之后只有它被确认发布,后续的消息才能继续发布,waitForConfirmsOrDie(long)这个方法只有在消息被确认的时候才返回,如果在指定时间范围内这个消息没有被确认那么它将抛出异常。
这种确认方式有一个最大的缺点就是:发布速度特别的慢
,因为如果没有确认发布的消息就会阻塞所有后续消息的发布,这种方式最多提供每秒不超过数百条发布消息的吞吐量。当然对于某些应用程序来说这可能已经足够了。
/**
* 消息发布确认
* 1.单个确认
* 2.批量确认
* 3.异步批量确认
*
* @author wystart
* @create 2022-08-30 12:45
*/
public class ConfirmMessage {
public static void main(String[] args) throws Exception {
//1.单个确认
ConfirmMessage.publishMessageIndividually();//发布1000个单独确认消息,耗时586ms
}
//单个确认
public static void publishMessageIndividually() throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//队列的声明
String queueName = UUID.randomUUID().toString();
channel.queueDeclare(queueName, true, false, false, null);
// 开启发布确认
channel.confirmSelect();
// 开始时间
long begin = System.currentTimeMillis();
//批量发消息
for (int i = 0; i < MESSAGE_COUNT; i++) {
String message = i + ""; //将消息变为字符串
channel.basicPublish("", queueName, null, message.getBytes());
//单个消息就马上进行发布确认
boolean flag = channel.waitForConfirms();
if (flag) {
System.out.println("消息发送成功");
}
}
//结束时间
long end = System.currentTimeMillis();
System.out.println("发布" + MESSAGE_COUNT + "个单独确认消息,耗时" + (end - begin) + "ms");
}
4.2.3 批量确认发布
上面那种方式非常慢,与单个等待确认消息相比,先发布一批消息然后一起确认可以极大地提高吞吐量,当然这种方式的缺点就是:当发生故障导致发布出现问题时,不知道是哪个消息出现问题了,我们必须将整个批处理保存在内存中,以记录重要的信息而后重新发布消息。当然这种方案仍然是同步的,也一样阻塞消息的发布。
//批量确认
//批量发消息的个数
public static final int MESSAGE_COUNT = 1000;
public static void publishMessageBatch() throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//队列的声明
String queueName = UUID.randomUUID().toString();
channel.queueDeclare(queueName, true, false, false, null);
// 开启发布确认
channel.confirmSelect();
// 开始时间
long begin = System.currentTimeMillis();
//批量确认消息的大小
int batchSize = 100;
//批量发消息,批量确认
for (int i = 0; i < MESSAGE_COUNT; i++) {
String message = i + "";
channel.basicPublish("", queueName, null, message.getBytes());
//判断达到100条消息的时候,批量确认一次
if (i % batchSize == 0) { //对 100 进行取模(求余数)
//发布确认
channel.waitForConfirms();
}
}
//结束时间
long end = System.currentTimeMillis();
System.out.println("发布" + MESSAGE_COUNT + "个批量确认消息,耗时" + (end - begin) + "ms");
}
4.2.4 异步确认发布
异步确认虽然编程逻辑比上两个要复杂,但是性价比最高,无论是可靠性还是效率都没得说,他是利用回调函数来达到消息可靠性传递的,这个中间件也是通过函数回调来保证是否投递成功,下面就让我们来详细讲解异步确认是怎么实现的。
//异步批量确认
public static void publishMessageAsync() throws Exception{
Channel channel = RabbitMqUtils.getChannel();
//队列的声明
String queueName = UUID.randomUUID().toString();
channel.queueDeclare(queueName, true, false, false, null);
// 开启发布确认
channel.confirmSelect();
/**
* 准备一个容器
* ConcurrentSkipListMap 是线程安全有序的一个哈希表 适用于高并发的情况下
* 1.轻松的将序号与消息进行关联
* 2.轻松批量删除条目 只要给到序号
* 3.支持高并发(多线程)
*/
ConcurrentSkipListMap<Long,String> outstandingConfirms = new ConcurrentSkipListMap<>();
//消息确认成功 回调函数
ConfirmCallback ackCallback = (deliveryTag,multiple) ->{
if (multiple){ //如果消息时批量的
//2.删除掉已经确认的消息 剩下的就是未确认的消息
ConcurrentNavigableMap<Long, String> confirmed = outstandingConfirms.headMap(deliveryTag);
confirmed.clear();
}else {
outstandingConfirms.remove(deliveryTag);
}
System.out.println("确认的消息:" + deliveryTag);
};
//消息确认失败 回调函数
ConfirmCallback nackCallback = (deliveryTag,multiple) ->{
// System.out.println("未确认的消息:" + deliveryTag);
//3.打印一下未确认的消息都有哪些
String message = outstandingConfirms.get(deliveryTag);
System.out.println("未确认的消息是:"+message +":::::未确认的消息tag:" + deliveryTag);
};
//准备消息的监听器 监听哪些消息成功了 哪些消息失败了
/**
* 1.监听哪些消息成功了
* 2.监听哪些消息失败了
*/
channel.addConfirmListener(ackCallback,nackCallback);//异步通知
// 开始时间
long begin = System.currentTimeMillis();
//批量发消息
for (int i = 0; i < MESSAGE_COUNT; i++) {
String message = "消息" + i;
channel.basicPublish("",queueName,null,message.getBytes());
//1.此处记录下所有要发送的消息:消息的总和
outstandingConfirms.put(channel.getNextPublishSeqNo(),message);
}
//结束时间
long end = System.currentTimeMillis();
System.out.println("发布" + MESSAGE_COUNT + "个单独确认消息,耗时" + (end - begin) + "ms");
}
4.2.5. 如何处理异步未确认消息
最好的解决的解决方案就是把未确认的消息放到一个基于内存的能被发布线程访问的队列,比如说用 ConcurrentLinkedQueue 这个队列在 confirm callbacks 与发布线程之间进行消息的传递。
4.2.6. 以上3种发布确认速度对比
三种发布确认消息用时比较如下:
public static void main(String[] args) throws Exception {
//1.单个确认
// ConfirmMessage.publishMessageIndividually();//发布1000个单独确认消息,耗时586ms
//2.批量确认
// ConfirmMessage.publishMessageBatch();//发布1000个单独确认消息,耗时68ms
//3.异步批量确认
ConfirmMessage.publishMessageAsync();//发布1000个单独确认消息,耗时22ms
// 发布1000个单独确认消息,耗时24ms
}
5. 交换机
在上一节中,我们创建了一个工作队列。我们假设的是工作队列背后,每个任务都恰好交付给一个消费者(工作进程)。在这一部分中,我们将做一些完全不同的事情-我们将消息传达给多个消费者。这种模式称为 ”发布/订阅”。
为了说明这种模式,我们将构建一个简单的日志系统。它将由两个程序组成:第一个程序将发出日志消息,第二个程序是消费者。其中我们会启动两个消费者,其中一个消费者接收到消息后把日志存储在磁盘,另外一个消费者接收到消息后把消息打印在屏幕上,事实上第一个程序发出的日志消息将广播给所有消费者。
5.1. Exchanges
5.1.1. Exchanges概念
RabbitMQ消息传递模型的核心思想是: 生产者生产的消息从不会直接发送到队列
。实际上,通常生产者甚至都不知道这些消息传递传递到了哪些队列中。
相反,生产者只能将消息发送到交换机(exchange)
,交换机工作的内容非常简单,一方面它接收来自生产者的消息,另一方面将它们推入队列。交换机必须确切知道如何处理收到的消息。是应该把这些消息放到特定队列还是说把他们到许多队列中还是说应该丢弃它们。这就的由交换机的类型来决定。
5.1.2. Exchanges的类型
总共有以下类型:
直接(direct), 主题(topic) ,标题(headers) , 扇出(fanout)
5.1.3. 无名exchange
在本教程的前面部分我们对exchange一无所知,但仍然能够将消息发送到队列。之前能实现的原因是因为我们使用的是默认交换,我们通过空字符串(“”)进行标识。
第一个参数是交换机的名称。空字符串表示默认或无名称交换机
:消息能路由发送到队列中其实是由routingKey(bindingkey)绑定key指定的,如果它存在的话。
5.2. 临时队列
之前的章节我们使用的是具有特定名称的队列(还记得hello和ack_queue吗?)。队列的名称我们来说至关重要-我们需要指定我们的消费者去消费哪个队列的消息。
每当我们连接到Rabbit时,我们都需要一个全新的空队列,为此我们可以创建一个具有随机名称的队列,或者能让服务器为我们选择一个随机队列名称那就更好了。其次一旦我们断开了消费者的连接,队列将被自动删除。
创建临时队列的方式如下:
String queueName = channel.queueDeclare().getQueue();
创建出来之后长成这样:
5.3. 绑定(bindings)
什么是bingding呢,binding其实是exchange和queue之间的桥梁,它告诉我们exchange和那个队列进行了绑定关系。比如说下面这张图告诉我们的就是X与Q1和Q2进行了绑定:
5.4. Fanout
5.4.1. Fanout介绍
Fanout这种类型非常简单。正如从名称中猜到的那样,它是将接收到的所有消息广播
到它知道的所有队列中。系统中默认有些exchange类型
5.4.2. Fanout实战
Logs和临时队列的绑定关系如下图
ReceiveLogs01将接收到的消息打印在控制台
/** 消息接收 消费者 交换机--“广播” 表现出将一个消息多次消费(给多个队列)
* 发布/订阅模式
*/
public class ReceiveLogs01 {
//交换机的名称
public static final String EXCHANGE_NAME = "logs";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明一个交换机
channel.exchangeDeclare(EXCHANGE_NAME,"fanout");//扇出模式就是发布/订阅模式
//声明一个队列 临时队列
/**
* 生成一个临时队列,队列的名称是随机的
* 当消费者断开与队列的连接后,队列就自动删除
*/
String queueName = channel.queueDeclare().getQueue();
/**
* 绑定交换机与队列
*/
channel.queueBind(queueName,EXCHANGE_NAME,"");//路由key可以是空字符串
System.out.println("ReceiveLogs01等待接收消息,把接收到消息打印在屏幕上.....");
//接收消息的回调接口
DeliverCallback deliverCallback = (consumerTag, message) ->{
System.out.println("ReceiveLogs01控制台打印接收到的消息:" + new String(message.getBody(),"UTF-8"));
};
//消费者取消消费时回调接口
CancelCallback cancelCallback = consumerTag -> {
};//此处不处理,仅为案例演示
channel.basicConsume(queueName,true,deliverCallback,cancelCallback);
}
}
ReceiveLogs02将接收到的消息存储在磁盘
public class ReceiveLogs02 {
//交换机的名称
public static final String EXCHANGE_NAME = "logs";
public static void main(String[] args) throws Exception {
//创建信道
Channel channel = RabbitMqUtils.getChannel();
//声明一个交换机
channel.exchangeDeclare(EXCHANGE_NAME,"fanout");//扇出模式就是发布/订阅模式.
//声明一个队列 临时队列
/**
* 生成一个临时队列,队列的名称是随机的
* 当消费者断开与队列的连接后,队列就自动删除
*/
String queueName = channel.queueDeclare().getQueue();
/**
* 绑定交换机与队列
*/
channel.queueBind(queueName,EXCHANGE_NAME,"");//路由key可以是空字符串
System.out.println("ReceiveLogs02等待接收消息,把接收到消息打印在屏幕上.....");
//接收消息的回调接口
DeliverCallback deliverCallback = (consumerTag, message) ->{
System.out.println("ReceiveLogs02控制台打印接收到的消息:" + new String(message.getBody(),"UTF-8"));
};
//消费者取消消费时回调接口
CancelCallback cancelCallback = consumerTag -> {
};//此处不处理,仅为案例演示
channel.basicConsume(queueName,true,deliverCallback,cancelCallback);
}
}
EmitLog发送消息给两个消费者接收
/**消息生产 生产者
*/
public class EmitLog {
//交换机的名称
public static final String EXCHANGE_NAME = "logs";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//创建交换机 --可创建也可以不用创建,因为消费者已经创建了
channel.exchangeDeclare(EXCHANGE_NAME,"fanout");
//从控制台输入
Scanner scanner = new Scanner(System.in);
while (scanner.hasNext()){//如果有下一个
String message = scanner.next();
channel.basicPublish(EXCHANGE_NAME,"",null,message.getBytes("UTF-8"));
System.out.println("生产者发出消息:" + message);
}
}
}
5.5. Direct exchange
5.5.1. 回顾
在上一节中,我们构建了一个简单的日志记录系统。我们能够向许多接收者广播日志消息。在本节我们将向其中添加一些特别的功能-比方说我们只让某个消费者订阅发布的部分消息。例如我们只把严重错误消息定向存储到日志文件(以节省磁盘空间),同时仍然能够在控制台上打印所有日志消息。
我们再次来回顾一下什么是bindings,绑定是交换机和队列之间的桥梁关系。也可以这么理解:队列只对它绑定的交换机的消息感兴趣。绑定用参数:routingKey来表示也可称该参数为binding key,创建绑定我们用代码:channel.queueBind(queueName, EXCHANGE_NAME, “routingKey”);绑定之后的意义由其交换类型决定。
5.5.2. Direct exchange介绍
上一节中的我们的日志系统将所有消息广播给所有消费者,对此我们想做一些改变,例如我们希望将日志消息写入磁盘的程序仅接收严重错误(errros),而不存储哪些警告(warning)或信息(info)日志消息避免浪费磁盘空间。Fanout这种交换类型并不能给我们带来很大的灵活性-它只能进行无意识的广播,在这里我们将使用direct这种类型来进行替换,这种类型的工作方式是,消息只去到它绑定的routingKey队列中去。
在上面这张图中,我们可以看到X绑定了两个队列,绑定类型是direct。队列Q1绑定键为orange,队列Q2绑定键有两个:一个绑定键为black,另一个绑定键为green。
在这种绑定情况下,生产者发布消息到exchange上,绑定键为orange的消息会被发布到队列Q1。绑定键为blackgreen和的消息会被发布到队列Q2,其他消息类型的消息将被丢弃。
5.5.3. 多重绑定
当然如果exchange的绑定类型是direct,但是它绑定的多个队列的key如果都相同,在这种情况下虽然绑定类型是direc,t但是它表现的就和fanout有点类似了,就跟广播差不多,如上图所示。
5.5.4. 实战
/**直接模式 也叫作 路由模式
* 与扇出模式不同的就是:
* 路由模式下队列的路由key不一样
* 扇出模式下队列的路由key一样,从而实现广播
*/
public class ReceiveLogsDirect01 {
//交换机名称
public static final String EXCHANGE_NAME = "direct_logs";
public static void main(String[] args) throws Exception {
//声明信道
Channel channel = RabbitMqUtils.getChannel();
//声明一个交换机
channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);//当然,交换机类型也可以这样写"direct"
//声明一个队列
channel.queueDeclare("console",false,false,false,null);
//交换机与队列进行绑定
channel.queueBind("console",EXCHANGE_NAME,"info");
channel.queueBind("console",EXCHANGE_NAME,"warning");
//接收消息的回调接口
DeliverCallback deliverCallback = (consumerTag, message) ->{
System.out.println("ReceiveLogsDirect01控制台打印接收到的消息:" + new String(message.getBody(),"UTF-8"));
};
//消费者取消消费时回调接口
CancelCallback cancelCallback = consumerTag -> {
};//此处不处理,仅为案例演示
channel.basicConsume("console",true,deliverCallback,cancelCallback);
}
}
/**直接模式 也叫作 路由模式
* 与扇出模式不同的就是:
* 路由模式下队列的路由key不一样
* 扇出模式下队列的路由key一样,从而实现广播
*/
public class ReceiveLogsDirect02 {
//交换机名称
public static final String EXCHANGE_NAME = "direct_logs";
public static void main(String[] args) throws Exception {
//声明一个交换机
Channel channel = RabbitMqUtils.getChannel();
//声明一个队列
channel.queueDeclare("disk",false,false,false,null);
//交换机与队列进行绑定
channel.queueBind("disk",EXCHANGE_NAME,"error");
//接收消息的回调接口
DeliverCallback deliverCallback = (consumerTag, message) ->{
System.out.println("ReceiveLogsDirect02控制台打印接收到的消息:" + new String(message.getBody(),"UTF-8"));
};
//消费者取消消费时回调接口
CancelCallback cancelCallback = consumerTag -> {
};//此处不处理,仅为案例演示
channel.basicConsume("disk",true,deliverCallback,cancelCallback);
}
}
public class EmitLogDirect {
//交换机名称
public static final String EXCHANGE_NAME = "direct_logs";
public static void main(String[] args) throws Exception {
//创建信道
Channel channel = RabbitMqUtils.getChannel();
//创建交换机(可有可无,因为消费者已经创建了交换机)
// channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT);
//从控制台输入
Scanner scanner = new Scanner(System.in);
while (scanner.hasNext()){//判断是否有下一个
String message = scanner.next();
channel.basicPublish(EXCHANGE_NAME,"error",null,message.getBytes("UTF-8"));
System.out.println("生产者发出消息:" + message);
}
}
}
5.6. Topics
5.6.1. 之前类型的问题
在上一个小节中,我们改进了日志记录系统。我们没有使用只能进行随意广播的fanout交换机,而是使用了direct交换机,从而有能实现有选择性地接收日志。
尽管使用direct交换机改进了我们的系统,但是它仍然存在局限性-比方说我们想接收的日志类型有info.base和info.advantage,某个队列只想info.base的消息,那这个时候direct就办不到了。这个时候就只能使用topic类型。
5.6.2. Topic的要求
5.6.3. Topic匹配案例
5.6.4. 实战
/**
* 主题交换机
*/
public class ReceiveLogsTopic01 {
//声明交换机 主题交换机
public static final String EXCHANGE_NAME = "topic_logs";
public static void main(String[] args) throws Exception {
//声明信道
Channel channel = RabbitMqUtils.getChannel();
//声明交换机
channel.exchangeDeclare(EXCHANGE_NAME, "topic");
//声明队列
String queueName = "Q1";
channel.queueDeclare(queueName, true, false, false, null);
//交换机和队列进行绑定
channel.queueBind(queueName, EXCHANGE_NAME, "*.orange.*");
System.out.println("等待接收消息.....");
//接收消息
DeliverCallback deliverCallback = (consumerTag, message) -> {
System.out.println(new String(message.getBody(), "UTF-8"));
System.out.println("接收队列:" + queueName + " 绑定键:" + message.getEnvelope().getRoutingKey());
};
//消息取消消费时的回调接口
CancelCallback cancelCallback = consumerTag -> {
};
channel.basicConsume(queueName, true, deliverCallback, cancelCallback);
}
}
/**
* 主题交换机
*/
public class ReceiveLogsTopic02 {
//声明交换机 主题交换机
public static final String EXCHANGE_NAME = "topic_logs";
public static void main(String[] args) throws Exception {
//声明信道
Channel channel = RabbitMqUtils.getChannel();
//声明交换机
channel.exchangeDeclare(EXCHANGE_NAME, "topic");
//声明队列
String queueName = "Q2";
channel.queueDeclare(queueName, true, false, false, null);
//交换机和队列进行绑定
channel.queueBind(queueName, EXCHANGE_NAME, "*.*.rabbit");
channel.queueBind(queueName, EXCHANGE_NAME, "lazy.#");
System.out.println("等待接收消息.....");
//接收消息
DeliverCallback deliverCallback = (consumerTag, message) -> {
System.out.println(new String(message.getBody(), "UTF-8"));
System.out.println("接收队列:" + queueName + " 绑定键:" + message.getEnvelope().getRoutingKey());
};
//消息取消消费时的回调接口
CancelCallback cancelCallback = consumerTag -> {
};
channel.basicConsume(queueName, true, deliverCallback, cancelCallback);
}
}
/**
* 生产者
*/
public class EmitLogTopic {
//声明交换机 主题交换机
public static final String EXCHANGE_NAME = "topic_logs";
public static void main(String[] args) throws Exception {
//声明信道
Channel channel = RabbitMqUtils.getChannel();
/** Q1-->绑定的是
* 中间带orange带3个单词的字符串(*.orange.*)
* Q2-->绑定的是
* 最后一个单词是rabbit的3个单词(*.*.rabbit)
* 第一个单词是lazy的多个单词(lazy.#) *
* */
Map<String,String> bindingKeyMap = new HashMap<>();
bindingKeyMap.put("quick.orange.rabbit","被队列 Q1Q2 接收到");
bindingKeyMap.put("lazy.orange.elephant","被队列 Q1Q2 接收到");
bindingKeyMap.put("quick.orange.fox","被队列 Q1 接收到");
bindingKeyMap.put("lazy.brown.fox","被队列 Q2 接收到");
bindingKeyMap.put("lazy.pink.rabbit","虽然满足两个绑定但只被队列 Q2 接收一次");
bindingKeyMap.put("quick.brown.fox","不匹配任何绑定不会被任何队列接收到会被丢弃");
bindingKeyMap.put("quick.orange.male.rabbit","是四个单词不匹配任何绑定会被丢弃");
bindingKeyMap.put("lazy.orange.male.rabbit","是四个单词但匹配 Q2");
//生产消息
for (Map.Entry<String, String> bindingKeyEntry : bindingKeyMap.entrySet()) {
String routingKey = bindingKeyEntry.getKey();
String message = bindingKeyEntry.getValue();
channel.basicPublish(EXCHANGE_NAME,routingKey,null,message.getBytes("UTF-8"));
System.out.println("生产者发出消息:" + message);
}
}
}
6.死信队列
6.1. 死信的概念
先从概念解释上搞清楚这个定义,死信,顾名思义就是无法被消费的消息,字面意思可以这样理解,一般来说,producer将消息投递到broker或者直接到queue里了,consumer从queue取出消息进行消费,但某些时候由于特定的原因导致queue中的某些消息无法被消费
,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。
应用场景:为了保证订单业务的消息数据不丢失,需要使用到RabbitMQ的死信队列机制,当消息消费发生异常时,将消息投入死信队列中.还有比如说: 用户在商城下单成功并点击去支付后在指定时间未支付时自动失效
6.2. 死信的来源
- 消息TTL过期
- 队列达到最大长度(队列满了,无法再添加数据到mq中)
- 消息被拒绝(basic.reject或basic.nack)并且requeue=false.
6.3. 死信实战
6.3.1. 代码架构图
6.3.2. 消息TTL过期
生产者代码
public class Producer {
//普通交换机 类型: direct
public static final String NORMAL_EXCHANGE1 = "normal_exchange";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//死信消息 设置TTL时间 单位是ms 1000ms = 10s
AMQP.BasicProperties properties =
new AMQP.BasicProperties()
.builder().expiration("10000").build();
channel.basicPublish(NORMAL_EXCHANGE1,"zhangsan",properties,message.getBytes());
}
}
}
消费者C1代码(启动之后关闭该消费者 模拟其接收不到消息)
/**
* 死信队列
* 成为死信的三大来源:
* 1.消息被拒绝
* 2.消息TTL过期
* 3.队列达到最大长度
* 消费者1 消费者c1启动之后关闭,模拟其收不到消息。
*/
public class Consumer01 {
//普通交换机及普通队列
public static final String NORMAL_EXCHANGE = "normal_exchange";
public static final String NORMAL_QUEUE = "normal_queue";
//死信交换机及死信队列
public static final String DEAD_EXCHANGE = "dead_exchange";
public static final String DEAD_QUEUE = "dead_queue";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明死信和普通交换机 类型为direct
channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
//声明普通队列
//设置参数,将普通消息超时转为死信消息
Map<String, Object> arguments = new HashMap<>();
/*设置过期时间 单位:ms
---在普通队列到死信交换机时可以设置过期时间;
在生产者发送消息的时候可以设置过期时间(常用),因为在生产者处设置的话,灵活性要高于在消费者中设置*/
//arguments.put("x-message-ttl",10000);
//普通队列设置死信交换机
arguments.put("x-dead-letter-exchange", DEAD_EXCHANGE);
//设置死信RoutingKEY 死信交换机与死信队列进行关联
arguments.put("x-dead-letter-routing-key", "lisi");
channel.queueDeclare(NORMAL_QUEUE, false, false, false, arguments);
/
//声明死信队列
channel.queueDeclare(DEAD_QUEUE, false, false, false, null);
//绑定普通交换机与普通队列
channel.queueBind(NORMAL_QUEUE, NORMAL_EXCHANGE, "zhangsan");
//绑定死信交换机与死信队列
channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE, "lisi");
System.out.println("等待接收消息.....");
//接收消息
//消息消费时的回调函数
DeliverCallback deliverCallback = (consumerTag, message) -> {
System.out.println( "c1接收的消息是:"+ new String(message.getBody(),"UTF-8"));
}
};
//消息取消时的回调函数
CancelCallback cancelCallback = consumerTag -> {
};
//开启手动应答
channel.basicConsume(NORMAL_QUEUE, false, deliverCallback, cancelCallback);
}
}
消费者C2代码(以上步骤完成后 启动C2消费者 它消费死信队列里面的消息)
/**
* 死信队列
* 消费者2
*/
public class Consumer02 {
public static final String DEAD_QUEUE = "dead_queue";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
System.out.println("等待接收消息.....");
//接收消息
//消息消费时的回调函数
DeliverCallback deliverCallback = (consumerTag, message) -> {
System.out.println("Consumer02接收的消息是:" + new String(message.getBody(), "UTF-8"));
};
//消息取消时的回调函数
CancelCallback cancelCallback = consumerTag -> {
};
channel.basicConsume(DEAD_QUEUE, true, deliverCallback, cancelCallback);
}
}
6.3.3. 队列达到最大长度
- c2代码不变
- 生产者去掉设置的过期时间
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//死信消息 设置TTL时间 单位是ms 1000ms = 10s
/*AMQP.BasicProperties properties =
new AMQP.BasicProperties()
.builder().expiration("10000").build();*/
for (int i = 1; i < 11 ; i++) {
String message = "info" + i;
// channel.basicPublish(NORMAL_EXCHANGE1,"zhangsan",properties,message.getBytes());
channel.basicPublish(NORMAL_EXCHANGE1,"zhangsan",null,message.getBytes());
}
}
}
- c1添加代码并且(C1消费者启动之后关闭该消费者 模拟其接收不到消息)
//设置正常队列的长度的限制
arguments.put("x-max-length", 6);
注意此时需要把原先队列删除 因为参数改变了
6.3.4. 消息被拒
- 生产者代码不变
- C2代码不变
- C1添加拒绝方法
public class Consumer01 {
//普通交换机及普通队列
public static final String NORMAL_EXCHANGE = "normal_exchange";
public static final String NORMAL_QUEUE = "normal_queue";
//死信交换机及死信队列
public static final String DEAD_EXCHANGE = "dead_exchange";
public static final String DEAD_QUEUE = "dead_queue";
public static void main(String[] args) throws Exception {
Channel channel = RabbitMqUtils.getChannel();
//声明死信和普通交换机 类型为direct
channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT);
channel.exchangeDeclare(DEAD_EXCHANGE, BuiltinExchangeType.DIRECT);
//声明普通队列
//设置参数,将普通消息超时转为死信消息
Map<String, Object> arguments = new HashMap<>();
/*设置过期时间 单位:ms
---在普通队列到死信交换机时可以设置过期时间;
在生产者发送消息的时候可以设置过期时间(常用),因为在生产者处设置的话,灵活性要高于在消费者中设置*/
//arguments.put("x-message-ttl",10000);
//普通队列设置死信交换机
arguments.put("x-dead-letter-exchange", DEAD_EXCHANGE);
//设置死信RoutingKEY 死信交换机与死信队列进行关联
arguments.put("x-dead-letter-routing-key", "lisi");
//设置正常队列的长度的限制
arguments.put("x-max-length", 6);
channel.queueDeclare(NORMAL_QUEUE, false, false, false, arguments);
/
//声明死信队列
channel.queueDeclare(DEAD_QUEUE, false, false, false, null);
//绑定普通交换机与普通队列
channel.queueBind(NORMAL_QUEUE, NORMAL_EXCHANGE, "zhangsan");
//绑定死信交换机与死信队列
channel.queueBind(DEAD_QUEUE, DEAD_EXCHANGE, "lisi");
System.out.println("等待接收消息.....");
//接收消息
//消息消费时的回调函数
DeliverCallback deliverCallback = (consumerTag, message) -> {
String msg = new String(message.getBody(), "UTF-8");
if (msg.equals("info5")){
System.out.println("Consumer01接收的消息是:" + msg + ":此消息是被Consumer01拒绝的");
channel.basicReject(message.getEnvelope().getDeliveryTag(),false);//不重新入队
}else {
System.out.println("Consumer01接收的消息是:" + msg);
channel.basicAck(message.getEnvelope().getDeliveryTag(),false);//不批量应答
}
};
//消息取消时的回调函数
CancelCallback cancelCallback = consumerTag -> {
};
//开启手动应答
channel.basicConsume(NORMAL_QUEUE, false, deliverCallback, cancelCallback);
}
}
启动消费者1然后再启动消费者2
7. 延迟队列
7.1. 延迟队列概念
延时队列,队列内部是有序的,最重要的特性就体现在它的延时属性上,延时队列中的元素是希望在指定时间到了以后或之前取出和处理,简单来说,延时队列就是用来存放需要在指定时间被处理的元素的队列。
7.2. 延迟队列使用场景
- 订单在十分钟之内未支付则自动取消
- 新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。
- 用户注册成功后,如果三天内没有登陆则进行短信提醒。
- 用户发起退款,如果三天内没有得到处理则通知相关运营人员。
- 预定会议后,需要在预定的时间点前十分钟通知各个与会人员参加会议
这些场景都有一个特点,需要在某个事件发生之后或者之前的指定时间点完成某一项任务,如:发生订单生成事件,在十分钟之后检查该订单支付状态,然后将未支付的订单进行关闭;看起来似乎使用定时任务,一直轮询数据,每秒查一次,取出需要被处理的数据,然后处理不就完事了吗?如果数据量比较少,确实可以这样做,比如:对于“如果账单一周内未支付则进行自动结算”这样的需求,如果对于时间不是严格限制,而是宽松意义上的一周,那么每天晚上跑个定时任务检查一下所有未支付的账单,确实也是一个可行的方案。但对于数据量比较大,并且时效性较强的场景,如:“订单十分钟内未支付则关闭“,短期内未支付的订单数据可能会有很多,活动期间甚至会达到百万甚至千万级别,对这么庞大的数据量仍旧使用轮询的方式显然是不可取的,很可能在一秒内无法完成所有订单的检查,同时会给数据库带来很大压力,无法满足业务要求而且性能低下。
7.3. RabbitMQ中的TTL
TTL是什么呢?TTL是RabbitMQ中一个消息或者队列的属性,表明一条消息或者该队列中的所有消息的最大存活时间,单位是毫秒。换句话说,如果一条消息设置了TTL属性或者进入了设置TTL属性的队列,那么这条消息如果在TTL设置的时间内没有被消费,则会成为"死信"。如果同时配置了队列的TTL和消息的TTL,那么较小的那个值将会被使用,有两种方式设置TTL。
7.3.1. 消息设置TTL
另一种方式便是针对每条消息设置TTL
7.3.2. 队列设置TTL
第一种是在创建队列的时候设置队列的“x-message-ttl”属性
7.3.3. 两者的区别
如果设置了队列的TTL属性,那么一旦消息过期,就会被队列丢弃(如果配置了死信队列被丢到死信队列中),而第二种方式,消息即使过期,也不一定会被马上丢弃,因为消息是否过期是在即将投递到消费者之前判定的,如果当前队列有严重的消息积压情况,则已过期的消息也许还能存活较长时间;另外,还需要注意的一点是,如果不设置TTL,表示消息永远不会过期,如果将TTL设置为0,则表示除非此时可以直接投递该消息到消费者,否则该消息将会被丢弃。
前一小节我们介绍了死信队列,刚刚又介绍了TTL,至此利用RabbitMQ实现延时队列的两大要素已经集齐,接下来只需要将它们进行融合,再加入一点点调味料,延时队列就可以新鲜出炉了。想想看,延时队列,不就是想要消息延迟多久被处理吗,TTL则刚好能让消息在延迟多久之后成为死信,另一方面,成为死信的消息都会被投递到死信队列里,这样只需要消费者一直消费死信队列里的消息就完事了,因为里面的消息都是希望被立即处理的消息。
7.4. 整合springboot
7.4.1. 创建项目
7.4.2. 添加依赖
<dependencies>
<!--RabbitMQ 依赖-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-amqp</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>
<version>1.2.47</version>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
</dependency>
<!--swagger-->
<dependency>
<groupId>io.springfox</groupId>
<artifactId>springfox-swagger2</artifactId>
<version>2.9.2</version>
</dependency>
<dependency>
<groupId>io.springfox</groupId>
<artifactId>springfox-swagger-ui</artifactId>
<version>2.9.2</version>
</dependency>
<!--RabbitMQ 测试依赖-->
<dependency>
<groupId>org.springframework.amqp</groupId>
<artifactId>spring-rabbit-test</artifactId>
<scope>test</scope>
</dependency>
</dependencies>
7.4.3. 修改配置文件
Spring.mvc.pathmatch.matching-strategy=ant_path_matcher
spring.rabbitmq.host=192.168.249.103
spring.rabbitmq.port=5672
spring.rabbitmq.username=admin
spring.rabbitmq.password=123
7.4.4 添加swagger配置类
@Configuration
@EnableSwagger2
public class SwaggerConfig {
@Bean
public Docket webApiConfig(){
return new Docket(DocumentationType.SWAGGER_2)
.groupName("webApi")
.apiInfo(webApiInfo())
.select()
.build();
}
private ApiInfo webApiInfo(){
return new ApiInfoBuilder()
.title("rabbitmq 接口文档")
.description("本文档描述了 rabbitmq 微服务接口定义")
.version("1.0")
.contact(new Contact("enjoy6288", "http://atguigu.com","1551388580@qq.com"))
.build();
}
}
7.5. 队列TTL
7.5.1. 代码架构图
创建两个队列QA和QB,两者队列TTL分别设置为10S和40S,然后在创建一个交换机X和死信交换机Y,它们的类型都是direct,创建一个死信队列QD,它们的绑定关系如下:
7.5.2. 配置文件类代码
/** 配置类
* @author wystart
* @create 2022-08-31 17:29
*/
@Configuration
public class TtlQueueConfig {
//1. 起名
//普通交换机的名称
public static final String X_EXCHANGE = "X";
//死信交换机的名称
public static final String Y_DEAD_LETTER_EXCHANGE = "Y";
//普通队列的名称
public static final String QUEUE_A = "QA";
public static final String QUEUE_B = "QB";
//死信队列的名称
public static final String DEAD_LETTER_QUEUE = "QD";
//2.声明交换机
//声明xExchange 别名
@Bean("xExchange")
public DirectExchange xExchange(){
return new DirectExchange(X_EXCHANGE);
}
//声明yExchange 别名
@Bean("yExchange")
public DirectExchange yExchange(){
return new DirectExchange(Y_DEAD_LETTER_EXCHANGE);
}
//3.声明队列
//声明普通队列 TTL 为10s
@Bean("queueA")
public Queue queueA(){
Map<String, Object> arguments = new HashMap<>(3);//初始化3个参数
//设置死信交换机
arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);
//设置死信RoutingKey
arguments.put("x-dead-letter-routing-key","YD");
//设置TTL(过期时间) 单位ms
arguments.put("x-message-ttl",10000);
return QueueBuilder.durable(QUEUE_A).withArguments(arguments).build();
}
//声明普通队列 TTL 为40s
@Bean("queueB")
public Queue queueB(){
Map<String, Object> arguments = new HashMap<>(3);
//设置死信交换机
arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);
//设置死信RoutingKey
arguments.put("x-dead-letter-routing-key","YD");
//设置TTL(过期时间) 单位ms
arguments.put("x-message-ttl",40000);
return QueueBuilder.durable(QUEUE_B).withArguments(arguments).build();
}
//声明死信队列
@Bean("queueD")
public Queue queueD(){
return QueueBuilder.durable(DEAD_LETTER_QUEUE).build();
}
//4.绑定
//QA 与 X 交换机绑定
@Bean
public Binding queueABindingX(@Qualifier("queueA") Queue queueA,
@Qualifier("xExchange") DirectExchange xExchange){
return BindingBuilder.bind(queueA).to(xExchange).with("XA");
}
//QB 与 X 交换机绑定
@Bean
public Binding queueBBindingX(@Qualifier("queueB") Queue queueB,
@Qualifier("xExchange") DirectExchange xExchange){
return BindingBuilder.bind(queueB).to(xExchange).with("XB");
}
//QD 与 Y 交换机绑定
@Bean
public Binding queueDBindingY(@Qualifier("queueD") Queue queueD,
@Qualifier("yExchange") DirectExchange yExchange){
return BindingBuilder.bind(queueD).to(yExchange).with("YD");
}
7.5.3. 消息生产者代码
/**
* 发送延迟消息
* http://localhost:8080/ttl/sendMsg/嘻嘻嘻
*/
@Slf4j
@RestController //表示Controller类,同时要求返回值为JSON
@RequestMapping("/ttl") //实现浏览器的请求路径与方法的映射
public class SendMsgController {
@Autowired
private RabbitTemplate rabbitTemplate;
//开始发消息
@GetMapping("/sendMsg/{message}") //只接收GET请求类型
//@PathVariable restFul结构,接收参数的注解
public void sendMsg(@PathVariable String message){
log.info("当前时间:{},发送一条信息给两个TTL队列:{}",new Date().toString(),message); //{}占位符,会被后面的内容填充
rabbitTemplate.convertAndSend("X","XA","消息来自ttl为10s的队列:"+ message);
rabbitTemplate.convertAndSend("X","XB","消息来自ttl为40s的队列:"+ message);
}
}
7.5.4 消费者代码
/**接收消息
*/
@Slf4j
@Component
public class Consumer {
//监听消息
@RabbitListener(queues = ConfirmConfig.CONFIRM_QUEUE_NAME)
public void receiveConfirmMessage(Message message){
String msg = new String(message.getBody());
log.info("接收到的队列confirm.queue消息:{}",msg);
}
}
发起一个请求http://localhost:8080/ttl/sendMsg/嘻嘻嘻
第一条消息在10S后变成了死信消息,然后被消费者消费掉,第二条消息在40S之后变成了死信消息,然后被消费掉,这样一个延时队列就打造完成了。
不过,如果这样使用的话,岂不是每增加一个新的时间需求,就要新增一个队列,这里只有10S和40S两个时间选项,如果需要一个小时后处理,那么就需要增加TTL为一个小时的队列,如果是预定会议室然后提前通知这样的场景,岂不是要增加无数个队列才能满足需求?
7.6. 延时队列优化
7.6.1. 代码架构图
在这里新增了一个队列QC,绑定关系如下,该队列不设置TTL时间
7.6.2 配置类代码
/** 配置类
*/
@Configuration
public class TtlQueueConfig {
//1. 起名
//普通交换机的名称
public static final String X_EXCHANGE = "X";
//死信交换机的名称
public static final String Y_DEAD_LETTER_EXCHANGE = "Y";
//普通队列的名称
public static final String QUEUE_C = "QC";
//2.声明交换机
//声明xExchange 别名
@Bean("xExchange")
public DirectExchange xExchange(){
return new DirectExchange(X_EXCHANGE);
}
//声明yExchange 别名
@Bean("yExchange")
public DirectExchange yExchange(){
return new DirectExchange(Y_DEAD_LETTER_EXCHANGE);
}
//3.声明队列
//没有过期时间的普通队列
@Bean("queueC")
public Queue queueC(){
Map<String, Object> arguments = new HashMap<>(3);
//设置死信交换机
arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE);
//设置死信RoutingKey
arguments.put("x-dead-letter-routing-key","YD");
return QueueBuilder.durable(QUEUE_C).withArguments(arguments).build();
}
//4.绑定
//QC 与 X 交换机绑定
@Bean
public Binding queueCBindingX(@Qualifier("queueC") Queue queueC,
@Qualifier("xExchange") DirectExchange xExchange){
return BindingBuilder.bind(queueC).to(xExchange).with("XC");
}
7.6.3 消息生产者代码
@Slf4j
@RestController //表示Controller类,同时要求返回值为JSON
@RequestMapping("/ttl") //实现浏览器的请求路径与方法的映射
public class SendMsgController {
@Autowired
private RabbitTemplate rabbitTemplate;
//开始发消息 消息TTL
@GetMapping("/sendExpirationMsg/{message}/{ttlTime}")
public void senMsg(@PathVariable String message,@PathVariable String ttlTime){
log.info("当前时间:{},发送一条时长{}毫秒TTL信息给队列QC:{}",
new Date().toString(),ttlTime,message);
rabbitTemplate.convertAndSend("X","XC",message,msg ->{
//发送消息的时候 延迟时长 Message postProcessMessage(Message message) throws AmqpException:函数式接口,用lambda表达式
msg.getMessageProperties().setExpiration(ttlTime);
return msg;
} );
}
发起请求
- http://localhost:8080/ttl/sendExpirationMsg/你好1/20000
- http://localhost:8080/ttl/sendExpirationMsg/你好2/2000
看起来似乎没什么问题,但是在最开始的时候,就介绍过如果使用在消息属性上设置TTL的方式,消息可能并不会按时“死亡“,因为RabbitMQ只会检查第一个消息是否过期,如果过期则丢到死信队列,如果第一个消息的延时时长很长,而第二个消息的延时时长很短,第二个消息并不会优先得到执行。
7.7. Rabbitmq插件实现延迟队列
上文中提到的问题,确实是一个问题,如果不能实现在消息粒度上的TTL,并使其在设置的TTL时间及时死亡,就无法设计成一个通用的延时队列。那如何解决呢,接下来我们就去解决该问题。
7.7.1. 安装延时队列插件
在官网上下载https://www.rabbitmq.com/community-plugins.html,下载 rabbitmq_delayed_message_exchange插件,然后解压放置
到RabbitMQ的插件目录。
进入RabbitMQ的安装目录下的plgins目录
,执行下面命令让该插件生效,然后重启RabbitMQ
/usr/lib/rabbitmq/lib/rabbitmq_server-3.8.8/plugins
rabbitmq-plugins enable rabbitmq_delayed_message_exchange
7.7.2. 代码架构图
在这里新增了一个队列delayed.queue,一个自定义交换机delayed.exchange,绑定关系如下:
7.7.3. 配置文件类代码
在我们自定义的交换机中,这是一种新的交换类型,该类型消息支持延迟投递机制 消息传递后并不会立即投递到目标队列中,而是存储在mnesia(一个分布式数据系统)表中,当达到投递时间时,才投递到目标队列中。
@Configuration
public class DelayedQueueConfig {
//交换机
public static final String DELAYED_EXCHANGE_NAME = "delayed.exchange";
//队列
public static final String DELAYED_QUEUE_NAME = "delayed.queue";
//routingKey
public static final String DELAYED_ROUTING_KEY = "delayed.routingkey";
//声明交换机 自定义交换机,我们在这里定义的是一个延迟交换机 基于插件
@Bean
public CustomExchange delayedExchange() {
Map<String, Object> arguments = new HashMap<>();
//自定义交换机的类型
arguments.put("x-delayed-type", "direct");
/**
* 1.交换机的名称
* 2.交换机的类型
* 3.是否需要持久化
* 4.是否需要自动删除
* 5.其他的参数
*/
return new CustomExchange(DELAYED_EXCHANGE_NAME, "x-delayed-message",
true, false, arguments);
}
//声明队列
@Bean
public Queue delayedQueue(){
return new Queue(DELAYED_QUEUE_NAME);
}
//绑定
@Bean
public Binding delayedQueueBindingDelayedExchange(
@Qualifier("delayedQueue") Queue delayedQueue,
@Qualifier("delayedExchange") CustomExchange delayedExchange){
return BindingBuilder.bind(delayedQueue).to(delayedExchange).with(DELAYED_ROUTING_KEY).noargs();
}
}
7.7.4. 消息生产者代码
@Slf4j
@RestController //表示Controller类,同时要求返回值为JSON
@RequestMapping("/ttl") //实现浏览器的请求路径与方法的映射
public class SendMsgController {
@Autowired
private RabbitTemplate rabbitTemplate;
//开始发消息 基于插件的 消息 及 延迟的时间
@GetMapping("/sendDelayMsg/{message}/{delayTime}")
public void senMsg(@PathVariable String message,@PathVariable Integer delayTime){
log.info("当前时间:{},发送一条时长{}毫秒信息给延迟队列delayed.queue:{}",
new Date().toString(),delayTime,message);
rabbitTemplate.convertAndSend(DelayedQueueConfig.DELAYED_EXCHANGE_NAME,
DelayedQueueConfig.DELAYED_ROUTING_KEY,message, msg ->{
//发送消息的时候 延迟时长 Message postProcessMessage(Message message) throws AmqpException:函数式接口,用lambda表达式
msg.getMessageProperties().setDelay(delayTime);
return msg;
} );
}
}
7.7.5. 消息消费者代码
/**消费者 基于插件的延迟消息
*/
@Slf4j
@Component
public class DelayQueueConsumer {
//监听消息
@RabbitListener(queues = DelayedQueueConfig.DELAYED_QUEUE_NAME)
public void receiveDelayQueue(Message message){
String msg = new String(message.getBody());
log.info("当前时间:{},收到延迟队列的消息:{}",new Date().toString(),msg);
}
}
发起请求:
- http://localhost:8080/ttl/sendDelayMsg/come on baby1/20000
- http://localhost:8080/ttl/sendDelayMsg/come on baby2/2000
第二个消息被先消费掉了,符合预期
7.8. 总结
延时队列在需要延时处理的场景下非常有用,使用RabbitMQ来实现延时队列可以很好的利用RabbitMQ的特性,如:消息可靠发送、消息可靠投递、死信队列来保障消息至少被消费一次以及未被正确处理的消息不会被丢弃。另外,通过RabbitMQ集群的特性,可以很好的解决单点故障问题,不会因为单个节点挂掉导致延时队列不可用或者消息丢失。
当然,延时队列还有很多其它选择,比如利用Java的DelayQueue,利用Redis的zset,利用Quartz或者利用kafka的时间轮,这些方式各有特点,看需要适用的场景。
7.9 启动问题
RabbitMQ整合springboot时出现以下错误:
Error starting ApplicationContext. To display the conditions report re-run your application with ‘debug’ enabled.
2022-08-27 09:05:19.476 ERROR 30248 — [ main] o.s.boot.SpringApplication : Application run failed
org.springframework.context.ApplicationContextException: Failed to
start bean ‘documentationPluginsBootstrapper’; nested exception is
java.lang.NullPointerException at
org.springframework.context.support.DefaultLifecycleProcessor.doStart(DefaultLifecycleProcessor.java:181)
~[spring-context-5.3.22.jar:5.3.22] at
org.springframework.context.support.DefaultLifecycleProcessor.access200 ( D e f a u l t L i f e c y c l e P r o c e s s o r . j a v a : 54 ) [ s p r i n g − c o n t e x t − 5.3.22. j a r : 5.3.22 ] a t o r g . s p r i n g f r a m e w o r k . c o n t e x t . s u p p o r t . D e f a u l t L i f e c y c l e P r o c e s s o r 200(DefaultLifecycleProcessor.java:54) ~[spring-context-5.3.22.jar:5.3.22] at org.springframework.context.support.DefaultLifecycleProcessor200(DefaultLifecycleProcessor.java:54) [spring−context−5.3.22.jar:5.3.22]atorg.springframework.context.support.DefaultLifecycleProcessorLifecycleGroup.start(DefaultLifecycleProcessor.java:356)
~[spring-context-5.3.22.jar:5.3.22] at
java.lang.Iterable.forEach(Iterable.java:75) ~[na:1.8.0_131] at
org.springframework.context.support.DefaultLifecycleProcessor.startBeans(DefaultLifecycleProcessor.java:155)
~[spring-context-5.3.22.jar:5.3.22] at
org.springframework.context.support.DefaultLifecycleProcessor.onRefresh(DefaultLifecycleProcessor.java:123)
~[spring-context-5.3.22.jar:5.3.22] at
org.springframework.context.support.AbstractApplicationContext.finishRefresh(AbstractApplicationContext.java:935)
~[spring-context-5.3.22.jar:5.3.22] at
org.springframework.context.support.AbstractApplicationContext.refresh(AbstractApplicationContext.java:586)
~[spring-context-5.3.22.jar:5.3.22] at
org.springframework.boot.web.servlet.context.ServletWebServerApplicationContext.refresh(ServletWebServerApplicationContext.java:145)
~[spring-boot-2.6.11.jar:2.6.11] at
org.springframework.boot.SpringApplication.refresh(SpringApplication.java:745)
[spring-boot-2.6.11.jar:2.6.11] at
org.springframework.boot.SpringApplication.refreshContext(SpringApplication.java:420)
[spring-boot-2.6.11.jar:2.6.11] at
org.springframework.boot.SpringApplication.run(SpringApplication.java:307)
[spring-boot-2.6.11.jar:2.6.11] at
org.springframework.boot.SpringApplication.run(SpringApplication.java:1317)
[spring-boot-2.6.11.jar:2.6.11] at
org.springframework.boot.SpringApplication.run(SpringApplication.java:1306)
[spring-boot-2.6.11.jar:2.6.11] at
com.atguigu.rabbitmq.springbootrabbitmq.SpringbootRabbitmqApplication.main(SpringbootRabbitmqApplication.java:13)
[classes/:na] Caused by: java.lang.NullPointerException: null at
springfox.documentation.spi.service.contexts.Orderings$8.compare(Orderings.java:112)
~[springfox-spi-2.9.2.jar:null] at
springfox.documentation.spi.service.contexts.Orderings$8.compare(Orderings.java:109)
~[springfox-spi-2.9.2.jar:null] at
com.google.common.collect.ComparatorOrdering.compare(ComparatorOrdering.java:37)
~[guava-20.0.jar:na] at
java.util.TimSort.countRunAndMakeAscending(TimSort.java:355)
~[na:1.8.0_131] at java.util.TimSort.sort(TimSort.java:220)
~[na:1.8.0_131] at java.util.Arrays.sort(Arrays.java:1438)
~[na:1.8.0_131] at
com.google.common.collect.Ordering.sortedCopy(Ordering.java:855)
~[guava-20.0.jar:na] at
springfox.documentation.spring.web.plugins.WebMvcRequestHandlerProvider.requestHandlers(WebMvcRequestHandlerProvider.java:57)
~[springfox-spring-web-2.9.2.jar:null] at
springfox.documentation.spring.web.plugins.DocumentationPluginsBootstrapper$2.apply(DocumentationPluginsBootstrapper.java:138)
~[springfox-spring-web-2.9.2.jar:null] at
springfox.documentation.spring.web.plugins.DocumentationPluginsBootstrapper$2.apply(DocumentationPluginsBootstrapper.java:135)
~[springfox-spring-web-2.9.2.jar:null] at
com.google.common.collect.Iterators$7.transform(Iterators.java:750)
~[guava-20.0.jar:na] at
com.google.common.collect.TransformedIterator.next(TransformedIterator.java:47)
~[guava-20.0.jar:na] at
com.google.common.collect.TransformedIterator.next(TransformedIterator.java:47)
~[guava-20.0.jar:na] at
com.google.common.collect.MultitransformedIterator.hasNext(MultitransformedIterator.java:52)
~[guava-20.0.jar:na] at
com.google.common.collect.MultitransformedIterator.hasNext(MultitransformedIterator.java:50)
~[guava-20.0.jar:na] at
com.google.common.collect.ImmutableList.copyOf(ImmutableList.java:249)
~[guava-20.0.jar:na] at
com.google.common.collect.ImmutableList.copyOf(ImmutableList.java:209)
~[guava-20.0.jar:na] at
com.google.common.collect.FluentIterable.toList(FluentIterable.java:614)
~[guava-20.0.jar:na] at
springfox.documentation.spring.web.plugins.DocumentationPluginsBootstrapper.defaultContextBuilder(DocumentationPluginsBootstrapper.java:111)
~[springfox-spring-web-2.9.2.jar:null] at
springfox.documentation.spring.web.plugins.DocumentationPluginsBootstrapper.buildContext(DocumentationPluginsBootstrapper.java:96)
~[springfox-spring-web-2.9.2.jar:null] at
springfox.documentation.spring.web.plugins.DocumentationPluginsBootstrapper.start(DocumentationPluginsBootstrapper.java:167)
~[springfox-spring-web-2.9.2.jar:null] at
org.springframework.context.support.DefaultLifecycleProcessor.doStart(DefaultLifecycleProcessor.java:178)
~[spring-context-5.3.22.jar:5.3.22] … 14 common frames omitted
Disconnected from the target VM, address: ‘127.0.0.1:50114’,
transport: ‘socket’
Process finished with exit code 1
这个错误的原因是springboot版本和swager版本不对,版本太高。可以在配置文件中加入以下代码:
Spring.mvc.pathmatch.matching-strategy=ant_path_matcher
spring.rabbitmq.host=192.168.249.103
spring.rabbitmq.port=5672
spring.rabbitmq.username=admin
spring.rabbitmq.password=123
8. 发布 确认高级
在生产环境中由于一些不明原因,导致rabbitmq重启,在RabbitMQ重启期间生产者消息投递失败,导致消息丢失,需要手动处理和恢复。于是,我们开始思考,如何才能进行RabbitMQ的消息可靠投递呢?特别是在这样比较极端的情况,RabbitMQ集群不可用的时候,无法投递的消息该如何处理呢:
应用[xxx]在[08-1516:36:04]发生[错误日志异常],alertId=[xxx]。由[org.springframework.amqp.rabbit.listener.BlockingQueueConsumer:start:620]触发。
应用xxx 可能原因如下 服务名为: 异常为:org.springframework.amqp.rabbit.listener.BlockingQueueConsumer:start:620, 产生原因如下:1.org.springframework.amqp.rabbit.listener.QueuesNotAvailableException: Cannot prepare queue for listener. Either the queue doesn’t exist or the broker will not allow us to use it.||Consumer received fatal=false exception on startup:
8.1. 发布确认springboot版本
8.1.1. 确认机制方案
8.1.2. 代码架构图
8.1.3. 配置文件
在配置文件当中需要添加
spring.rabbitmq.publisher-confirm-type=correlated
- NONE
禁用发布确认模式,是默认值 - CORRELATED
发布消息成功到交换器后会触发回调方法 - SIMPLE
经测试有两种效果,其一效果和CORRELATED值一样会触发回调方法,
其二在发布消息成功后使用rabbitTemplate调用waitForConfirms或waitForConfirmsOrDie方法 等待broker节点返回发送结果,根据返回结果来判定下一步的逻辑,要注意的点是 waitForConfirmsOrDie方法如果返回false则会关闭channel,则接下来无法发送消息到broker
Spring.mvc.pathmatch.matching-strategy=ant_path_matcher
spring.rabbitmq.host=192.168.249.103
spring.rabbitmq.port=5672
spring.rabbitmq.username=admin
spring.rabbitmq.password=123
# 回调
spring.rabbitmq.publisher-confirm-type=correlated
8.1.4. 添加配置类
/** 发布确认 (高级部分) 配置类
*/@Configuration
public class ConfirmConfig {
//交换机
public static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";
//声明交换机
@Bean("confirmExchange")
public DirectExchange confirmExchange(){
// return new DirectExchange(CONFIRM_EXCHANGE_NAME);
return ExchangeBuilder.directExchange(CONFIRM_EXCHANGE_NAME).durable(true)
.withArgument("alternate-exchange",BACKUP_EXCHANGE_NAME).build();//备份交换机和确认交换机绑定
}
//声明队列
@Bean("confirmQueue")
public Queue confirmQueue(){
//创建queue的方式
//① new一个queue
// return new Queue(CONFIRM_QUEUE_NAME);
//② 利用QueueBuilder构造器进行创建
return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build();
}
//绑定
@Bean
public Binding queueBindingExchange(@Qualifier("confirmQueue") Queue confirmQueue,
@Qualifier("confirmExchange") DirectExchange confirmExchange){
return BindingBuilder.bind(confirmQueue).to(confirmExchange).with(CONFIRM_ROUTING_KEY);
}
8.1.5 消息生产者
/**发布确认 生产者
*/
@Slf4j
@RestController
@RequestMapping("/confirm")
public class ProduceController {
@Autowired
private RabbitTemplate rabbitTemplate;
@GetMapping("/sendMessage/{message}")
public void sendMessage(@PathVariable String message){
CorrelationData correlationData = new CorrelationData();
//发送消息
rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME ,
ConfirmConfig.CONFIRM_ROUTING_KEY,message ,correlationData);
log.info("发送消息:{}",message);
}
8.1.6 回调接口
/** 发布确认 回调接口(生产者发送到交换机失败) ConfirmCallback
* 回退接口(交换机发送到队列失败) ReturnsCallback
* @author wystart
* @create 2022-09-01 0:28
*/
@Slf4j
@Component
public class MyCallBack implements RabbitTemplate.ConfirmCallback,RabbitTemplate.ReturnsCallback {
// @Autowired @PostConstruct 这两步的作用是让 RabbitTemplate 调用其内部接口 ConfirmCallback时
// 将 MyCallBack作为其实现类
@Autowired
private RabbitTemplate rabbitTemplate;
//@PostConstruct 将会在类的实例化 @Component ;自动注入 @Autowired之后才进行,属于第三步骤,如果在第二步自动注入前执行
// 报空指针异常
@PostConstruct
public void init(){
//注入
rabbitTemplate.setConfirmCallback(this);
}
/**
*交换机确认回调方法
* 1.发消息 交换机接收到了 回调
* 1.1 correlationData 保存回调消息的ID及相关信息
* 1.2 交换机收到消息 ack = true
* 1.3 cause null
*
* 2.发消息 交换机接收失败 回调
* 2.1 correlationData 保存回调消息的ID及相关信息
* 2.2 交换机收到消息 ack = false
* 2.3 cause 失败的原因
*/
//回调接口
@Override
public void confirm(CorrelationData correlationData, boolean ack, String cause) {
//三元运算符
String id = correlationData != null ? correlationData.getId() : "";
if (ack){
log.info("交换机已经收到ID为:{}的消息",id);
}else {
log.info("交换机还未收到ID为:{}的消息,由于原因:{}",id,cause);
}
}
8.1.7 消息消费者
/**接收消息
*/
@Slf4j
@Component
public class Consumer {
//监听消息
@RabbitListener(queues = ConfirmConfig.CONFIRM_QUEUE_NAME)
public void receiveConfirmMessage(Message message){
String msg = new String(message.getBody());
log.info("接收到的队列confirm.queue消息:{}",msg);
}
}
8.1.8 结果分析
8.2 回退消息
8.2.1 Mandatory 参数
在仅开启了生产者确认机制的情况下,交换机接收到消息后,会直接给消息生产者发送确认消息,如果发现该消息不可路由,那么消息会被直接丢弃,此时生产者是不知道消息被丢弃这个事件的。 那么如何让无法被路由的消息帮我想办法处理一下?最起码通知我一声,我好自己处理啊。通过设置mandatory参数可以在当消息传递过程中不可达目的地时将消息返回给生产者。
8.2.2 消息生产者代码
/**发布确认 生产者
*/
@Slf4j
@RestController
@RequestMapping("/confirm")
public class ProduceController {
@Autowired
private RabbitTemplate rabbitTemplate;
@GetMapping("/sendMessage/{message}")
public void sendMessage(@PathVariable String message){
CorrelationData correlationData = new CorrelationData("1");
//发送消息
rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME ,
ConfirmConfig.CONFIRM_ROUTING_KEY,message + "key1",correlationData);//测试交换机如果写错(ConfirmConfig.CONFIRM_EXCHANGE_NAME + "123"),看能不能有回调接口
log.info("发送消息:{}",message);
// 将路由key 故意写错;测试队列收没收到消息
CorrelationData correlationData2 = new CorrelationData("2");
//发送消息
rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME ,
ConfirmConfig.CONFIRM_ROUTING_KEY + "2",message + "key12",correlationData2);
log.info("发送消息:{}",message);
}
}
8.2.3 回调接口
/** 发布确认 回调接口(生产者发送到交换机失败) ConfirmCallback
* 回退接口(交换机发送到队列失败) ReturnsCallback
*/
@Slf4j
@Component
public class MyCallBack implements RabbitTemplate.ConfirmCallback,RabbitTemplate.ReturnsCallback {
// @Autowired @PostConstruct 这两步的作用是让 RabbitTemplate 调用其内部接口 ConfirmCallback时
// 将 MyCallBack作为其实现类
@Autowired
private RabbitTemplate rabbitTemplate;
//@PostConstruct 将会在类的实例化 @Component ;自动注入 @Autowired之后才进行,属于第三步骤,如果在第二步自动注入前执行
// 报空指针异常
@PostConstruct
public void init(){
//注入
rabbitTemplate.setConfirmCallback(this);
rabbitTemplate.setReturnsCallback(this);
}
/**
*交换机确认回调方法
* 1.发消息 交换机接收到了 回调
* 1.1 correlationData 保存回调消息的ID及相关信息
* 1.2 交换机收到消息 ack = true
* 1.3 cause null
*
* 2.发消息 交换机接收失败 回调
* 2.1 correlationData 保存回调消息的ID及相关信息
* 2.2 交换机收到消息 ack = false
* 2.3 cause 失败的原因
*/
//回调接口
@Override
public void confirm(CorrelationData correlationData, boolean ack, String cause) {
//三元运算符
String id = correlationData != null ? correlationData.getId() : "";
if (ack){
log.info("交换机已经收到ID为:{}的消息",id);
}else {
log.info("交换机还未收到ID为:{}的消息,由于原因:{}",id,cause);
}
}
//可以在当消息传递过程中不可达目的地时将消息返回给生产者
//只有不可达目的地的时候 才进行回退
//该方法已经过期
/*
@Override
public void returnedMessage(Message message, int replyCode, String replyText, String exchange, String routingKey) {
log.info("消息{},被交换机{}退回,退回原因:{},路由key:{}",
new String(message.getBody()),exchange,replyText,routingKey);
}
*/
@Override
public void returnedMessage(ReturnedMessage returned) {
log.info("消息{},被交换机{}退回,退回原因:{},路由key:{}",
new String(returned.getMessage().getBody()),returned.getExchange(),returned.getReplyText(),
returned.getRoutingKey());
}
}
8.2.4 结果分析
8.3 备份交换机
有了 mandatory 参数和回退消息,我们获得了对无法投递消息的感知能力,有机会在生产者的消息无法被投递时发现并处理。但有时候,我们并不知道该如何处理这些无法路由的消息,最多打个日志,然后触发报警,再来手动处理。而通过日志来处理这些无法路由的消息是很不优雅的做法,特别是当生产者所在的服务有多台机器的时候,手动复制日志会更加麻烦而且容易出错。而且设置 mandatory 参数会增加生产者的复杂性,需要添加处理这些被退回的消息的逻辑。如果既不想丢失消息,又不想增加生产者的复杂性,该怎么做呢?前面在设置死信队列的文章中,我们提到,可以为队列设置死信交换机来存储那些处理失败的消息,可是这些不可路由消息根本没有机会进入到队列,因此无法使用死信队列来保存消息。在RabbitMQ中,有一种备份交换机的机制存在,可以很好的应对这个问题。什么是备份交换机呢?备份交换机可以理解为 RabbitMQ 中交换机的“备胎”,当我们为某一个交换机声明一个对应的备份交换机时,就是为它创建一个备胎,当交换机接收到一条不可路由消息时,将会把这条消息转发到备份交换机中,由备份交换机来进行转发和处理,通常备份交换机的类型为 Fanout ,这样就能把所有消息都投递到与其绑定的队列中,然后我们在备份交换机下绑定一个队列,这样所有那些原交换机无法被路由的消息,就会都进入这个队列了。当然,我们还可以建立一个报警队列,用独立的消费者来进行监测和报警。
8.3.1. 代码架构图
8.3.2. 修改配置类
/** 发布确认 (高级部分) 配置类
*/@Configuration
public class ConfirmConfig {
//交换机
public static final String CONFIRM_EXCHANGE_NAME = "confirm.exchange";
//队列
public static final String CONFIRM_QUEUE_NAME = "confirm.queue";
//RoutingKey
public static final String CONFIRM_ROUTING_KEY = "key1";
//备份交换机
public static final String BACKUP_EXCHANGE_NAME = "backup.exchange";
//备份队列
public static final String BACKUP_QUEUE_NAME = "backup.queue";
//报警队列
public static final String WARNING_QUEUE_NAME = "warning.queue";
//声明交换机
@Bean("confirmExchange")
public DirectExchange confirmExchange(){
// return new DirectExchange(CONFIRM_EXCHANGE_NAME);
return ExchangeBuilder.directExchange(CONFIRM_EXCHANGE_NAME).durable(true)
.withArgument("alternate-exchange",BACKUP_EXCHANGE_NAME).build();//备份交换机和确认交换机绑定
}
//声明队列
@Bean("confirmQueue")
public Queue confirmQueue(){
//创建queue的方式
//① new一个queue
// return new Queue(CONFIRM_QUEUE_NAME);
//② 利用QueueBuilder构造器进行创建
return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build();
}
//绑定
@Bean
public Binding queueBindingExchange(@Qualifier("confirmQueue") Queue confirmQueue,
@Qualifier("confirmExchange") DirectExchange confirmExchange){
return BindingBuilder.bind(confirmQueue).to(confirmExchange).with(CONFIRM_ROUTING_KEY);
}
//备份交换机
@Bean("backupExchange")
public FanoutExchange backupExchange(){
return new FanoutExchange(BACKUP_EXCHANGE_NAME);
}
//声明备份队列
@Bean("backupQueue")
public Queue backupQueue(){
return QueueBuilder.durable(BACKUP_QUEUE_NAME).build();
}
//声明备份队列
@Bean("warningQueue")
public Queue warningQueue(){
return QueueBuilder.durable(WARNING_QUEUE_NAME).build();
}
//绑定
// 备份队列与备份交换机
@Bean
public Binding backupQueueBindingBackupExchange(@Qualifier("backupQueue") Queue backupQueue,
@Qualifier("backupExchange") FanoutExchange backupExchange){
return BindingBuilder.bind(backupQueue).to(backupExchange);
}
// 警告队列与备份交换机
@Bean
public Binding warningQueueBindingBackupExchange(@Qualifier("warningQueue") Queue warningQueue,
@Qualifier("backupExchange") FanoutExchange backupExchange){
return BindingBuilder.bind(warningQueue).to(backupExchange);
}
}
8.3.3. 报警消费者
@Slf4j
@Component
public class WarningConsumer {
//接收报警消息
@RabbitListener(queues = ConfirmConfig.WARNING_QUEUE_NAME)
public void receiveWarningMsg(Message message){
String msg = new String(message.getBody());
log.error("报警发现不可路由消息:{}",msg);
}
}
8.3.4. 测试注意事项
重新启动项目的时候需要把原来的confirm.exchange删除因为我们修改了其绑定属性,不然报以下错:
8.3.5. 结果分析
mandatory参数与备份交换机可以一起使用的时候,如果两者同时开启,消息究竟何去何从?谁优先级高,经过上面结果显示答案是备份交换机优先级高。
9. RabbitMQ其他知识点
9.1. 幂等性
9.1.1. 概念
用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用。举个最简单的例子,那就是支付,用户购买商品后支付,支付扣款成功,但是返回结果的时候网络异常,此时钱已经扣了,用户再次点击按钮,此时会进行第二次扣款,返回结果成功,用户查询余额发现多扣钱了,流水记录也变成了两条。在以前的单应用系统中,我们只需要把数据操作放入事务中即可,发生错误立即回滚,但是再响应客户端的时候也有可能出现网络中断或者异常等等。
9.1.2. 消息重复消费
消费者在消费MQ中的消息时,MQ已把消息发送给消费者,消费者在给MQ返回ack时网络中断,故MQ未收到确认信息,该条消息会重新发给其他的消费者,或者在网络重连后再次发送给该消费者,但实际上该消费者已成功消费了该条消息,造成消费者消费了重复的消息。
9.1.3. 解决思路
MQ消费者的幂等性的解决一般使用全局ID 或者写个唯一标识比如时间戳 或者UUID 或者订单消费者消费MQ中的消息也可利用MQ的该id来判断,或者可按自己的规则生成一个全局唯一id,每次消费消息时用该id先判断该消息是否已消费过。
9.1.4. 消费端的幂等性保障
在海量订单生成的业务高峰期,生产端有可能就会重复发生了消息,这时候消费端就要实现幂等性,这就意味着我们的消息永远不会被消费多次,即使我们收到了一样的消息。业界主流的幂等性有两种操作:a.唯一ID+指纹码机制,利用数据库主键去重, b.利用redis的原子性去实现
9.1.5. 唯一ID+指纹码机制
指纹码:我们的一些规则或者时间戳加别的服务给到的唯一信息码,它并不一定是我们系统生成的,基本都是由我们的业务规则拼接而来,但是一定要保证唯一性,然后就利用查询语句进行判断这个id是否存在数据库中,优势就是实现简单就一个拼接,然后查询判断是否重复;劣势就是在高并发时,如果是单个数据库就会有写入性能瓶颈当然也可以采用分库分表提升性能,但也不是我们最推荐的方式。
9.1.6. Redis原子性
利用redis执行setnx命令,天然具有幂等性。从而实现不重复消费
9.2. 优先级队列
9.2.1. 使用场景
在我们系统中有一个订单催付的场景,我们的客户在天猫下的订单,淘宝会及时将订单推送给我们,如果在用户设定的时间内未付款那么就会给用户推送一条短信提醒,很简单的一个功能对吧,但是,tmall商家对我们来说,肯定是要分大客户和小客户的对吧,比如像苹果,小米这样大商家一年起码能给我们创造很大的利润,所以理应当然,他们的订单必须得到优先处理,而曾经我们的后端系统是使用redis来存放的定时轮询,大家都知道redis只能用List做一个简简单单的消息队列,并不能实现一个优先级的场景,所以订单量大了后采用RabbitMQ进行改造和优化,如果发现是大客户的订单给一个相对比较高的优先级,否则就是默认优先级。
9.2.2. 如何添加
- a.控制台页面添加
- b.队列中代码添加优先级
- c.消息中代码添加优先级
- d.注意事项
要让队列实现优先级需要做的事情有如下事情:队列需要设置为优先级队列,消息需要设置消息的优先级,消费者需要等待消息已经发送到队列中才去消费因为,这样才有机会对消息进行排序
9.2.3. 实战
消息生产者
public class Producer {
//队列名称
public static final String QUEUE_NAME = "hello";
// public static final String QUEUE_NAME = "mirrior_hello";//测试镜像队列
//URL
public static final String URL_NAME = "192.168.249.103";
//用户名
public static final String USER_NAME = "admin";
//密码
public static final String PASSWORD = "123";
//发消息
public static void main(String[] args) throws IOException, TimeoutException {
//创建一个连接工厂
ConnectionFactory factory = new ConnectionFactory();
//工厂IP 连接RabbitMQ的队列
factory.setHost(URL_NAME);
//用户名
factory.setUsername(USER_NAME);
//密码
factory.setPassword(PASSWORD);
//创建连接
Connection connection = factory.newConnection();
//获取信道
Channel channel = connection.createChannel();
/**
* 生成一个队列
* 1.队列名称
* 2.队列里面的消息是否持久化(磁盘)默认情况下消息存储在内存中
* 3.该队列是否只供一个消费者进行消费,是否进行消息共享,true可以多个消费者消费 false:只能一个消费者消费
* 4.是否自动删除 最后一个消费者断开连接以后 该队列是否自动删除 true自动删除 false 不自动删除
* 5.其他参数
*/
channel.queueDeclare(QUEUE_NAME,false,false,false,null);
/*
//测试优先级队列
Map<String,Object> arguments = new HashMap<>();
//官方允许是0-255之间 此处设置10 允许优化级范围为0-10 不要设置过大 浪费CPU 与内存
arguments.put("x-max-priority",10);
channel.queueDeclare(QUEUE_NAME,true,false,false,arguments);
*/
//发消息
String message = "hello world";//初次使用
/**
* 发送一个消息
* 1.发送到哪个交换机
* 2.路由的Key值是哪个 本次队列的名称
* 3.其他参数信息
* 4.发送消息的消息体
*/
//测试优先级队列
/*
for (int i = 1; i < 11; i++) {
String message = "info" + i;
if (i == 5 ){
AMQP.BasicProperties properties =
new AMQP.BasicProperties().builder().priority(5).build();
channel.basicPublish("",QUEUE_NAME,properties,message.getBytes());
}else{
channel.basicPublish("",QUEUE_NAME,null,message.getBytes());
}
}
*/
channel.basicPublish("",QUEUE_NAME,null,message.getBytes());
System.out.println("消息发送完毕");
}
}
消息消费者
public class Consumer {
//队列名称
// public static final String QUEUE_NAME = "mirrior_hello";
public static final String QUEUE_NAME = "hello";
//以全局变量的方式进行声明,这样就避免在代码中写死了
//URL
public static final String URL_NAME = "192.168.249.103";
//用户名
public static final String USER_NAME = "admin";
//密码
public static final String PASSWORD = "123";
public static void main(String[] args) throws IOException, TimeoutException {
ConnectionFactory factory = new ConnectionFactory();
factory.setHost(URL_NAME);
factory.setUsername(USER_NAME);
factory.setPassword(PASSWORD);
Connection connection = factory.newConnection();
Channel channel = connection.createChannel();
//测试 federation
//交换机
channel.exchangeDeclare("fed-exchange",BuiltinExchangeType.DIRECT);
//队列
channel.queueDeclare("node2_queue",false,false,false,null);
//绑定
channel.queueBind("node2_queue","fed-exchange","routekey");
//① 实现接口的方式之 匿名内部类方式实现接口
//声明接收消息
/*
DeliverCallback deliverCallback = new DeliverCallback() {
@Override
public void handle(String consumerTag, Delivery message) throws IOException {
System.out.println(new String(message.getBody()));//接收消息的消息体
}
};
//取消消息时的回调
CancelCallback cancelCallback = new CancelCallback() {
@Override
public void handle(String consumerTag) throws IOException {
System.out.println("消息消费被中断");
}
};
*/
//② 实现接口的方式之 lambda表达式
//1 先复制参数 写小括号(参数类型可以省略因为有类型推断的原因;如果只有一个参数,小括号也可以省略)
//2 写死 右箭头 ->
//3 落地 大括号{}
//声明接收消息
DeliverCallback deliverCallback = (consumerTag, message) -> {
System.out.println(new String(message.getBody()));//接收消息的消息体(消息有消息头、消息体、消息属性)
};
//取消消息时的回调
CancelCallback cancelCallback = consumerTag ->{
System.out.println("消息消费被中断");
};
/**
* 消费者消费消息
* 1.消费哪个队列
* 2.消费成功之后是否要自动应答 true 代表的是自动应答 false 代表手动应答
* 3.消费者未成功消费的回调 接口 使用匿名内部类或lambda
* 4.消费者取消消费的回调 -- 接口 使用匿名内部类或lambda
*/
// channel.basicConsume("node2_queue",true,deliverCallback,cancelCallback);
channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback);
}
}
结果演示
9.3 惰性队列
9.3.1 使用场景
9.3.2 两种模式
9.3.3 内存开销对比
10 RabbitMQ 集群
10.1. clustering
10.1.1. 使用集群的原因
最开始我们介绍了如何安装及运行 RabbitMQ 服务,不过这些是单机版的,无法满足目前真实应用的要求。如果 RabbitMQ 服务器遇到内存崩溃、机器掉电或者主板故障等情况,该怎么办?单台 RabbitMQ 服务器可以满足每秒 1000 条消息的吞吐量,那么如果应用需要 RabbitMQ 服务满足每秒 10 万条消息的吞吐量呢?购买昂贵的服务器来增强单机 RabbitMQ 务的性能显得捉襟见肘,搭建一个 RabbitMQ 集群才是解决实际问题的关键。
10.1.2 搭建步骤
- 1.修改3台机器的主机名称
vim /etc/hostname
- 2.配置各个节点的 hosts 文件,让各个节点都能互相识别对方
vim /etc/hosts
10.211.55.74 node1
10.211.55.75 node2
10.211.55.76 node3
注意:修改完hosts文件后,需要重启Linux,让配置生效!!!!!
- 3.以确保各个节点的cookie文件使用的是同一个值
在node1上执行远程操作命令
scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie
scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie
- 4.启动RabbitMQ服务,顺带启动Erlang虚拟机和RbbitMQ应用服务(在三台节点上分别执行以下命令)
rabbitmq-server -detached
- 5.在节点2执行
rabbitmqctl stop_app
(rabbitmqctl stop会将Erlang虚拟机关闭,rabbitmqctl stop_app只关闭RabbitMQ服务)
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node1
rabbitmqctl start_app
(只启动应用服务)
- 6.在节点3执行
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node2
rabbitmqctl start_app
- 7.集群状态
rabbitmqctl cluster_status
- 8.需要重新设置用户
创建账号
rabbitmqctl add_user admin 123
设置用户角色
rabbitmqctl set_user_tags admin administrator
设置用户权限
rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"
- 9.解除集群节点(node2和node3机器分别执行)
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl start_app
rabbitmqctl cluster_status
rabbitmqctl forget_cluster_node rabbit@node2(node1机器上执行)
10.2. 镜像队列
10.2.1. 使用镜像的原因
如果RabbitMQ集群中只有一个Broker节点,那么该节点的失效将导致整体服务的临时性不可用,并且也可能会导致消息的丢失。可以将所有消息都设置为持久化,并且对应队列的durable属性也设置为true,但是这样仍然无法避免由于缓存导致的问题:因为消息在发送之后和被写入磁盘井执行刷盘动作之间存在一个短暂却会产生问题的时间窗。通过publisherconfirm机制能够确保客户端知道哪些消息己经存入磁盘,尽管如此,一般不希望遇到因单点故障导致的服务不可用。
引入镜像队列(Mirror Queue)的机制,可以将队列镜像到集群中的其他Broker节点之上,如果集群中的一个节点失效了,队列能自动地切换到镜像中的另一个节点上以保证服务的可用性。
10.2.2. 搭建步骤
-
启动三台集群节点
-
随便找一个节点添加policy
-
在node1上创建一个队列发送一条消息,队列存在镜像队列
-
停掉node1之后发现node2成为镜像队列
-
就算整个集群只剩下一台机器了 依然能消费队列里面的消息
说明队列里面的消息被镜像队列传递到相应机器里面了
10.3. Haproxy+Keepalive实现高可用负载均衡
10.3.1. 整体架构图
10.3.2. Haproxy实现负载均衡
HAProxy提供高可用性、负载均衡及基于TCPHTTP应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案,包括Twitter,Reddit,StackOverflow,GitHub在内的多家知名互联网公司在使用。HAProxy实现了一种事件驱动、单一进程模型,此模型支持非常大的井发连接数。
扩展nginx,lvs,haproxy之间的区别: http://www.ha97.com/5646.html
10.3.3. 搭建步骤
-
下载haproxy(在node1和node2)
yum -y install haproxy -
修改node1和node2的haproxy.cfg
vim /etc/haproxy/haproxy.cfg
需要修改红色IP为当前机器IP
-
在两台节点启动haproxy
haproxy -f /etc/haproxy/haproxy.cfg
ps -ef | grep haproxy -
访问地址
http://10.211.55.71:8888/stats
10.3.4. Keepalived实现双机(主备)热备
试想如果前面配置的HAProxy主机突然宕机或者网卡失效,那么虽然RbbitMQ集群没有任何故障但是对于外界的客户端来说所有的连接都会被断开结果将是灾难性的为了确保负载均衡服务的可靠性同样显得十分重要,这里就要引入Keepalived它能够通过自身健康检查、资源接管功能做高可用(双机热备),实现故障转移.
10.3.5. 搭建步骤
- 下载keepalived
yum -y install keepalived - 节点node1配置文件
vim /etc/keepalived/keepalived.conf
把资料里面的keepalived.conf修改之后替换 - 节点node2配置文件
需要修改global_defs的router_id,如:nodeB
其次要修改vrrp_instance_VI中state为"BACKUP";
最后要将priority设置为小于100的值 - 添加haproxy_chk.sh
(为了防止HAProxy服务挂掉之后Keepalived还在正常工作而没有切换到Backup上,所以
这里需要编写一个脚本来检测HAProxy 务的状态,当HAProxy服务挂掉之后该脚本会自动重启HAProxy的服务,如果不成功则关闭Keepalived服务,这样便可以切换到Backup 继续工作)
vim /etc/keepalived/haproxy_chk.sh(可以直接上传文件)
修改权限chmod 777 /etc/keepalived/haproxy_chk.sh - 启动keepalive命令(node1和node2启动)
systemctl start keepalived - 观察Keepalived的日志
tail -f /var/log/messages -n 200 - 观察最新添加的vip
ip add show - node1模拟keepalived关闭状态
systemctl stop keepalived - 使用vip地址来访问rabbitmq集群
10.4. Federation Exchange
10.4.1. 使用它的原因
(broker北京),(broker深圳)彼此之间相距甚远,网络延迟是一个不得不面对的问题。有一个在北京的业务(Client北京) 需要连接(broker北京),向其中的交换器exchangeA发送消息,此时的网络延迟很小,(Client北京)可以迅速将消息发送至exchangeA中,就算在开启了publisherconfirm机制或者事务机制的情况下,也可以迅速收到确认信息。此时又有个在深圳的业务(Client深圳)需要向exchangeA发送消息,那么(Client深圳) (broker北京)之间有很大的网络延迟,(Client深圳) 将发送消息至exchangeA会经历一定的延迟,尤其是在开启了publisherconfirm机制或者事务机制的情况下,(Client深圳) 会等待很长的延迟时间来接收(broker北京)的确认信息,进而必然造成这条发送线程的性能降低,甚至造成一定程度上的阻塞。
将业务(Client深圳)部署到北京的机房可以解决这个问题,但是如果(Client深圳)调用的另些服务都部署在深圳,那么又会引发新的时延问题,总不见得将所有业务全部部署在一个机房,那么容灾又何以实现?这里使用Federation插件就可以很好地解决这个问题.
10.4.2. 搭建步骤
-
需要保证每台节点单独运行
-
在每台机器上开启federation相关插件
rabbitmq-plugins enable rabbitmq_federation
rabbitmq-plugins enable rabbitmq_federation_management
-
原理图(先运行consumer在node2创建fed_exchange)
-
在downstream(node2)配置upstream(node1)
-
添加policy
-
成功的前提
10.5. Federation Queue
10.5.1. 使用它的原因
联邦队列可以在多个Broker节点(或者集群)之间为单个队列提供均衡负载的功能。一个联邦队列可以连接一个或者多个上游队列(upstream queue),并从这些上游队列中获取消息以满足本地消费者消费消息的需求。
10.5.2. 搭建步骤
- 原理图
- 添加upstream(同上)
- 添加policy
10.6. Shovel
10.6.1. 使用它的原因
Federation具备的数据转发功能类似,Shovel够可靠、持续地从一个Broker中的队列(作为源端,即source)拉取数据并转发至另一个Broker中的交换器(作为目的端,即destination)。作为源端的队列和作为目的端的交换器可以同时位于同一个Broker,也可以位于不同的Broker上。Shovel可以翻译为"铲子",是一种比较形象的比喻,这个"铲子"可以将消息从一方"铲子"另一方。Shovel行为就像优秀的客户端应用程序能够负责连接源和目的地、负责消息的读写及负责连接失败问题的处理。
10.6.2. 搭建步骤
- 开启插件(需要的机器都开启)
rabbitmq-plugins enable rabbitmq_shovel
rabbitmq-plugins enable rabbitmq_shovel_management
- 原理图(在源头发送的消息直接回进入到目的地队列)
- 添加shovel源和目的地
总结
有过之前Activemq的学习,算是这这个有点触类旁通。感觉还是得掌握精髓,做到“举一反三”的效果。
过程中使用到的知识合集:
解决报错 Failed to start bean ‘documentationPluginsBootstrapper’; nested exception is java.lang.NullPointerException