对 MQ 更加深入的问题,可能很多人没怎么思考过。比如,你跳槽面试时,如果面试官看到你简历上写了熟练掌握消息中间件。
那么很可能给你发起如下 4 个面试连环炮:
-
为什么要使用 MQ?
-
使用了 MQ 之后有什么优缺点?
-
怎么保证 MQ 消息不丢失?
-
怎么保证 MQ 的高可用性?
本文将通过一些场景,配合着通俗易懂的语言和多张手绘彩图,讨论一下这些问题。
为什么要使用 MQ?
相信大家也听过这样的一句话:好的架构不是设计出来的,是演进出来的。
这句话在引入 MQ 的场景同样适用,使用 MQ 必定有其道理,是用来解决实际问题的。而不是看见别人用了,我也用着玩儿一下。
其实使用 MQ 的场景挺多的,但是比较核心的有 3 个:
-
异步
-
解耦
-
削峰填谷
异步
我们通过实际案例说明:假设 A 系统接收一个请求,需要在自己本地写库执行 SQL,然后需要调用 BCD 三个系统的接口。
假设自己本地写库要 3ms,调用 BCD 三个系统分别要 300ms、450ms、200ms。
那么最终请求总延时是 3+300+450+200=953ms,接近 1s,可能用户会感觉太慢了。
此时整个系统大概是这样的:
但是一旦使用了 MQ 之后,系统 A 只需要发送 3 条消息到 MQ 中的 3 个消息队列,然后就返回给用户了。
假设发送消息到 MQ 中耗时 20ms,那么用户感知到这个接口的耗时仅仅是 20+3=23ms,用户几乎无感知,倍儿爽!
此时整个系统结构大概是这样的:
可以看到,通过 MQ 的异步功能,可以大大提高接口的性能。
解耦
假设 A 系统在用户发生某个操作的时候,需要把用户提交的数据同时推送到 B、C 两个系统的时候。
这个时候负责 A 系统的哥们想:没事啊,B、C 两个系统给我提供一个 HTTP 接口或者 RPC 接口,我把数据推送过去不就完事了嘛。负责 A 系统的哥们美滋滋。
如下图所示:
一切看起来很美好,但是随着业务快速迭代,这个时候系统 D 也想要这个数据。那既然这样,A 系统的开发同学就改咯,在发送数据给 BC 的同时加上一个 D。
但是,越到后面越发现,麻烦来了。整个系统好像不止这个数据要发送给 BCD、还有第二、第三个数据要发送给 BCD。甚至有时候又加入了 E、F 等系统,他们也要这个数据。
并且有时候可能 B 系统突然又不要这个数据了,A 系统改来改去,A 系统的开发哥们头皮发麻。
更复杂的场景是,数据通过接口传给其他系统有时候还要考虑重试、超时等一些异常情况,真是头发都白了呀。
来看下图,体会一下这无助的现场:
这个时候,就该我们的 MQ 粉墨登场了!这种情况下使用 MQ 来解耦是再合适不过了,因为负责 A 系统的哥们只需要把消息扔到 MQ 就行了,其他系统按需来订阅消息就好了。
就算某个系统不需要这个数据了,也不会需要 A 系统改动代码。看看加入 MQ 解耦的下图,是不是清爽了很多:
削峰填谷
举个例子,比如我们的订单系统,在下单的时候就会往数据库写数据。但是数据库只能支撑每秒 1000 左右的并发写入,并发量再高就容易宕机。
低峰期的时候并发也就 100 多个,但是在高峰期时候,并发量会突然激增到 5000 以上,这个时候数据库肯定死了。
如下图,来感受一下数据库被打死的绝望:
但是使用了 MQ 之后,情况就变了!消息被 MQ 保存起来了,然后系统就可以按照自己的消费能力来消费,比如每秒 1000 个数据,这样慢慢写入数据库,这样就不会打死数据库了。
整个过程,如下图所示:
至于为什么叫做削峰填谷呢?来看看这个图:
如果没有用 MQ 的情况下,并发量高峰期的时候是有一个“顶峰”的,然后高峰期过后又是一个低并发的“谷”。
但是使用了 MQ 之后,限制消费消息的速度为 1000QPS,但是这样一来,高峰期产生的数据势必会被积压在 MQ 中,高峰就被“削”掉了。
但是因为消息积压,在高峰期过后的一段时间内,消费消息的速度还是会维持在 1000QPS,直到消费完积压的消息,这就叫做“填谷”。
通过上面的分析,大家就可以知道为什么要使用 MQ,以及使用了 MQ 有什么好处。知其所以然,明白了自己的系统为什么要使用 MQ。
这样以后别人问你为啥要用 MQ,就不会出现 “我们组长要用 MQ 我们就用了” 这样尴尬的回答了。
使用了 MQ 之后有什么优缺点?
看到这个问题蒙圈了,用了就用了嘛!优点上面已经说了,但是这个缺点是啥啊。好像没啥缺点啊。
如果你这样想,就大错特错了,在设计系统的过程中,除了要清楚的知道为什么要用这个东西,还要思考一下用了之后有什么坏处。这样才能心里有底,防范于未然。
接下来我们就讨论一下,用 MQ 会有什么缺点吧?
系统可用性降低
大家想象一下,上面的说解耦的场景,本来 A 系统的哥们要把系统关键数据发送给 BC 系统的,现在突然加入了一个 MQ 了,现在 BC 系统接收数据要通过 MQ 来接收。
但是大家有没有考虑过一个问题,万一 MQ 挂了怎么办?这就引出一个问题,加入了 MQ 之后,系统的可用性是不是就降低了?
因为多了一个风险因素:MQ 可能会挂掉。只要 MQ 挂了,数据没了,系统运行就不对了。
系统复杂度提高
本来我的系统通过接口调用一下就能完事的,但是加入一个 MQ 之后,需要考虑消息重复消费、消息丢失、甚至消息顺序性的问题。
为了解决这些问题,又需要引入很多复杂的机制,这样一来是不是系统的复杂度提高了。
数据一致性问题
本来好好的,A 系统调用 BC 系统接口,如果 BC 系统出错了,会抛出异常,返回给 A 系统让 A 系统知道,这样的话就可以做回滚操作了。
但是使用了 MQ 之后,A 系统发送完消息就完事了,认为成功了。而刚好 C 系统写数据库的时候失败了,但是 A 认为 C 已经成功了?这样一来数据就不一致了。
通过分析引入 MQ 的优缺点之后,就明白了使用 MQ 有很多优点,但是会发现它带来的缺点又会需要你做各种额外的系统设计来弥补。
最后你可能会发现整个系统复杂了好几倍,所以设计系统的时候要基于这些考虑做出取舍,很多时候你会发现该用的还是要用的。
怎么保证 MQ 消息不丢失?
使用了 MQ 之后,还要关心消息丢失的问题。这里我们挑 RabbitMQ 来说明一下吧。
生产者弄丢了数据
RabbitMQ 生产者将数据发送到 RabbitMQ 的时候,可能数据在网络传输中搞丢了,这个时候 RabbitMQ 收不到消息,消息就丢了。
RabbitMQ 提供了两种方式来解决这个问题:
事务方式:在生产者发送消息之前,通过`channel.txSelect`开启一个事务,接着发送消息。
如果消息没有成功被 RabbitMQ 接收到,生产者会收到异常,此时就可以进行事务回滚`channel.txRollback`,然后重新发送。假如 RabbitMQ 收到了这个消息,就可以提交事务`channel.txCommit`。
但是这样一来,生产者的吞吐量和性能都会降低很多,现在一般不这么干。
另外一种方式就是通过 Confirm 机制:这个 Confirm 模式是在生产者那里设置的,就是每次写消息的时候会分配一个唯一的 ID,然后 RabbitMQ 收到之后会回传一个 ACK,告诉生产者这个消息 OK 了。
如果 RabbitMQ 没有处理到这个消息,那么就回调一个 Nack 的接口,这个时候生产者就可以重发。
事务机制和 Confirm 机制最大的不同在于事务机制是同步的,提交一个事务之后会阻塞在那儿。
但是 Confirm 机制是异步的,发送一个消息之后就可以发送下一个消息,然后那个消息 RabbitMQ 接收了之后会异步回调你一个接口通知你这个消息接收到了。
所以一般在生产者这块避免数据丢失,都是用 Confirm 机制的。
RabbitMQ 弄丢了数据
RabbitMQ 集群也会弄丢消息,这个问题在官方文档的教程中也提到过,就是说在消息发送到 RabbitMQ 之后,默认是没有落地磁盘的,万一 RabbitMQ 宕机了,这个时候消息就丢失了。
所以为了解决这个问题,RabbitMQ 提供了一个持久化的机制,消息写入之后会持久化到磁盘。
这样哪怕是宕机了,恢复之后也会自动恢复之前存储的数据,这样的机制可以确保消息不会丢失。
设置持久化有两个步骤:
-
第一个是创建 Queue 的时候将其设置为持久化的,这样就可以保证 RabbitMQ 持久化 Queue 的元数据,但是不会持久化 Queue 里的数据。
-
第二个是发送消息的时候将消息的 deliveryMode 设置为 2,就是将消息设置为持久化的,此时 RabbitMQ 就会将消息持久化到磁盘上去。
但是这样一来可能会有人说:万一消息发送到 RabbitMQ 之后,还没来得及持久化到磁盘就挂掉了,数据也丢失了,怎么办?
对于这个问题,其实是配合上面的 Confirm 机制一起来保证的,就是在消息持久化到磁盘之后才会给生产者发送 ACK 消息。
万一真的遇到了那种极端的情况,生产者是可以感知到的,此时生产者可以通过重试发送消息给别的 RabbitMQ 节点。
消费端弄丢了数据
RabbitMQ 消费端弄丢了数据的情况是这样的:在消费消息的时候,刚拿到消息,结果进程挂了,这个时候 RabbitMQ 就会认为你已经消费成功了,这条数据就丢了。
对于这个问题,要先说明一下 RabbitMQ 消费消息的机制:在消费者收到消息的时候,会发送一个 ACK 给 RabbitMQ,告诉 RabbitMQ 这条消息被消费到了,这样 RabbitMQ 就会把消息删除。
但是默认情况下这个发送 ACK 的操作是自动提交的,也就是说消费者一收到这个消息就会自动返回 ACK 给 RabbitMQ,所以会出现丢消息的问题。
所以针对这个问题的解决方案就是:关闭 RabbitMQ 消费者的自动提交 ACK,在消费者处理完这条消息之后再手动提交 ACK。
这样即使遇到了上面的情况,RabbitMQ 也不会把这条消息删除,会在你程序重启之后,重新下发这条消息过来。
怎么保证 MQ 的高可用性?
使用了 MQ 之后,我们肯定是希望 MQ 有高可用特性,因为不可能接受机器宕机了,就无法收发消息的情况。
这一块我们也是基于 RabbitMQ 这种经典的 MQ 来说明一下:RabbitMQ 是比较有代表性的,因为是基于主从做高可用性的,我们就以他为例子讲解第一种 MQ 的高可用性怎么实现。
RabbitMQ 有三种模式:
-
单机模式
-
普通集群模式
-
镜像集群模式
单机模式
单机模式就是 Demo 级别的,就是说只有一台机器部署了一个 RabbitMQ 程序。
这个会存在单点问题,宕机就玩完了,没什么高可用性可言。一般就是你本地启动了玩玩儿的,没人生产用单机模式。
普通集群模式
这个模式的意思就是在多台机器上启动多个 RabbitMQ 实例。类似的 Master-Slave 模式一样。
但是创建的 Queue,只会放在一个 Master RabbtiMQ 实例上,其他实例都同步那个接收消息的 RabbitMQ 元数据。
在消费消息的时候,如果你连接到的 RabbitMQ 实例不是存放 Queue 数据的实例,这个时候 RabbitMQ 就会从存放 Queue 数据的实例上拉取数据,然后返回给客户端。
总的来说,这种方式有点麻烦,没有做到真正的分布式,每次消费者连接一个实例后拉取数据。
如果连接到不是存放 Queue 数据的实例,这个时候会造成额外的性能开销。如果从放 Queue 的实例拉取,会导致单实例性能瓶颈。
如果放 Queue 的实例宕机了,会导致其他实例无法拉取数据,这个集群都无法消费消息了,没有做到真正的高可用。
所以这个事儿就比较尴尬了,这就没有什么所谓的高可用性可言了,这方案主要是提高吞吐量的,就是说让集群中多个节点来服务某个 Queue 的读写操作。
镜像集群模式
镜像集群模式才是真正的 RabbitMQ 的高可用模式,跟普通集群模式不一样的是:创建的 Queue 无论元数据还是 Queue 里的消息都会存在于多个实例上。
每次写消息到 Queue 的时候,都会自动把消息到多个实例的 Queue 里进行消息同步。
这样的话任何一个机器宕机了,别的实例都可以用来提供服务,这样就做到了真正的高可用了。
但是也存在着不好之处:
-
性能开销过高,消息需要同步所有机器,会导致网络带宽压力和消耗很重。
-
扩展性低:无法解决某个 Queue 数据量特别大的情况,导致 Queue 无法线性拓展。就算加了机器,那个机器也会包含 Queue 的所有数据,Queue 的数据没有做到分布式存储。
对于 RabbitMQ 的高可用一般的做法都是开启镜像集群模式,这样起码来说做到了高可用,一个节点宕机了,其他节点可以继续提供服务。
总结
通过本篇文章,分析了对于 MQ 的一些常规问题:
-
为什么使用 MQ?
-
使用 MQ 有什么优缺点?
-
如何保证消息不丢失?
-
如何保证 MQ 高可用性?
但是,这些问题仅仅是使用 MQ 的其中一部分需要考虑的问题,事实上,还有其他更加复杂的问题需要我们去解决。
比如:如何保证消息的顺序性?消息队列如何选型?消息积压问题如何解决?
本文仅仅是针对 RabbitMQ 的场景举例子。还有其他比较的消息队列,比如 RocketMQ、Kafka。
转发自:石衫的架构笔记 公众号