面试知识点总结之RabbitMQ/Kafka使用场景

RabbitMQ消息丢失的情况

provider->Rabbitmq->consumer

1. 消息在传送过程中丢失 方案①开启RabbitMQ事务(同步,不推荐) ②开启Confim模式(异步,推荐)

2. Rabbitmq收到消息,暂存内存中,还没消费,自己挂掉了,内存中的数据丢失 方案:开启RabbitMQ持久化

3. 消费者消费到了这个消息,但还没来得及处理就挂了,Rabbitmq以为消息已经被处理了 方案:关闭RabbitMQ自动ACK

 

kafka消息丢失和重复消费  2两面分析

一、发送方式:kafka消息发送有两种方式:同步和异步 默认时同步方式。可通过 producer.type 属性来配置消息发送方式

1. 确认消息生产 可通过 request.required.acks属性来配置,其中

  ①0 不进行消息接受是否成功的确认

  ②1 当leader接受成功时确认

  ③-1 当leader和Fllower都接收成功时确认

2. 丢失场景

  ①acks = 0 时,不和kafka集群进行消息接收确认,则当网络异常或缓存区满了等情况,消息可能丢失

  ②acks = 1 时,同步模式下,只有leader确认接收成功后但挂掉了,副本没有同步,消息可能丢失

二、消息消费:kafka消息消费有2个consumer接口:Low-level API 和 High-level API

  ①Low-level API:消费者自己维护 offset 等值,可以实现对kafka的完全控制;

  ②High-level API:封装了对 partition 和 offset的管理,使用简单

如果使用高级接口 High-level API 可能存在一个问题就是当消息消费者从集群中把消息取出来,并提交了新的消息 offset 值后,还没来得及消费就挂掉了,那么下次再消费时之前没消费成功的消息就’诡异‘消失了;

解决方案:

1. 对于消息丢失:同步模式下,确认机制设置为 -1 ,即让消息写入leader 和follower之后再确认消息发送成功;异步模式下,为防止缓冲区满,可以再配置文件设置不限制阻塞

2. 针对消息重复:将消息的唯一标识保存到外部介质中,再次消费时判断是否处理过即可。

 

使用场景

优点:解耦、、异步、削峰

使用MQ作解耦:一个模块,调用了多个模块,互相之间的调用很复杂,维护起来很麻烦,但其实这个调用是不需要直接同步调用接口的。

// TODO

 

posted @ 2021-03-12 21:28  白玉神驹  阅读(383)  评论(0编辑  收藏  举报