(重点)如何解决消息队列的延时及过期失效问题?

或者: 消息队列满了以后该怎么处理?

或者: 几百万消息持续积压几小时,怎么解决?

 

问题本质是消费端出问题了,不消费或者消费慢

 

1、消费端出问题了,大量消息积压在kafka里几个小时,怎么办?

正常思路是:修复consumer的问题,让他恢复消费,然后傻等几个小时消费完毕(不可取,用户等不了)

实际解决方法:只能操作临时紧急扩容

    (1)修复consumer问题,确保其恢复消费速度,然后停掉现有consumer;

    (2)新建topic并设置原来10倍或者20倍的partition,不管是改原来的消费者将消息写入新partition,还是直接处理积压的消息进partition,新建10倍或20倍的consumer,来处理消息并写库;

    (3)等快速消费完积压数据后,恢复原先的部署架构,重新用原来的consumer机器来消费数据;

 

 2、假设用的是rabbitMQ。rabbitMQ是可以设置过期时间的。如果消息在queue里积压一定时间就会被rabbitMQ清掉,造成的问题是因积压超时而丢数据了。

解决方法是: 重导入数据。手工查找丢的数据,重新灌入MQ里面去(一般不设rabbitMQ的过期时间

3、消息积压在MQ里导致MQ快满了

解决方法:临时写程序接入消息来消费,消费一个丢一个(不写库了,快速把MQ里的消息处理掉)

      然后到晚上再采用2的方法,补数据。(针对的是线上问题)

posted on   黑子菜园  阅读(2032)  评论(1编辑  收藏  举报

编辑推荐:
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示