Edehuag

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

kafka之消费者消息丢失和重复消费

如果我们对于位移提交控制不好可能出现消息丢失以及消息消息重复的情况

重复消费

消费了数据没有提交offset

比如开启了自动offset提交,consumer默认5s提交一次offset,提交offset 2s之后consumer挂了,此时已经消费了2s的消息,但是因为没有触发5s时间间隔没有告诉kafka已经消费信息,此时再启动consumer broker还是记录的5s自动提交之前的offset 此时会造成消息的重复消费

消息丢失

提交了offset后消费,可能会造成数据漏消费

如果将offset设置为手动提交,当offset被提交时数据还在内存中未处理,此时刚好消费者宕机,但offset已经提交且数据未处理。
此时就算再启动consumer也消费不到之前的数据了,导致了数据漏消费
如果想要consumer精准一次消费,需要kafka消息的消费过程和提交offset变成原子操作,此时需要我们将kafka的offset持久化到其他支持事务的中间件(比如MySQL)

一定程度上解决上述问题的方式

每消费一次提交一次偏移位置

posted on   饿得慌~  阅读(15)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
点击右上角即可分享
微信分享提示