Kafka如何保证消息不丢失
Producer端设置的参数
1. request.required.acks=0
只要请求已经发送出去了,就算是发送完了,不关心有没有写成功。
性能会很好,如果是对一些日志进行分析,可以承受丢数据的情况,用这个参数性能会很好
2. request.required.acks=1
发送一条消息,当leader partition写入成功以后,才算写入成功,这种方式也会有丢数据的风险
假如我们往kafka某一个broker上进行写数据,我们当然是给某一个分区的leader进行写数据,
那么这个时候我们写入了这个leader,但是follower partition还没有进行副本同步的时候,leader挂了。
那么我们去消费的时候,这条消息是不存在的,因为新上位的leader没有这条数据
3. request.required.acks=-1
需要ISR副本同步队列里面的所有副本都写成功以后,这条消息才算是写入成功
ISR:2个副本,1个leader 1个 follower 那么这个时候我们这个时候 需要这两个都写入成功才算写入成功
ISR:3个副本,1个leader 2个 follower 那么这个时候我们这个时候 需要这三个都写入成功才算写入成功
Kafka服务端设置的参数
min.insync.replicas
一个leader partition会维护一个ISR列表,这个值就是限制ISR副本同步队列里面至少得有几个副本,比如这个值是2,那么当ISR列表只有一个副本的时候,往这个分区插入数据的时候会报错
总结:Kafka数据不丢失的方案
request.required.acks = -1
分区副本数量 >= 2
min.insync.replicas >= 2
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)