kafka 使用入门-1
1. kafka命令
topic
查看kafka中的topic
kafka-topics.sh --list --zookeeper zkip:2181
创建topic
kafka-topics.sh --create --zookeeper 173.20.0.2:2181 --topic first --partitions 2 --replication-factor 3
producer/consumer
kafka-console-consumer.sh --topic first --bootstrap-server 173.20.0.3:9092 控制台消费
kafka-console-producer.sh --topic first --broker-list 173.20.0.3:9092 控制台生产
2. 生产者
1. 分区策略
在未指定partition的时候,是根据key的hash值模与当前的分区数
在没有指定key的情况下,轮询的方式分发
2.ISR
kafka为了保证数据的可靠性,采用的follower全部同步数据的方式
问题是当一个follower宕机之后,岂不是无法返回ack?
replica.lag.time.max.ms 同步leader阈值,在这个时间内同步成功的会加入到isr中,当isr队列中的副本同步完就会返回ack,当leader发生故障就会在isr中选举
这里面临这性能问题,所以kafka提供了三种ack配置
0:producer不等待broker的ack
1:producer只等待leader写完
-1(all):producer等待leader和follower全部落盘返回ack
极端情况下isr中没有达标的follower就会退化成1那种情况
在同步完follower之后未回复ack之前leader宕机,会出现数据重复的现象
3. 数据一致性问题
LEO(Log End Offset)
HW(High watermark)
消费者只能看到hw之前的数据,当leader宕机之后follower成为leader之后会删除其他副本hw到leo的数据,并让其他副本同步leader的数据
4. 幂等性
producer中的enable.idompotence设置为true
只能保证当次会话 当前分区的幂等性
3. 消费者
1. 消费方式
consumer采用pull模式从broker拉取数据 当无数据的时候会等待timeout时间再去pull
2. 分区分配策略
1. 轮询
把消费者组中订阅的所有topic当成一个整体,来轮询分配给消费者组中的consumer
前提条件,要保证当前消费者组中订阅的同一个或一组topic
2. 范围
3. offset的维护
通过消费者组+topic+partition唯一确定一个offset
4. 事务
客户端给一个transactionid,kafka将transactionid+pid存储在broker, 当producer宕机之后,重启之后拿着transactionid去broker获取旧当pid保证跨分区跨会话级别的exactly once
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!