我的 Kafka 旅程 - Broker · 分区与副本 · ISR同步 · 应答机制 · 分区再平衡 · 节点选举
系列目录
作者:[Sol·wang] - 博客园,原文出处:https://www.cnblogs.com/Sol-wang/p/16691611.html
broker在kafka的服务端运行,一台服务器相当于一个broker;每个broker下可以有多个topic,每个topic可以有多个partition,在producer端可以对消息进行分区,每个partiton可以有多个副本,可以使得数据不丢失。
通常以集群模式,下面来阐述一下broker的几个状况。
一、分区数据与副本
Kafka的partition会有多个副本,其中有一个leader角色的副本,它负责接收producer端发送的数据;也可以通过克隆leader的方式创建更多的副本,leader与其它副本保持数据同步,也就是为了在极端情况下的数据备份,每个分区的副本交错的存在于其它分区中,尽量以平均方式存放于各分区中,也可以手动指定存放的分区(假设是因服务器硬件的配置不同),当极端情况下,leader宕机后,自动启用副本作为新leader角色,负责接收消息。
leader与副本保持通信,副本持续向leader发送健康请求,超过默认30秒无连接的副本,从关联的副本中删除关系;副本数据默认为1个,通常我们至少设置为2个。
# 副本数量配置项(默认为1)
mis.insync.replicas
以上这种,能够和 leader 保持同步的 follower + leader本身 组成的运作全过程,称之为(In-Sync Replicas)ISR 同步机制。
二、broker的应答机制
在上一章阐述过,broker是对producer的应答,它会告诉producer,对接收到的数据处理情况;
应答等级:(配置项为 acks)
- 0:不用等落地磁盘,直接应答
- 1:leader落地磁盘后应答
- all:leader和副本都落地磁盘后再应答(默认)
三、精准数据
3.1 数据的不重复
- broker单次启动运行,会有一个唯一的运行编号
- 每个分区都会有一个唯一的分区编号
- producer发送的每条消息都会有一个唯一的消息编号
像以上这种,对每个环节都会有唯一编号,kafka很方便的区分出每条消息的归属,为幂等性。
# 幂等性(默认开启)
enable.idempotence = true
3.2 数据防丢失
通过以上内容的了解,为防止数据的丢失,这里可以这样做:
1、应答机制设为all,确保leader和副本都保存完成
2、分区副本至少有两个,确保随时有可启用的副本数据
当做到 数据不重复 + 数据防丢失,体现出数据的完整性、安全性、一致性。
3.3 数据的按序
broker中的leader在接收数据时,分区缓存按序最多可存5个请求数据,成功的消息请求会落地,消息请求按序落地磁盘,若一次消息请求失败,producer会尝试重发,此时leader分区的数据落地动作会暂停,但会缓存新收到的请求数据,积满5个后暂停接收,直至之前失败的消息请求成功后,再从此消息处,重新开始按序落地磁盘。多分区按发送序号落地磁盘。
leader分区缓存接收消息示意图:
这里认为:开启幂等性 + 接收积压个数 + 按序落地磁盘,可以确保单个topic多分区消息不乱序。
四、Leader partition 的自动平衡
假如,个别broker中的分区过多,个别broker中的分区过少,这不符合负载均衡。
kafka默认开启了每间隔一段时间,自动检测分区分布的差异值是否超过了警戒值,当超过设定的警戒值时,自动触发平均分布的动作。
# 开启自动平衡分布(默认)
auto.leader.rebalance.enable = true
# 不平衡警戒触发值(默认1%)
leader.imbalance.per.broker.percentage
# 检测间隔时间(默认300秒)
leader.imbalance.check.interval.seconds = 300
通常不建议开启,或者把警戒触发值调大,或者把间隔时间设长,为减少被触发的次数;频繁性的触发平均分配,造成不必要的资源消耗。
五、管理节点(Broker)
通常是向集群中添加新节点;每个broker启动后,会先向ZK注册,每个broker有个选举leader的controller,按注册的顺序为leader角色的替代者,leader的contraller负责监听ZK的broker.Ids并管理。以下阐述对节点(broker)的管理操作。
5.1 注册新节点
首先确保各IP及主机名的对应,便于后续节点相关的配置。
再次确保一个全新的节点,broker.id的设置、zookeeper.connect的配置、数据及日志目录为空。
启动该节点(自动注册并加入集群中)
5.2 手动设定节点分区
# 指定成员节点,重新分配分区,自动将数据同步到其它节点
bin/kafka-reassign-partitions.sh --broker-list '0,1,2'
减少/删除节点,同上,改变 --broker-list 的成员节点,数据将自动同步到其它节点。
六、宕机后的数据同步
leader(broker)宕机恢复后,以当前leader数据为准,这里为了数据的一致性。
副本(broker)宕机恢复后,向leader请求同步数据。
作者:Sol·wang - 博客园
出处:https://www.cnblogs.com/Sol-wang/p/16691611.html
声明:本文版权归作者和[博客园]共有,未经作者同意,不得转载。