随笔分类 -  bdv013-kafka

上一页 1 2 3 4 5 6 下一页

|NO.Z.00043|——————————|BigDataEnd|——|Hadoop&kafka.V28|——|kafka.v28|增加分区.v01|
摘要:一、增加分区 ### 创建主题:分区副本均为1 [root@hadoop ~]# kafka-topics.sh --zookeeper localhost:2181/myKafka \ --create --topic topic_demo_001 --partitions 1 --replica 阅读全文

posted @ 2022-04-09 14:08 yanqi_vip 阅读(17) 评论(0) 推荐(0) 编辑

|NO.Z.00041|——————————|^^ 创建 ^^|——|Hadoop&kafka.V26|——|kafka.v26|主题管理.v01|
摘要:一、主题管理:创建主题 ### 方案一:创建主题 ~~~ # 创建主题 [root@hadoop ~]# kafka-topics.sh --zookeeper localhost:2181/myKafka --create --topic topic_x \ --partitions 3 --re 阅读全文

posted @ 2022-04-09 14:07 yanqi_vip 阅读(27) 评论(0) 推荐(0) 编辑

|NO.Z.00039|——————————|BigDataEnd|——|Hadoop&kafka.V24|——|kafka.v24|消费组管理|
摘要:一、消费组管理:消费者组 (Consumer Group) ### 什么是消费者组 ~~~ consumer group是kafka提供的可扩展且具有容错性的消费者机制。 ### 三个特性: ~~~ 消费组有一个或多个消费者,消费者可以是一个进程,也可以是一个线程 ~~~ group.id是一个字符 阅读全文

posted @ 2022-04-09 14:06 yanqi_vip 阅读(26) 评论(0) 推荐(0) 编辑

|NO.Z.00040|——————————|BigDataEnd|——|Hadoop&kafka.V25|——|kafka.v25|主题管理参数说明|
摘要:一、主题管理参数说明:使用kafka-topics.sh脚本: 选项 说明 -config<String:name=value> 为创建的或修改的主题指定配置信息。支持下述配置条目:cleanup.policycompression.typedelete.retention.msfile.delet 阅读全文

posted @ 2022-04-09 14:06 yanqi_vip 阅读(15) 评论(0) 推荐(0) 编辑

|NO.Z.00038|——————————|BigDataEnd|——|Hadoop&kafka.V23|——|kafka.v23|消费者拦截器参数配置|
摘要:一、消费者拦截器参数配置:消费者参数配置补充 配置项 说明 bootstrap.servers 建立到Kafka集群的初始连接用到的host/port列表。客户端会使用这里指定的所有的host/port来建立初始连接。这个配置仅会影响发现集群所有节点的初始连接。形式:host1:port1,host 阅读全文

posted @ 2022-04-09 14:05 yanqi_vip 阅读(23) 评论(0) 推荐(0) 编辑

|NO.Z.00036|——————————|BigDataEnd|——|Hadoop&kafka.V21|——|kafka.v21|消费者拦截器实验案例.v01|
摘要:一、消费者拦截器 ### 消费者拦截器 ~~~ 消费者在拉取了分区消息之后,要首先经过反序列化器对key和value进行反序列化处理。 ~~~ 处理完之后, ~~~ 如果消费端设置了拦截器,则需要经过拦截器的处理之后,才能返回给消费者应用程序进行处理。 ~~~ 如果拦截器是null,表示没有配置消费 阅读全文

posted @ 2022-04-09 14:04 yanqi_vip 阅读(24) 评论(0) 推荐(0) 编辑

|NO.Z.00037|——————————|BigDataEnd|——|Hadoop&kafka.V22|——|kafka.v22|消费者拦截器实验案例.v02|
摘要:一、创建一个maven项目:demo-09-kafka-consumerInterceptors ### 添加pom.xml依赖 <dependencies> <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-cli 阅读全文

posted @ 2022-04-09 14:04 yanqi_vip 阅读(18) 评论(0) 推荐(0) 编辑

|NO.Z.00033|——————————|BigDataEnd|——|Hadoop&kafka.V18|——|kafka.v18|消费者位移管理.v01|
摘要:一、消费者位移管理 ### 消费者位移管理 ~~~ Kafka中,消费者根据消息的位移顺序消费消息。 ~~~ 消费者的位移由消费者管理可以存储于zookeeper中也可以存储于Kafka主题__consumer_offsets中。 ~~~ Kafka提供了消费者API,让消费者可以管理自己的位移。 阅读全文

posted @ 2022-04-09 14:03 yanqi_vip 阅读(24) 评论(0) 推荐(0) 编辑

|NO.Z.00034|——————————|BigDataEnd|——|Hadoop&kafka.V19|——|kafka.v19|消费者位移管理.v02|
摘要:一、消费者位移管理数据准备 ### 准备数据 ~~~ # 生成消息文件 [root@hadoop ~]# for i in `seq 60`; do echo "hello yanqi $i" >> nm.txt; done ~~~ # 创建主题,三个分区,每个分区一个副本 [root@hadoop 阅读全文

posted @ 2022-04-09 14:03 yanqi_vip 阅读(10) 评论(0) 推荐(0) 编辑

|NO.Z.00035|——————————|BigDataEnd|——|Hadoop&kafka.V20|——|kafka.v20|再均衡剖析|
摘要:一、再均衡剖析 ### 再均衡 ~~~ # 重平衡可以说是kafka为人诟病最多的一个点了。 ~~~ 重平衡其实就是一个协议,它规定了如何让消费者组下的所有消费者来分配topic中的每一个分区。 ~~~ 比如一个topic有100个分区,一个消费者组内有20个消费者, ~~~ 在协调者的控制下让组内 阅读全文

posted @ 2022-04-09 14:03 yanqi_vip 阅读(21) 评论(0) 推荐(0) 编辑

|NO.Z.00032|——————————|BigDataEnd|——|Hadoop&kafka.V17|——|kafka.v17|位移提交剖析|
摘要:一、位移提交 ### 位移提交 ~~~ Consumer需要向Kafka记录自己的位移数据,这个汇报过程称为提交位移(Committing Offsets) ~~~ Consumer 需要为分配给它的每个分区提交各自的位移数据 ~~~ 位移提交的由Consumer端负责的,Kafka只负责保管。__ 阅读全文

posted @ 2022-04-09 14:02 yanqi_vip 阅读(11) 评论(0) 推荐(0) 编辑

|NO.Z.00030|——————————|BigDataEnd|——|Hadoop&kafka.V15|——|kafka.v15|反序列化剖析|
摘要:一、反序列化剖析 ### 反序列化 ~~~ Kafka的broker中所有的消息都是字节数组,消费者获取到消息之后, ~~~ 需要先对消息进行反序列化处理,然后才能交给用户程序消费处理。 ### 消费者的反序列化器包括key的和value的反序列化器。 key.deserializer value. 阅读全文

posted @ 2022-04-09 14:01 yanqi_vip 阅读(35) 评论(0) 推荐(0) 编辑

|NO.Z.00031|——————————|BigDataEnd|——|Hadoop&kafka.V16|——|kafka.v16|自定义反序列化|
摘要:一、自定义反序列化 ### 创建一个maven项目:demo-08-customDeserializer ~~~ # 添加pom.xml依赖 <dependencies> <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kaf 阅读全文

posted @ 2022-04-09 14:01 yanqi_vip 阅读(16) 评论(0) 推荐(0) 编辑

|NO.Z.00029|——————————|BigDataEnd|——|Hadoop&kafka.V14|——|kafka.v14|订阅剖析|
摘要:一、[订阅剖析:订阅 ### 主题和分区 ~~~ # Topic,Kafka用于分类管理消息的逻辑单元,类似与MySQL的数据库。 ~~~ Partition,是Kafka下数据存储的基本单元,这个是物理上的概念。 ~~~ 同一个topic的数据,会被分散的存储到多个partition中, ~~~ 阅读全文

posted @ 2022-04-09 14:00 yanqi_vip 阅读(18) 评论(0) 推荐(0) 编辑

|NO.Z.00028|——————————|BigDataEnd|——|Hadoop&kafka.V13|——|kafka.v13|消费者参数详解|
摘要:一、消费者参数详解:消息接收:必要参数配置 参数 说明 bootstrap.servers 向Kafka集群建立初始连接用到的host/port列表。客户端会使用这里列出的所有服务器进行集群其他服务器的发现,而不管是否指定了哪个服务器用作引导。这个列表仅影响用来发现集群所有服务器的初始主机。字符串形 阅读全文

posted @ 2022-04-09 14:00 yanqi_vip 阅读(18) 评论(0) 推荐(0) 编辑

|NO.Z.00026|——————————|BigDataEnd|——|Hadoop&kafka.V11|——|kafka.v11|消费者|消费组|心跳机制.v01|
摘要:一、概念入门 ### [kafka高级特性解析] ~~~ [消费者/消费组] ~~~ [心跳机制] ### 消费者、消费组 ~~~ # 消费者从订阅的主题消费消息, ~~~ 消费消息的偏移量保存在Kafka的名字是__consumer_offsets 的主题中。 ~~~ 消费者还可以将自己的偏移量存 阅读全文

posted @ 2022-04-09 13:59 yanqi_vip 阅读(20) 评论(0) 推荐(0) 编辑

|NO.Z.00027|——————————|BigDataEnd|——|Hadoop&kafka.V12|——|kafka.v12|消费者|消费组|心跳机制.v02|
摘要:一、心跳机制 二、消费者宕机,退出消费组,触发再平衡,重新给消费组中的消费者分配分区。 ### 由于broker宕机,主题X的分区3宕机,此时分区3没有Leader副本,触发再平衡, ~~~ 消费者4没有对应的主题分区,则消费者4闲置。 ### Kafka 的心跳是 Kafka Consumer 和 阅读全文

posted @ 2022-04-09 13:59 yanqi_vip 阅读(33) 评论(0) 推荐(0) 编辑

|NO.Z.00025|——————————|BigDataEnd|——|Hadoop&kafka.V10|——|kafka.v10|生产者原理剖析.v02|
摘要:一、生产者参数配置补充:参数设置方式: 二、补充参数: 参数名称 描述 retry.backoff.ms 在向一个指定的主题分区重发消息的时候,重试之间的等待时间。 比如3次重试,每次重试之后等待该时间长度,再接着重试。 在一些失败的场景,避免了密集循环的重新发送请求。 long型值,默认100。可 阅读全文

posted @ 2022-04-09 13:58 yanqi_vip 阅读(16) 评论(0) 推荐(0) 编辑

|NO.Z.00023|——————————|BigDataEnd|——|Hadoop&kafka.V08|——|kafka.v08|拦截器剖析.v02|
摘要:一、实现ProducerInterceptor接口 ### 消息实体类: package cn.yanqi.kafka.demo.entity; public class User { private Integer userId; private String username; public I 阅读全文

posted @ 2022-04-09 13:57 yanqi_vip 阅读(19) 评论(0) 推荐(0) 编辑

|NO.Z.00024|——————————|BigDataEnd|——|Hadoop&kafka.V09|——|kafka.v09|生产者原理剖析.v01|
摘要:一、原理剖析 ### [kafka高级特性解析] ~~~ [生产者原理剖析] ~~~ [生产者参数配置] 二、原理剖析 ### 由上图可以看出:KafkaProducer有两个基本线程: ~~~ # 主线程: ~~~ 负责消息创建,拦截器,序列化器,分区器等操作,并将消息追加到消息收集器Recode 阅读全文

posted @ 2022-04-09 13:57 yanqi_vip 阅读(22) 评论(0) 推荐(0) 编辑

上一页 1 2 3 4 5 6 下一页
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示