SpringBoot集成Kafka
kafka介绍
kafka是一款分布式、支持分区的、多副本,基于zookeeper协调的分布式消息系统。最大的特性就是可以实时处理大量数据来满足需求。
kafka使用场景
-
日志收集:可以用kafka收集各种服务的日志 ,通过已统一接口的形式开放给各种消费者。
-
消息系统:解耦生产和消费者,缓存消息。
-
用户活动追踪:kafka可以记录webapp或app用户的各种活动,如浏览网页,点击等活动,这些活动可以发送到kafka,然后订阅者通过订阅这些消息来做监控。
-
运营指标:可以用于监控各种数据。
kafka基本概念
kafka是一个分布式的分区的消息,提供消息系统应该具备的功能。
名称 | 解释 |
---|---|
broker | 消息中间件处理节点,一个broker就是一个kafka节点,多个broker构成一个kafka集群。 |
topic | kafka根据消息进行分类,发布到kafka的每个消息都有一个对应的topic |
producer | 消息生产(发布)者 |
consumer | 消息消费(订阅)者 |
consumergroup | 消息订阅集群,一个消息可以被多个consumergroup消费,但是一个consumergroup只有一个consumer可以消费消息。 |
前期准备:
1、要求本地的本地必须安装 jdk8或者以上版本,因为scala运行在jvm上。
2、安装Kafka环境
官网地址:https://kafka.apache.org/quickstart
下载地址:https://www.apache.org/dyn/closer.cgi?path=/kafka/3.2.0/kafka_2.13-3.2.0.tgz
其中kafka_2.13-3.2.0.tgz 其中 2.13 是 scala 的版本,3.2.0 是 kafka版本。(kafka是用scala写的,所所以安装 scala 前本地先装scala)
修改配置文件
# 默认端口号:9092,修改日志位置,设置zk地址
启动 zookeeper 服务
# Linux 启动:bin/zookeeper-server-start.sh config/zookeeper.properties
# Windows启动:bin\windows\zookeeper-server-start.bat config\zookeeper.properties(不要关闭窗口)
启动 kafka 服务
# Linux 启动:bin/kafka-server-start.sh config/server.properties
# Windows启动:bin\windows\kafka-server-start.bat config\server.properties(打开另一个终端会话并运行)
创建 topic
# Linux :bin/kafka-topics.sh --create --topic test --bootstrap-server localhost:9092
# Windows:bin\windows\kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
查看 topic 的描述
# Linux:bin/kafka-topics.sh --describe --topic test --bootstrap-server localhost:9092
查看当前所有topic
# Windows:bin\windows\kafka-topics.bat --list --zookeeper localhost:2181
写数据到 topic
# Linux:bin/kafka-console-producer.sh --topic test --bootstrap-server localhost:9092
# This is my first event
# This is my second event
读数据
# Linux:bin/kafka-console-consumer.sh --topic test --from-beginning --bootstrap-server localhost:9092
开启生产者
# Windows:bin\windows\kafka-console-producer.bat --broker-list localhost:9092 --topic deviceTopic
开启消费者
# Windows:bin\windows\kafka-console-consumer.bat --bootstrap-server 127.0.0.1:9092 --topic output --from-beginning
3、kafka可视化客户端
下载地址:https://www.kafkatool.com/download.html
引入kafka依赖
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
修改配置文件
spring:
kafka:
bootstrap-servers: kafka部署服务的ip地址:9092
topic: test
producer:
# 发生错误后,消息重发的次数。
retries: 5
# 当有多个消息需要被发送到同一个分区时,生产者会把它们放在同一个批次里。该参数指定了一个批次可以使用的内存大小,按照字节数计算。
batch-size: 16384
# 设置生产者内存缓冲区的大小。
buffer-memory: 33554432
# 键的序列化方式
key-serializer: org.apache.kafka.common.serialization.StringSerializer
# 值的序列化方式
value-serializer: org.apache.kafka.common.serialization.StringSerializer
# acks=0 : 生产者在成功写入消息之前不会等待任何来自服务器的响应。
# acks=1 : 只要集群的首领节点收到消息,生产者就会收到一个来自服务器成功响应。
# acks=all :只有当所有参与复制的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应。
acks: 1
consumer:
# 每次拉取多少条消息
max-poll-record: 10
# 自动提交的时间间隔 在spring boot 2.X 版本中这里采用的是值的类型为Duration 需要符合特定的格式,如1S,1M,2H,5D
auto-commit-interval: 1S
# 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:
# latest(默认值)在偏移量无效的情况下,消费者将从最新的记录开始读取数据(在消费者启动之后生成的记录)
# earliest :在偏移量无效的情况下,消费者将从起始位置读取分区的记录
auto-offset-reset: earliest
# 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
enable-auto-commit: false
# 键的反序列化方式
key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
# 值的反序列化方式
value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
listener:
# 在侦听器容器中运行的线程数。
concurrency: 5
# 当enable-auto-commit: false时,spring-kafka提供了通过ackMode值表示不同的手动提交模式
# record:当每一条记录被消费者监听器处理之后提交
# batch: 当每一批poll()的数据被消费者监听处理之后提交
# time : 当第一批poll()的数据被消费者监听处理之后,距离上次时间大于TIME时提交
# count: 当第一批poll()的数据被消费者监听处理之后,被处理record数量>=COUNT时提交
# count_time:当time和count有一个条件满足时提交
# manual:当第一批poll()的数据被消费者监听处理之后,手动调用Acknowledgment.acknowledge()后提交
# manual_immediate:手动调用Acknowledgment.acknowledge()后提交
ack-mode: manual_immediate
# 默认true,但消费监听的topic不存在则会报错,即设置为false
missing-topics-fatal: false
生产者(发布)
@Component
public class KafkaProducer {
@Autowired
private KafkaTemplate<String, Object> kafkaTemplate;
public void send2(String msg){
kafkaTemplate.send("test3",msg);
}
}
消费者(订阅)
@Component
public class KafkaConsumer {
private static final Logger log= LoggerFactory.getLogger(KafkaConsumer.class);
@KafkaListener(id = "consumer-1", groupId = "1",topics = "test")
public void listen(String msg){
log.info("接收消息:"+msg);
}
@KafkaListener(id = "consumer-2", topics = {"${spring.kafka.topic}"}, groupId ="2")
public void topic_test(ConsumerRecord<?, ?> record, Acknowledgment ack, @Header(KafkaHeaders.RECEIVED_TOPIC) String topic) {
Optional message = Optional.ofNullable(record.value());
if (message.isPresent()) {
Object msg = message.get();
log.info("topic_test 消费了: Topic:" + topic + ",Message:" + msg);
ack.acknowledge();
}
}
}
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
2020-10-14 notepad++使用技巧