zookeeper and kafka
kafka安装前期准备:
1,准备三个节点(根据自己需求决定)
2,三个节点上安装好zookeeper(也可以使用kafka自带的zookeeper)
3,关闭防火墙
chkconfig iptables off
一、下载安装包
Kafka官网下载安装包 http://kafka.apache.org/downloads.html
找到 Binary downloads(已编译好的): 下载后解压
Mac:
$ brew cask install homebrew/cask-versions/adoptopenjdk8
$ brew install kafka
备注:后续操作均需进入 /usr/local/Cellar/kafka/xxxx/bin 目录下。
修改kafka相关配置文件:
修改server.properties
broker.id=0 # 设备与设备的唯一标识
修改zookeeper.properties
dataDir=/usr/local/Cellar/zookeeper # zookeeper存放的位置
启动zookeeper
启动kafka服务
或者
$ brew services start zookeeper
$ brew services start kafka
创建topic
删除topic
kafka-topics --delete --zookeeper localhost:2181 --topic test1
查看创建的topic
生产数据
kafka-console-producer --broker-list localhost:9092 --topic test1
消费数据
kafka-console-consumer --bootstrap-server 127.0.0.1:9092 --topic test1 --from-beginning
备注:--from-beginning 将从第一个消息还是接收go操作kafka
Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据,具有高性能、持久化、多副本备份、横向扩展等特点。本文介绍了如何使用Go语言发送和接收kafka消息。
sarama
Go语言中连接kafka使用第三方库:github.com/Shopify/sarama。
下载及安装
$ go get github.com/Shopify/sarama
注意事项
sarama
v1.20之后的版本加入了zstd
压缩算法,需要用到cgo,在Windows平台编译时会提示类似如下错误:
# github.com/DataDog/zstd
exec: "gcc":executable file not found in %PATH%
所以在Windows平台请使用v1.19版本的sarama。
连接kafka发送消息
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 | package main import ( "fmt" "github.com/Shopify/sarama" ) // 基于sarama第三方库开发的kafka client func main() { config := sarama.NewConfig() config.Producer.RequiredAcks = sarama.WaitForAll // 发送完数据需要leader和follow都确认 config.Producer.Partitioner = sarama.NewRandomPartitioner // 新选出一个partition 模式为随机分配 config.Producer.Return.Successes = true // 成功交付的消息将在success channel返回 // 构造一个消息 msg := &sarama.ProducerMessage{} msg.Topic = "web_log" msg.Value = sarama.StringEncoder( "this is a test log" ) // 调用内置方法将字符串序列化 // 连接kafka client, err := sarama.NewSyncProducer([]string{ "192.168.1.7:9092" }, config) // addrs 支持多个地址 if err != nil { fmt.Println( "producer closed, err:" , err) return } defer client.Close() // 发送消息 pid, offset, err := client.SendMessage(msg) if err != nil { fmt.Println( "send msg failed, err:" , err) return } fmt.Printf( "pid:%v offset:%v\n" , pid, offset) } |
连接kafka消费消息
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 | package main import ( "fmt" "github.com/Shopify/sarama" ) // kafka consumer func main() { config := sarama.NewConfig() config.Consumer.Return.Errors = true consumer, err := sarama.NewConsumer([]string{ "127.0.0.1:9092" }, config) if err != nil { fmt.Printf( "fail to start consumer, err:%v\n" , err) return } partitionList, err := consumer.Partitions( "mysql" ) // 根据topic取到所有的分区 if err != nil { fmt.Printf( "fail to get list of partition:err%v\n" , err) return } for partition := range partitionList { // 遍历所有的分区 go func (id int32) { // 针对每个分区创建一个对应的分区消费者 pc, err := consumer.ConsumePartition( "mysql" , id, sarama.OffsetOldest) if err != nil { fmt.Printf( "failed to start consumer for partition %d,err:%v\n" , partition, err) return } defer pc.AsyncClose() // 异步从每个分区消费信息 for { select { case msg := <-pc.Messages(): fmt.Printf( "msg offset: %d, partition: %d, timestamp: %s, value: %s\n" , msg.Offset, msg.Partition, msg.Timestamp.String(), string(msg.Value)) case err := <-pc.Errors(): fmt.Printf( "err :%s\n" , err.Error()) } } }(int32(partition)) } } |
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 一个奇形怪状的面试题:Bean中的CHM要不要加volatile?
· [.NET]调用本地 Deepseek 模型
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· .NET Core 托管堆内存泄露/CPU异常的常见思路
· PostgreSQL 和 SQL Server 在统计信息维护中的关键差异
· DeepSeek “源神”启动!「GitHub 热点速览」
· 我与微信审核的“相爱相杀”看个人小程序副业
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· 如何使用 Uni-app 实现视频聊天(源码,支持安卓、iOS)
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)