1.Kafka的搭建以及常用命令
这里我使用的是Kafka 2.11-2.0.0.
首先确保已经安装好zookeeper
(kafka只负责数据的传输,而每次传输数据的位置会有一个游标来记录,下次传输数据直接找到游标的位置。而负责记录这个游标位置的是:zookeeper)
1.搭建
上传并解压压缩包 ,进入到config目录下,
vim zookeeper.properties
修改如下内容:
# limitations under the License.
# the directory where the snapshot is stored.
dataDir=/opt/soft/zk345/tmp/zookeeper
再修改server.properties:
vim server.properties
修改内容如下:
listeners=PLAINTEXT://192.168.131.200:9092 # A comma separated list of directories under which to store log files log.dirs=/opt/soft/kafka200/kafka-logs # root directory for all kafka znodes. zookeeper.connect=192.168.131.200:2181
最后再配置下环境变量并source生效。
2.启动
先启动zookeeper:
zkServer.sh start
再启动kafka:
kafka-server-start.sh /opt/soft/kafka200/config/server.properties
3.基本命令
1.建立topic(消息队列):
kafka-topics.sh --create \
--zookeeper 你的zookeeper的IP:2181 \
--replication-factor 副本数 \
--partitions 分区数 \
--topic 消息队列名
2.查看所有队列:
kafka-topics.sh --zookeeper 192.168.131.200:2181 --list
3.向消息队列生产消息:
kafka-console-producer.sh --topic 队列名 \
--broker-list 你的kafka队列的机器IP:9092 \
4.消费消息:
kafka-console-consumer.sh --bootstrap-server 你的kafka的IP:9092 \
--topic 队列名
(这里是开启监听,在控制台打印)
5.查看消息队列中有多少数据:
kafka-run-class.sh kafka.tools.GetOffsetShell \
--broker-list IP地址:9092 \
--topic 队列名
6.删除消息队列:
先去conf文件夹下的serve.properties中配置:
delete.topic.enable=true
然后执行命令:
kafka-topics.sh -delete -zookeeper 192.168.131.200:2181 -topic usesfriends
本文来自博客园,作者:{理想三旬},转载请注明原文链接:{https://www.cnblogs.com/zyp0519/}