kafka-eagle-2.0.5安装指南

kafka eagle 安装文档

环境介绍 :kafka 三台 版本:2.2.1+cdh6.3.2  管理:ZK

kafka-eagle-bin-2.0.5.tar.gz安装包准备

官网 :http://download.kafka-eagle.org/
百度云链接:https://pan.baidu.com/s/12wyPvcN_F7fZKPjZ-nHRsw 
提取码:yrfq 
--来自百度网盘超级会员V4的分享

配置

安装指南
https://www.kafka-eagle.org/articles/docs/installation/linux-macos.html
参数解释
https://www.kafka-eagle.org/articles/docs/installation/configuration.html

配置1:1.8+jdk

1、检查当前系统中JDK

[root@localhost ~]# java -version
openjdk version "1.8.0_121"
OpenJDK Runtime Environment (build 1.8.0_121-b08)
OpenJDK 64-Bit Server VM (build 25.121-b08, mixed mode)

2、检测JDK依赖

[root@localhost ~]# rpm -aq | grep java
java-1.8.0-openjdk-headless-1.8.0.121.b08-1.el7.x86_64
python-javapackages-3.4.1-11.el7.noarch
tzdata-java-2019c-1.el7.noarch
javapackages-tools-3.4.1-11.el7.noarch
java-1.8.0-openjdk-1.8.0.242.b08-1.el7.x86_64

3、卸载OpenJDK

[root@localhost ~]# rpm -e --nodeps java-1.8.0-openjdk-headless-1.8.0.242.b08-1.el7.x86_6
[root@localhost ~]# rpm -e --nodeps java-1.8.0-openjdk-1.8.0.242.b08-1.el7.x86_64
[root@localhost root]$ java -version
bash: java: 未找到命令...
[root@localhost ~]# rpm -qa | grep java
python-javapackages-3.4.1-11.el7.noarch
tzdata-java-2019c-1.el7.noarch
javapackages-tools-3.4.1-11.el7.noarch

4、安装JDK

[root@localhost /opt]# tar -xvf jdk-8u261-linux-x64.tar.gz

5、配置环境变量

[root@localhost ~]# vim /etc/profile
export JAVA_HOME=/opt/jdk1.8.0_261
export PATH=$JAVA_HOME/bin:$PATH

6、加载新增配置、验证JDK

[root@localhost ~]# source /etc/profile
[root@localhost ~]# java -version
java version "1.8.0_261"
Java(TM) SE Runtime Environment (build 1.8.0_261-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.261-b11, mixed mode)

配置2:eagle配置

1.解压eagle安装包

cd /opt/
tar -zxf kafka-eagle-bin-2.0.5.tar.gz
cd kafka-eagle-bin-2.0.5
tar -zxf kafka-eagle-web-2.0.5-bin.tar.gz

2.配置system-config.properties

[root@localhost ~]# cd /opt/kafka-eagle-bin-2.0.5/kafka-eagle-web-2.0.5/conf
[root@localhost ~]# vim system-config.properties path:
######################################
# multi zookeeper & kafka cluster list
# 配置kafka集群信息,多个集群可进行多次配置 参考官网安装指南  配置hostname需要在/etc/hosts配置主机hostname和ip映射关系
######################################
kafka.eagle.zk.cluster.alias=cluster1
cluster1.zk.list=节点ip/节点hostname:2181,节点ip/节点hostname:2181,节点ip/节点hostname:2181

######################################
# zookeeper enable acl
# kafka acl 没有开启给值false即可
######################################
cluster1.zk.acl.enable=false
cluster1.zk.acl.schema=digest
cluster1.zk.acl.username=test
cluster1.zk.acl.password=test123

######################################
# broker size online list
######################################
cluster1.kafka.eagle.broker.size=20

######################################
# zk client thread limit
# zk 线程数量
######################################
kafka.zk.limit.size=25

######################################
# kafka eagle webui port
######################################
kafka.eagle.webui.port=8048

######################################
# kafka jmx acl and ssl authenticate
# jmx的acl控制
######################################
cluster1.kafka.eagle.jmx.acl=false
cluster1.kafka.eagle.jmx.user=keadmin
cluster1.kafka.eagle.jmx.password=keadmin123
cluster1.kafka.eagle.jmx.ssl=false
cluster1.kafka.eagle.jmx.truststore.location=/Users/dengjie/workspace/ssl/certificates/kafka.truststore
cluster1.kafka.eagle.jmx.truststore.password=ke123456

######################################
# kafka offset storage 
# Kafka offsets stored in kafka. kafka自身管理offset
######################################
cluster1.kafka.eagle.offset.storage=kafka

######################################
# kafka jmx uri
######################################
cluster1.kafka.eagle.jmx.uri=service:jmx:rmi:///jndi/rmi://%s/jmxrmi

######################################
# kafka metrics, 15 days by default
# 指标是否开启  指标保留时间/天
######################################
kafka.eagle.metrics.charts=true
kafka.eagle.metrics.retain=15

######################################
# kafka sql topic records max
# sql最大记录数  是否自动修复sql错误
######################################
kafka.eagle.sql.topic.records.max=5000
kafka.eagle.sql.fix.error=false


######################################
# delete kafka topic token
# 删除topic时的token密钥
######################################
kafka.eagle.topic.token=keadmin

######################################
# kafka sasl authenticate
# kafka sasl是否开启以及相关配置
######################################
cluster1.kafka.eagle.sasl.enable=false
cluster1.kafka.eagle.sasl.protocol=SASL_PLAINTEXT
cluster1.kafka.eagle.sasl.mechanism=PLAIN
cluster1.kafka.eagle.sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="kafka" password="kafka-eagle";
cluster1.kafka.eagle.sasl.client.id=
cluster1.kafka.eagle.blacklist.topics=
cluster1.kafka.eagle.sasl.cgroup.enable=false
cluster1.kafka.eagle.sasl.cgroup.topics=


######################################
# kafka mysql jdbc driver address
# 数据存储数据配置  mysql/sqlite 以下为mysql配置
######################################
kafka.eagle.driver=com.mysql.cj.jdbc.Driver
kafka.eagle.url=jdbc:mysql://mysql数据库ip:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
kafka.eagle.username=mysql用户
kafka.eagle.password=mysql密码

3.启动eagle

[root@localhost ~]# cd /opt/kafka-eagle-bin-2.0.5/kafka-eagle-web-2.0.5/bin
[root@localhost ~]# chomd 777 ke.sh
[root@localhost ~]# ./ke.sh start
### ke.sh restart 重启
### ke.sh stop 停止
[2021-07-02 11:04:35] INFO: Port Progress: [##################################################] | 100%
[2021-07-02 11:04:38] INFO: Config Progress: [##################################################] | 100%
[2021-07-02 11:04:41] INFO: Startup Progress: [##################################################] | 100%
[2021-07-02 11:04:31] INFO: Status Code[0]
[2021-07-02 11:04:31] INFO: [Job done!]
Welcome to
    __ __    ___     ____    __ __    ___            ______    ___    ______    __     ______
   / //_/   /   |   / __/   / //_/   /   |          / ____/   /   |  / ____/   / /    / ____/
  / ,<     / /| |  / /_    / ,<     / /| |         / __/     / /| | / / __    / /    / __/
 / /| |   / ___ | / __/   / /| |   / ___ |        / /___    / ___ |/ /_/ /   / /___ / /___
/_/ |_|  /_/  |_|/_/     /_/ |_|  /_/  |_|       /_____/   /_/  |_|\____/   /_____//_____/


Version 2.0.5 -- Copyright 2016-2021
*******************************************************************
* Kafka Eagle Service has started success.
* Welcome, Now you can visit 'http://xxx.xxx.x.xxx:8048'
* Account:admin ,Password:123456
*******************************************************************
* <Usage> ke.sh [start|status|stop|restart|stats] </Usage>
* <Usage> https://www.kafka-eagle.org/ </Usage>
*******************************************************************

4.访问eagle

http://xxx.xxx.x.xxx:8048
Account:admin ,Password:123456

遇到的问题

1.页面中kafka版本不能加载

报错日志:
Mx4jServiceImpl.org.springframework.scheduling.quartz.SchedulerFactoryBean#1_Worker-7 - ERROR - JMX service url[xxxx:9393] create has error,msg is java.io.IOException cannot be cast to javax.management.remote.JMXConnector
原因:访问kafka jmx时失败
解决方案 :CDH的CM界面修改kafka broker_java_opts配置,如果kafka集群有多个节点,每个节点都需配置对应IP/host
示例:
原kafka节点1 broker_java_opts配置:
-server -XX:+UseG1GC -XX:MaxGCPauseMillis=20 -XX:InitiatingHeapOccupancyPercent=35 -XX:G1HeapRegionSize=16M -XX:MinMetaspaceFreeRatio=50 -XX:MaxMetaspaceFreeRatio=80 -XX:+DisableExplicitGC -Djava.awt.headless=true -Djava.net.preferIPv4Stack=true -Dcom.sun.management.jmxremote.host=127.0.0.1 -Dcom.sun.management.jmxremote.local.only=true -Djava.rmi.server.hostname=127.0.0.1
修改kafka节点1 broker_java_opts配置中  -Dcom.sun.management.jmxremote.host 和  -Djava.rmi.server.hostname 的值为对应kafka节点的IP或者hostname(需要主机配置host/ip映射关系):
-server -XX:+UseG1GC -XX:MaxGCPauseMillis=20 -XX:InitiatingHeapOccupancyPercent=35 -XX:G1HeapRegionSize=16M -XX:MinMetaspaceFreeRatio=50 -XX:MaxMetaspaceFreeRatio=80 -XX:+DisableExplicitGC -Djava.awt.headless=true -Djava.net.preferIPv4Stack=true -Dcom.sun.management.jmxremote.host=192.168.1.XX(当前kafka节点的IP/HostName) -Dcom.sun.management.jmxremote.local.only=true -Djava.rmi.server.hostname=192.168.1.XX(当前kafka节点的IP/HostName)


posted @   SHUN丶  阅读(1094)  评论(2编辑  收藏  举报
编辑推荐:
· [.NET]调用本地 Deepseek 模型
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· .NET Core 托管堆内存泄露/CPU异常的常见思路
· PostgreSQL 和 SQL Server 在统计信息维护中的关键差异
· C++代码改造为UTF-8编码问题的总结
阅读排行:
· CSnakes vs Python.NET:高效嵌入与灵活互通的跨语言方案对比
· 【.NET】调用本地 Deepseek 模型
· Plotly.NET 一个为 .NET 打造的强大开源交互式图表库
· 上周热点回顾(2.17-2.23)
· 如何使用 Uni-app 实现视频聊天(源码,支持安卓、iOS)
点击右上角即可分享
微信分享提示