elasticsearch集群扩展新节点
原集群配置
原来集群的节点不需要做任何修改和重启服务,新节点符合条件会自动加入集群
新节点配置
配置文件的集群名字和nodename配置好即可

cluster.name: taishiescluster node.name: node-195 #cluster.name集群名称和原来的一样 #nodename 配置成唯一标识 path.data: /data/taishi/es-cluster/data # # Path to log files: # path.logs: /data/taishi/es-cluster/logs # # ----------------------------------- Memory ----------------------------------- http.port: 9200 #这里无需添加 discovery.seed_hosts: ["elastic-node1", "elastic-node2", "elastic-node3"] # # ---------------------------------- Various ----------------------------------- # xpack.security.enabled: true xpack.security.http.ssl.enabled: true xpack.security.transport.ssl.enabled: true xpack.license.self_generated.type: basic xpack.security.http.ssl.key: certs/instance/instance.key xpack.security.http.ssl.certificate: certs/instance/instance.crt xpack.security.http.ssl.certificate_authorities: certs/ca/ca.crt xpack.security.transport.ssl.verification_mode: certificate xpack.security.transport.ssl.key: certs/instance/instance.key xpack.security.transport.ssl.certificate: certs/instance/instance.crt xpack.security.transport.ssl.certificate_authorities: certs/ca/ca.crt
问题解决
1.新节点可以成功启动,但无法加入集群
新节点的防火墙问题
firewall-cmd --zone=trusted --add-source=192.168.100.0/24 --permanent
firewall-cmd --zone=trusted --add-source=172.16.100.0/24 --permanent
firewall-cmd --reload
成功加入原来集群
ES OOM问题排查
ES的最大JVM内存设置
如把所有的内存都分配给 Elasticsearch 的堆内存,那将不会有剩余的内存交给 Lucene.这将严重地影响全文检索的性能
标准的建议是把 50% 的可用内存作为 Elasticsearch 的堆内存,保留剩下的 50%.当然它也不会被浪费Lucene 会很乐意利用起余下的内存
32G现象
ES内存泄漏
https://elasticsearch.cn/article/361
在ES的JVM配置文件jvm.options里,添加一个log4j的系统变量-Dlog4j2.enable.threadlocals=false,禁用掉thread local即可.经过测试,该选项可以有效避开这个内存泄漏问题
本文来自博客园,作者:不懂123,转载请注明原文链接:https://www.cnblogs.com/yxh168/p/17247450.html