企业级ELK-架构与部署(一)亲测可用!

ELK为什么这么耳熟?ELK是什么?ELK有什么用?ELK怎么部署?

有木有可以直接复制黏贴就可以完成的???!!!

 

小编本人在两个月内搜索了N篇文章,内心只想着找到一篇能复制黏贴的快捷部署的企业级别ELK项目文章(基本都是单机、测试),很遗憾的是没能找到,因此萌生了自己搞一篇的想法。假如已对ELK有过了解的童鞋,可以跳过前言,直接跳到实战,直接Ctrl+c Ctrl+v即可部署好企业级别的ELK。

 

前言

ELK,作为大数据时代的宠儿,是日志分析界中的“扛把子”,饿了么、阿里巴巴、携程、华为、美团……这些公司都在用ELK!所以ELK耳熟能详并非没有原因的。

在实际应用场景中,ELK起到了日志收集、日志归档、日志存储、日志分析的作用。想象一下,一千台服务器中的某个项目挂掉了,如何通过查看日志去找到挂掉的原因?一台一台的服务器远程过去,一台一台的查看不同的日志。想想都觉得累。假若部署了ELK,则可以通过日志分析快速定位问题所在。

ELK实际上是一整套的解决方案,由三个开源软件组成:Elasticsearch , Logstash, Kibana。

Elasticsearch是实时全文搜索和分析引擎,主要负责日志搜索、分析。

Logstash是一个对日志进行搜集、过滤的工具。

Kibana可以为 Logstash 和 ElasticSearch 提供web前端显示界面,让日志分析变得方便明了。

三者已经能组成一个简单的日志收集过滤分析平台。

 

Logstash->Elasticsearch->Kibana

上面的架构是最简单的架构,想应用到实际中,这种架构是不足以支持业务运行的。架构仍然需进行优化。由于logstash是JAVA开发,运行时候会占用较大的资源(内存、CPU等),假如每台服务器都安装运行一个logstash,对业务影响也太大了!因此,实际应用中,logstash仅发挥它的日志过滤功能,日志收集将交给filebeat。

filebeat是什么?filebeat是一个轻量级日志传输工具,只占用些许的资源,就能做到收集海量的日志。

因此,ELK组合中将加入filebeat。

Filebeat->Logstash->Elasticsearch->Kibana

此时的架构已经比较完整啦,但是,企业级别的ELK日志分析平台,怎么能不考虑安全性、稳定性呢?

为了提升Elasticsearch消息处理效率、存储容量与防止Elasticsearch宕机日志丢失,所以引入Elasticsearch分布式集群架构

随着业务量增大,由filebeat直接传递logstash可能业务量过大导致数据丢失或宕机,所以引入kafka,达到削峰、异步作用。同时kafka也有保存日志数据,增加一层保险的作用。为了解决kafka宕机可能造成损失,kafka也需要做成集群。
分布式集群架构是什么?其实就是加多几台机子,几台机子组成一个集群,几台机子一起工作,肯定比单独一台效率高。而且当其中一台机子坏掉,也有其余的机子顶上去,不会影响业务。

kafka是什么?kafka是一种高吞吐量的分布式发布订阅消息系统,在ELK中扮演日志存储、备份、中转的角色,起到数据备份、削峰的作用。

因此,ELK组合将做成ELK集群,同时加入kafka角色。

 

Filebeat->Logstash->Elasticsearch->Kibana

到此为止,整个ELK日志分析平台的架构与相关作用,都已经介绍完毕。接下来就是实战阶段。

 

实战

先说明下搭建环境与各主机角色。

机器选择:睿江云平台

节点选择:广东G(VPC网络更安全、SSD磁盘性能高)

云主机配置:4核16G(4核8G也支持,但会有延时感)

网络选择:VPC虚拟私有云(VPC网络更安全、高效)

带宽:5M

系统版本:Centos7.6

云主机数量:5

软件版本:ELK 7.4.0、kafka 2.12-2.6.0

 

首先,下面为部署elasticsearch的步骤。(亲测可用,从头到尾只用修改ip)

a.步骤1

登陆elasticsearch主节点、数据节点、数据节点。ssh 到master node 192.168.0.6、date node1 192.168.0.4、date node2 192.168.0.5

各个节点都关闭防火墙和SELinux。

各个节点都执行以下命令

service

 

b.步骤2

三个节点都执行以下的步骤

yum install -y ntpdate

 

c.步骤3

ntpdate time1.aliyun.com

 

d.步骤4

yum -y install java-1.8.0-openjdk

 

e.步骤5

cd /opt/

wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.4.0-linux-x86_64.tar.gz

 

f.步骤6

tar -zxvf elasticsearch-7.4.0-linux-x86_64.tar.gz

 

g.步骤7

groupadd els

 

h.步骤8

useradd els -g els -p els

 

i.步骤9

chown -R els:els /opt/elasticsearch-7.4.0/

 

j.步骤10

192.168.0.6配置如下:

vi /opt/elasticsearch-7.4.0/config/elasticsearch.yml

##集群名称
cluster.name: ES-Cluster
##节点名称
node.name: ES-node1
主节点
node.master: true
# # 数据节点
node.data: true
# # 确保外网和内网均能访问
network.host: 0.0.0.0
# # http协议,用户外部通讯
http.port: 9200
# # Tcp协议,用于节点间的数据传输
transport.port: 9300
# # 最大节点数量
node.max_local_storage_nodes: 3
# #三个节点
discovery.seed_hosts: ["192.168.0.6:9300", "192.168.0.4:9301", "192.168.0.5:9302"]
# # 确保当前节点是主节点
cluster.initial_master_nodes: ["ES-node1"]
# # 开启xpack
xpack.security.enabled: true
xpack.security.transport.ssl.enabled: true
xpack.security.transport.ssl.verification_mode: certificate
xpack.security.transport.ssl.keystore.path: /opt/elasticsearch-7.4.0/config/elastic-certificates.p12
xpack.security.transport.ssl.truststore.path: /opt/elasticsearch-7.4.0/config/elastic-certificates.p12

 

 

 

192.168.0.4配置如下:

vi /opt/elasticsearch-7.4.0/config/elasticsearch.yml

cluster.name: ES-Cluster
# # 节点名称
node.name: ES-node2
# # 主节点
node.master: false
# # 数据节点
node.data: true
# # 确保外网和内网均能访问
network.host: 0.0.0.0
# # http协议,用户外部通讯
http.port: 9201
# # Tcp协议,用于节点间的数据传输
transport.port: 9301
# # 最大节点数量
node.max_local_storage_nodes: 3
# #三个节点
discovery.seed_hosts: ["192.168.0.6:9300", "192.168.0.4:9301", "192.168.0.5:9302"]
# # 确保当前节点是主节点
cluster.initial_master_nodes: ["ES-node1","ES-node2","ES-node3"]

xpack.security.enabled: true
xpack.security.transport.ssl.enabled: true
xpack.security.transport.ssl.verification_mode: certificate
xpack.security.transport.ssl.keystore.path: /opt/elasticsearch-7.4.0/config/elastic-certificates.p12
xpack.security.transport.ssl.truststore.path: /opt/elasticsearch-7.4.0/config/elastic-certificates.p12

 

 

192.168.0.5配置如下:

vi /opt/elasticsearch-7.4.0/config/elasticsearch.yml

cluster.name: ES-Cluster
# # 节点名称
node.name: ES-node3
# # 主节点
node.master: false
# # 数据节点
node.data: true
# # 确保外网和内网均能访问
network.host: 0.0.0.0
# # http协议,用户外部通讯
http.port: 9202
# # Tcp协议,用于节点间的数据传输
transport.port: 9302
# # 最大节点数量
node.max_local_storage_nodes: 3
# #三个节点
discovery.seed_hosts: ["192.168.0.6:9300", "192.168.0.4:9301", "192.168.0.5:9302"]
# # 确保当前节点是主节点
cluster.initial_master_nodes: ["ES-node1","ES-node2","ES-node3"]

xpack.security.enabled: true
xpack.security.transport.ssl.enabled: true
xpack.security.transport.ssl.verification_mode: certificate
xpack.security.transport.ssl.keystore.path: /opt/elasticsearch-7.4.0/config/elastic-certificates.p12
xpack.security.transport.ssl.truststore.path: /opt/elasticsearch-7.4.0/config/elastic-certificates.p12

 

 

k.步骤11

echo “vm.max_map_count=655360” >> /etc/sysctl.conf

 

l.步骤12

vim /etc/systemd/system.conf

DefaultLimitNOFILE=65536
DefaultLimitNPROC=32000
DefaultLimitMEMLOCK=infinity

 

n.步骤13

生成证书与秘钥,一直回车即可,无需设置密码

cd /opt/elasticsearch-7.4.0/

bin/elasticsearch-certutil ca

bin/elasticsearch-certutil cert —ca elastic-stack-ca.p12

 

m.步骤14

mv elastic-certificates.p12 /opt/elasticsearch-7.4.0/config/

mv elastic-stack-ca.p12 /opt/elasticsearch-7.4.0/config/

 

o.步骤15

scp /opt/elasticsearch-7.4.0/config/elastic-certificates.p12 root@192.168.0.4:/opt/elasticsearch-7.4.0/config/

scp /opt/elasticsearch-7.4.0/config/eelastic-stack-ca.p12 root@192.168.0.4:/opt/elasticsearch-7.4.0/config/

scp /opt/elasticsearch-7.4.0/config/elastic-certificates.p12 root@192.168.0.5:/opt/elasticsearch-7.4.0/config/

scp /opt/elasticsearch-7.4.0/config/eelastic-stack-ca.p12 root@192.168.0.5:/opt/elasticsearch-7.4.0/config/

 

p.步骤16

为ES内置的用户创建密码,例如elastic账户,即为超级用户

bin/elasticsearch-setup-passwords interactive

 

q.步骤17

重启三台VM,shutdown -r now

 

r.步骤18

三台VM都执行以下操作:

su els

cd /opt/elasticsearch-7.4.0/bin/

nohup ./elasticsearch &

集群成功启动

 

部署完elasticsearch,ELK项目已经完成了四分之一,只需要部署kibana,就可以简单的使用ELK的部分功能啦,以下为部署kibana项目的步骤。(亲测可用)

 

a.步骤1

登陆kibana节点。ssh 到 192.168.0.6

 

b.步骤2

cd /opt/

wget https://artifacts.elastic.co/downloads/kibana/kibana-7.4.0-linux-x86_64.tar.gz

 

c.步骤3

tai -zxvf kibana-7.4.0-linux-x86_64.tar.gz

 

d.步骤4

vi /opt/kibana-7.4.0-linux-x86_64/config/kibana.yml

server.port: 5601
server.host: "0.0.0.0"
elasticsearch.hosts: ["http://192.168.0.6:9200","http://192.168.0.4:9201","http://192.168.0.5:9202"]
elasticsearch.username: "elastic"
elasticsearch.password: "elastic"
i18n.locale: "zh-CN"

 

 

e.步骤5

chown -R els:els /opt/kibana-7.4.0-linux-x86_64

f.步骤6

su els

cd /opt/kibana-7.4.0-linux-x86_64/bin/

nohup ./kibana &

g.步骤7

测试下kibana与elasticsearch的可用性

打开浏览器,登录http://192.168.0.6:5601/

如果出现登录界面,则说明kibana和elasticsearch都是成功部署。

账号与密码都是elastic。登录成功后可以看到如下界面

 

后续

ELK的部署已经完成了一半,由于篇幅问题,ELK的部署暂告一段落,下一篇将继续部署ELK,也就是kafak+logstash+filebeat的组合。下篇将完全部署ELK项目,就可以投入实际工作运营当中啦!

posted on 2020-11-16 17:49  睿江云  阅读(460)  评论(0编辑  收藏  举报