ElasticStack企业级实战篇

目录

一、Elastic Stack在企业的常见架构

1.1 没有日志收集系统运维工作的日常“痛点”概述

image

如上图所示,我简单画了一下互联网常见的一些技术栈相关架构图,请问如果让你对上图中的各组件日志进行收集,分析,存储,展示该如何做呢?

是否也会经常面临以下的运维痛点?

  • 痛点1:生产出现故障后,运维需要不停的查看各种不同的日志进行分析?是不是毫无头绪?
  • 痛点2:项目上线出现错误,如果快递定位问题?如果后端节点过多、日志分散怎么办?
  • 痛点3:开发人员需要实时查看日志但又不想给服务器的登录权限,怎么办?难道每天都开发取日志?
  • 痛点4:如果在海量的日志中快速的提取我们想要的数据?比如:PV、UV、TOP10的URL?如果分析的日志数量量过大,那么势必会导致查询速度慢、难度增大,最终会导致我们无法快速的获取想要的指标。
  • 痛点5:CDN公司需要不停的分析日志,那么分析什么?主要分析命中率,为什么?因为们给用户承诺的是命中率是90%以上。如果没有达到90%,那么我们就要去分析数据为什么没有被命中、为什么没有被缓存下来。
  • 痛点6:近期某影视公司周五下午频分出现被盗链的情况,导致异常流量突增2G有余,给公司带来了损失,那又该如何分析异常流量呢?
  • 痛点7:上百台MYSQL实例的慢日志查询分析如何聚集?
  • 痛点8:docker、K8s平台日志如何收集分析?
  • 痛点N:......

如上所有的痛点都可以使用日志分析系统Elastic Stack解决,将运维所有的服务器日志,业务系统日志都收集到一个平台下,然后提取想要的内容,比如错误信息、警告信息等,当过滤到这种信息,就马上告警,告警后,运维人员就能马上定位是哪台机器、哪个业务系统出现了问题,出现了什么问题?

1.2 Elastic Stack分布式日志系统概述

image

The Elastic Stack,包括Elasticsearch、Kibana、Beats和Logstash(也称为ELK Stack)。

  • ElasticSearch:简称ES,ES是一个开源的高扩展的分布式全文搜索引擎,是这个Elastic Stack技术栈的核心。它可以近乎实时的存储、检索数据;本身扩展性很好,可以扩展到上百台机器,处理PB级别的数据;
  • Kibana:是一个免费且开放的用户界面,能够让您对ElasticSearch数据进行可视化,并让您在Elastic Stack中进行导航。您可以进行各种操作,从跟踪查询负载,到理解请求如何流经您的整个应用,都能轻松完成。
  • Beats:是一个免费且开发的平台,集合了多种单一用途数据采集器。它们从成百上千机器和系统向Logstash和Elasticsearch发送数据;
  • Logstash:是免费且开放的服务器端数据处理管道,能够从多个来源采集数据,转换数据,然后将数据发送到您最喜欢的存储库中;

Elastic Stack的主要优点有如下几个:

1)处理方式灵活:elasticsearch是实时全文索引,具有强大的搜索功能;

2)配置相对简单:elasticsearch全部使用JSON接口,Logstash使用模板配置,kibana的配置文件部分更简单;

3)检索性能高效:基于优秀的设计,虽然每次查询都是实时,但是也可以达到百亿级数据的查询秒级响应;

4)集群线性扩展:elasticsearch和Logstash都可以灵活线性扩展;

5)前端操作绚丽:kibana的前端设计比较绚丽,而且操作简单;

使用Elastic stack能收集哪些日志:

  • 容器管理工具:docker
  • 容器编排工具:docker swarm、Kubernetes
  • 负载均衡服务器:LVS、haproxy、nginx
  • web服务器:httpd、nginx、tomcat
  • 数据库: mysql,redis,MongoDB,Hbase,Kudu,ClickHouse,PostgreSQL
  • 存储: nfs,gluterfs,fastdfs,HDFS,Ceph
  • 系统: message,security
  • 业务: 包括但不限于C,C++,Java,PHP,Go,Python,Shell等编程语言研发的App

1.3 Elastic Stack企业级“EFK”架构图解

image

数据流走向: 源数据层(nginx,tomcat) ---> 数据采集层(filebeat) ---> 数据存储层 (ElasticSearch)。

1.4 Elastic Stack企业级“ELK”架构图解

image

数据流走向: 源数据层(nginx,tomcat) ---> 数据采集/转换层(Logstash) ---> 数据存 储层(ElasticSearch)。

1.5 Elastic Stack企业级“ELFK”架构图解

image

数据流走向: 源数据层(nginx,tomcat) ---> 数据采集(filebeat) ---> 转换层 (Logstash) ---> 数据存储层(ElasticSearch)。

1.6 Elastic Stack企业级“ELFK” + “kafka”架构图解

image

数据流走向: 源数据层(nginx,tomcat) ---> 数据采集(filebeat) ---> 数据缓存层 (kafka)---> 转换层(Logstash) ---> 数据存储层(ElasticSearch)。

1.7 Elastic Stack企业级“ELFK” + “kafka”架构演变

image

如上图所示,在实际工作中,如果有大数据部门的存在,也有可能kafka的数据要被多个公司使用哟。

二、ElasticSearch和Solr的抉择

2.1 ElasticSearch和Lucene的关系

Lucene的优缺点:

  • 优点:可以被认为是迄今为至最先进,性能最好的,功能最全的搜索引擎库(框架);

  • 缺点:

    1)只能在Java项目中使用,并且要以jar包的方式直接集成在项目中;

    2)使用很复杂,你需要深入了解检索的相关知识来创建索引和搜索索引代码;

    3)不支持集群环境,索引数据不同步(不支持大型项目);

    4)扩展性差,索引库和应用所在同一个服务器,当索引数据过大时,效率逐渐降低;

值得注意的是,上述的Lucene框架中的缺点,Elasticsearch全部都能解决。

ElasticSearch是一个实时的分布式搜索和分析引擎。它可以帮助你用前所未有的速度去处理大规模数据。

ES可以用于全文搜索,结构化搜索以及分析,当然你也可以将这三者进行组合。 有哪些公司在使用ElasticSearch呢,全球几乎所有的大型互联网公司都在拥抱这个开源项目:https://www.elastic.co/cn/customers/success-stories

2.2 ElasticSearch和Solr如何抉择

image

Solr是Apache Lucene项目的开源企业搜索平台。其主要功能包括全文检索、命中标示、分面搜索、动态聚类、数据库集成,以及富文本(如Word、PDF)的处理。

Solr是高度可扩展的,并提供了分布式搜索和索引复制。Solr是最流行的企业级搜索引擎, Solr4 还增加了NoSQL支持。

Elasticsearch(下面简称"ES")与Solr的比较:

1)Solr利用Zookeeper进分分布式管理,而ES自身带有分布式协调管理功能;

2)Solr支持更多格式(JSON、XML、CSV)的数据,而ES仅支持JSON文件格式;

3)Solr官方提供的功能更多,而ES本身更注重于核心功能,高级功能多有第三方插件提供;

4)Solr在"传统搜索"(已有数据)中表现好于ES,但在处理"实时搜索"(实时建立索引)应用时效率明显低于ES;

5)Solr是传统搜索应用的有力解决方案,但Elasticsearch更适用于新兴的实时搜索应用;

如下图所示,有网友在生产环境测试,将搜索引擎从Solr转到ElasticSearch以后的平均查询速度有了将近50倍的提升:

image

三、集群基础环境初始化

3.1 准备虚拟机

IP地址 主机名 CPU 内存 磁盘 说明
192.168.99.11 elasticsearch01 2 core 4G 20G+ ES node
192.168.99.12 elasticsearch02 2 core 4G 20G+ ES node
192.168.99.13 elasticsearch03 2 core 4G 20G+ ES node

3.2 修改数据源

$ sed -e 's|^mirrorlist=|#mirrorlist=|g' \
-e 's|^#baseurl=http://mirror.centos.org|baseurl=https://mirrors.tuna.tsinghua.edu.cn|g' \
-i.bak \
/etc/yum.repos.d/CentOS-*.repo

参考链接:https://mirrors.tuna.tsinghua.edu.cn/help/centos/

3.3 修改终端颜色

$ cat <<EOF >> ~/.bashrc
PS1='[\[\e[34;1m\]\u@\[\e[0m\]\[\e[32;1m\]\H\[\e[0m\]\[\e[31;1m\] \W\e[0m\]]# '
EOF
$ source ~/.bashrc

3.4 修改sshd服务优化

$ sed -ri 's@^#UseDNS yes@UseDNS no@g' /etc/ssh/sshd_config
$ sed -ri 's#^GSSAPIAuthentication yes#GSSAPIAuthentication no#g' /etc/ssh/sshd_config
$ grep ^UseDNS /etc/ssh/sshd_config
$ grep ^GSSAPIAuthentication /etc/ssh/sshd_config

3.5 关闭防火墙

$ systemctl disable --now firewalld && systemctl is-enabled firewalld
$ systemctl status firewalld

3.6 禁用selinux

$ sed -ri 's#(SELINUX=)enforcing#\1disabled#' /etc/selinux/config
$ grep ^SELINUX= /etc/selinux/config
$ setenforce 0
$ getenforce

3.7 配置集群免密登录及同步脚本

1)修改主机列表

$ cat >> /etc/hosts <<'EOF'
192.168.99.11 elasticsearch01
192.168.99.12 elasticsearch02
192.168.99.13 elasticsearch03
EOF

2)elasticsearch01节点上生成密钥对

$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa -q

3)elasticsearch01配置所有集群节点的免密登录

$ for ((host_id=1;host_id<=3;host_id++));do ssh-copy-id elasticsearch0${host_id} ;done

4)连接测试

$ ssh elasticsearch01
$ ssh elasticsearch02
$ ssh elasticsearch03

5)所有节点安装rsync数据同步工具

$ yum -y install rsync

6)编写同步脚本

$ vim /usr/local/sbin/data_rsync.sh
# 将下面的内容拷贝到该文件即可
#!/bin/bash
if [ $# -ne 1 ];then
echo "Usage: $0 /path/to/file(绝对路径)"
exit
fi
# 判断文件是否存在
if [ ! -e $1 ];then
echo "[ $1 ] dir or file not find!"
exit
fi
# 获取父路径
fullpath=`dirname $1`
# 获取子路径
basename=`basename $1`
# 进入到父路径
cd $fullpath
for ((host_id=2;host_id<=3;host_id++))
do
# 使得终端输出变为绿色
tput setaf 2
echo ===== rsyncing elasticsearch0${host_id}: $basename =====
# 使得终端恢复原来的颜色
tput setaf 7
# 将数据同步到其他两个节点
rsync -az $basename `whoami`@elasticsearch0${host_id}:$fullpath
if [ $? -eq 0 ];then
echo "命令执行成功!"
fi
done

7)给脚本授权

$ chmod +x /usr/local/sbin/data_rsync.sh

3.8 集群时间同步

1)安装常用的Linux工具,您可以自定义哈。

$ yum -y install vim net-tools

2)安装chrony服务

$ yum -y install ntpdate chrony

3)修改chrony服务配置文件

$ vim /etc/chrony.conf
...
# 注释官方的时间服务器,换成国内的时间服务器即可
server ntp.aliyun.com iburst
server ntp1.aliyun.com iburst
server ntp2.aliyun.com iburst
server ntp3.aliyun.com iburst
server ntp4.aliyun.com iburst
server ntp5.aliyun.com iburst
...

4)配置chronyd的开机自启动

$ systemctl enable --now chronyd
$ systemctl restart chronyd

5)查看服务

$ systemctl status chronyd

四、ElasticSearch单点部署

4.1 下载指定的ES版本

参考链接:https://www.elastic.co/cn/downloads/elasticsearch

4.2 单点部署elasticsearch

1)安装

$ yum -y localinstall elasticsearch-7.17.6-x86_64.rpm

2)修改配置文件

$ egrep -v '^$|^#' /etc/elasticsearch/elasticsearch.yml
cluster.name: lvzhenjiang-elk
node.name: elasticsearch01
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
network.host: 0.0.0.0
discovery.seed_hosts: ["192.168.99.11"]

相关参数说明:

  • cluster.name: 集群名称,若不指定,则默认是"elasticsearch",日志文件的前缀也是集群名称。

  • node.name: 指定节点的名称,可以自定义,推荐使用当前的主机名,要求集群唯一。

  • path.data: 数据路径。

  • path.logs: 日志路径。

  • network.host: ES服务监听的IP地址。

  • discovery.seed_hosts: 服务发现的主机列表,对于单点部署而言,主机列表和network.host字段配置相同
    即可。

3)启动服务

$ systemctl start elasticsearch.service

五、ElasticSearch分布式集群部署

5.1 elasticsearch01修改配置文件

$ egrep -v '^$|^#' /etc/elasticsearch/elasticsearch.yml
cluster.name: lvzhenjiang-elk
node.name: elasticsearch01
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
network.host: 0.0.0.0
discovery.seed_hosts: ["192.168.99.11","192.168.99.12","192.168.99.13"]
cluster.initial_master_nodes: ["192.168.99.11","192.168.99.12","192.168.99.13"]

注意:node.name:各个节点配置要区分清楚,建议写对应的主机名称!

5.2 同步配置文件到集群的其他节点

1)elasticsearch01同步配置文件到集群的其他节点

$ data_rsync.sh /etc/elasticsearch/elasticsearch.yml

2)elasticsearch02节点配置

......
node.name: elasticsearch02

3)elasticsearch03节点配置

......
node.name: elasticsearch03

5.3 所有节点删除之前的临时数据

$ pkill java
$ rm -rf /var/{lib,log}/elasticsearch/* /tmp/*
$ ll /var/{lib,log}/elasticsearch/ /tmp/

5.4 所有节点启动服务

1)所有节点启动服务

$ systemctl daemon-reload
$ systemctl start elasticsearch

2)启动过程中建议查看日志

$ tail -100f /var/log/elasticsearch/lvzhenjiang-elk.log

5.5 验证集群是否正常

$ curl elasticsearch01:9200/_cat/nodes?v

image

六、部署kibana服务

6.1 本地安装kibana

$ yum localinstall -y kibana-7.17.6-x86_64.rpm

6.2 修改kibana的配置文件

$ egrep -v '^$|^#' /etc/kibana/kibana.yml
server.host: "0.0.0.0"
server.name: "elasticsearch-kibana"
elasticsearch.hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
i18n.locale: "zh-CN"

6.3 启动kibana服务

$ systemctl enable --now kibana
$ systemctl status kibana

6.4 访问kibana的webUI

浏览器访问:http://{kibana IP}:5601

七、filebeat部署及基础使用

7.1 部署filebeat环境

$ yum localinstall -y filebeat-7.17.6-x86_64.rpm

7.2 修改filebeat的配置文件

1)编写测试的配置文件

$ mkdir ~/config
$ cat > ~/config/01-stdin-to-console.yml << 'EOF'
# 指定输入类型
filebeat.inputs:
# 指定输入的类型为 stdin ,表示标准输入
- type: stdin
# 指定输出类型
output.console:
# 打印漂亮的格式
pretty: true
EOF

2)运行filebeat实例

$ filebeat -e -c ~/config/01-stdin-to-console.yml

3)测试

启动filebeat实例,见打印的日志即可!

7.3 input的log类型

filebeat.inputs:
- type: log
paths:
- /tmp/test.log
output.console:
pretty: true

7.4 input的通配符案例

filebeat.inputs:
- type: log
paths:
- /tmp/test.log
- /tmp/*.txt
output.console:
pretty: true

7.5 input的通用字段案例

filebeat.inputs:
- type: log
# 是否启动当前的输入类型,默认值为true
enabled: true
# 指定数据路径
paths:
- /tmp/test.log
- /tmp/*.txt
# 给当前的输入类型打上标签,支持中文
tags: ["lvzhenjiang-linux80","吕振江"]
# 自定义字段
fields:
address: "北京房山"
# 将自定义键值对放到顶级字段,默认值为false,会将数据放到一个 “fields” 子段的下面
fields_under_root: true
- type: log
enabled: true
paths:
- /tmp/test/*/*.log
tags: ["lvzhenjiang-python"]
fields:
address: "北京"
output.console:
pretty: true

7.6 日志过滤案例

filebeat.inputs:
- type: log
enabled: true
paths:
- /tmp/test/*.log
# 注意,黑白名单均支持通配符,生产环节中不建议同时使用,
# 指定黑名单,包含指定的内容才会采集,且区分大小写!
include_lines: ['^ERR', '^WARN','oldboyedu']
# 指定白名单,排除指定的内容
exclude_lines: ['^DBG',"linux","oldboyedu"]
output.console:
pretty: true

7.7 将数据写入es案例

filebeat.inputs:
- type: log
# 是否启动当前的输入类型,默认值为true
enabled: true
# 指定数据路径
paths:
- /tmp/test.log
- /tmp/*.txt
# 给当前的输入类型打上标签,支持中文
tags: ["lvzhenjiang-linux80","吕振江"]
# 自定义字段
fields:
address: "北京房山"
# 将自定义键值对放到顶级字段,默认值为false,会将数据放到一个 “fields” 子段的下面
fields_under_root: true
- type: log
enabled: true
paths:
- /tmp/test/*/*.log
tags: ["lvzhenjiang-python"]
fields:
address: "北京"
output.elasticsearch:
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]

7.8 自定义es索引名称

filebeat.inputs:
- type: log
# 是否启动当前的输入类型,默认值为true
enabled: true
# 指定数据路径
paths:
- /tmp/test.log
- /tmp/*.txt
# 给当前的输入类型打上标签,支持中文
tags: ["lvzhenjiang-linux80","吕振江"]
# 自定义字段
fields:
address: "北京房山"
# 将自定义键值对放到顶级字段,默认值为false,会将数据放到一个 “fields” 子段的下面
fields_under_root: true
- type: log
enabled: true
paths:
- /tmp/test/*/*.log
tags: ["lvzhenjiang-python"]
fields:
address: "北京"
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
index: "lvzhenjiang-linux-elk-%{+yyyy.MM.dd}"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"

7.9 多个索引写入案例

filebeat.inputs:
- type: log
# 是否启动当前的输入类型,默认值为true
enabled: true
# 指定数据路径
paths:
- /tmp/test.log
- /tmp/*.txt
# 给当前的输入类型打上标签,支持中文
tags: ["lvzhenjiang-linux80","吕振江"]
# 自定义字段
fields:
address: "北京房山"
# 将自定义键值对放到顶级字段,默认值为false,会将数据放到一个 “fields” 子段的下面
fields_under_root: true
- type: log
enabled: true
paths:
- /tmp/test/*/*.log
tags: ["lvzhenjiang-python"]
fields:
address: "北京"
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
# index: "lvzhenjiang-linux-elk-%{+yyyy.MM.dd}"
indices:
- index: "lvzhenjiang-linux-elk-%{+yyyy.MM.dd}"
# 匹配字段包含的内容
when.contains:
tags: "lvzhenjiang-linux80"
- index: "lvzhenjiang-linux-python-%{+yyyy.MM.dd}"
when.contains:
tags: "lvzhenjiang-python"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"

7.10 自定义分片和副本案例

filebeat.inputs:
- type: log
# 是否启动当前的输入类型,默认值为true
enabled: true
# 指定数据路径
paths:
- /tmp/test.log
- /tmp/*.txt
# 给当前的输入类型打上标签,支持中文
tags: ["lvzhenjiang-linux80","吕振江"]
# 自定义字段
fields:
address: "北京房山"
# 将自定义键值对放到顶级字段,默认值为false,会将数据放到一个 “fields” 子段的下面
fields_under_root: true
- type: log
enabled: true
paths:
- /tmp/test/*/*.log
tags: ["lvzhenjiang-python"]
fields:
address: "北京"
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
# index: "lvzhenjiang-linux-elk-%{+yyyy.MM.dd}"
indices:
- index: "lvzhenjiang-linux-elk-%{+yyyy.MM.dd}"
# 匹配字段包含的内容
when.contains:
tags: "lvzhenjiang-linux80"
- index: "lvzhenjiang-linux-python-%{+yyyy.MM.dd}"
when.contains:
tags: "lvzhenjiang-python"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板
setup.template.overwrite: false
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 2

7.11 filebeat实现日志聚合到本地

filebeat.inputs:
- type: tcp
host: "0.0.0.0:9000"
output.file:
path: "/tmp/filebeat"
filename: lvzhenjiang-linux80
# 指定文件的滚动大小,默认值为20MB
rotate_every_kb: 102400
# 指定保存的文件个数,默认是7个,有效值为2-1024个
number_of_files: 300
# 指定文件的权限,默认权限是0600
permissions: 0600

7.12 filebeat实现日志聚合到ES集群

image

filebeat.inputs:
- type: tcp
host: "0.0.0.0:9000"
tags: ["aaa"]
- type: tcp
host: "0.0.0.0:8000"
tags: ["bbb"]
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
indices:
- index: "lvzhenjiang-linux80-elk-aaa-%{+yyyy.MM.dd}"
when.contains:
tags: "aaa"
- index: "lvzhenjiang-linux80-elk-bbb-%{+yyyy.MM.dd}"
when.contains:
tags: "bbb"
setup.ilm.enabled: false
setup.template.name: "lvzhenjiang-linux80-elk"
setup.template.pattern: "lvzhenjiang-linux80-elk*"
setup.template.overwrite: true
setup.template.settings:
index.number_of_shards: 3
index.number_of_replicas: 0

八、EFK架构企业级实战案例

8.1 部署nginx服务

1)配置nginx的软件源

$ cat > /etc/yum.repos.d/nginx.repo << 'EOF'
[nginx-stable]
name=nginx stable repo
baseurl=http://nginx.org/packages/centos/$releasever/$basearch/
gpgcheck=1
enabled=1
gpgkey=https://nginx.org/keys/nginx_signing.key
module_hotfixes=true
[nginx-mainline]
name=nginx mainline repo
baseurl=http://nginx.org/packages/mainline/centos/$releasever/$basearch/
gpgcheck=1
enabled=0
gpgkey=https://nginx.org/keys/nginx_signing.key
module_hotfixes=true
EOF

2)安装nginx服务

$ yum install nginx -y

3)启动nginx服务

$ systemctl start nginx

8.2 基于log类型收集nginx原生日志

filebeat.inputs:
- type: log
# 是否启动当前的输入类型,默认值为true
enabled: true
# 指定数据路径
paths:
- /var/log/nginx/access.log*
# 给当前的输入类型打上标签,支持中文
tags: ["access"]
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
index: "lvzhenjiang-linux-nginx-%{+yyyy.MM.dd}"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

8.3 基于log类型收集nginx的json日志

1)修改nginx的源日志格式

$ vim /etc/nginx/nginx.conf
......
log_format json '{"@timestamp": "$time_iso8601", '
'"time": "$time_iso8601", '
'"remote_addr": "$remote_addr", '
'"AWS_ALB_ip": "$remote_addr", '
'"remote_user": "$remote_user", '
'"body_bytes_sent": "$body_bytes_sent", '
'"request_time": "$request_time", '
'"upstream_response_time": "$upstream_response_time", '
'"status": "$status", '
'"host": "$host", '
'"request": "$request", '
'"request_method": "$request_method", '
'"uri": "$uri", '
'"http_referrer": "$http_referer", '
'"size": "$body_bytes_sent", '
'"user_ip": "$http_x_forwarded_for", '
'"http_user_agent": "$http_user_agent" '
'}';
access_log /var/log/nginx/access.log json;

2)检查nginx的配置文件语法并重启nginx服务

$ nginx -t
$ systemctl restart nginx

3)定义配置文件

filebeat.inputs:
- type: log
# 是否启动当前的输入类型,默认值为true
enabled: true
# 指定数据路径
paths:
- /var/log/nginx/access.log*
# 给当前的输入类型打上标签,支持中文
tags: ["access"]
# 以JSON格式解析message字段的内容
json.keys_under_root: true
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
index: "lvzhenjiang-linux-nginx-access-%{+yyyy.MM.dd}"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

8.4 基于modules采集nginx日志文件

image

1)模块的基本使用

# 查看模块
filebeat modules list
# 启动模块
filebeat modules enable nginx tomcat
# 禁用模块
filebeat modules disable nginx tomcat

2)filebeat配置文件(需要启动nginx模块)

filebeat.config.modules:
# 指定模块的配置文件路径,如果是yum方式安装,在7.17.3版本两种不能使用如下默认值
# path: ${path.config}/modules.d/*.yml
# 经过实际测试,推荐使用如下的配置,此处写绝对路径即可!而对于二进制部署无需做此操作
path: /etc/filebeat/modules.d/*.yml
# 是否开启热加载
reload.enabled: true
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
index: "lvzhenjiang-linux-nginx-access-%{+yyyy.MM.dd}"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

3)/etc/filebeat/modules.d/nginx.yml文件内容

- module: nginx
access:
enabled: true
var.paths: ["/var/log/nginx/access.log*"]
error:
enabled: false
var.paths: ["/var/log/nginx/error.log"]
ingress_controller:
enabled: false

8.5 基于modules采集tomcat日志文件

1)部署tomcat服务

  • 解压tomcat软件包

    $ tar zvxf apache-tomcat-10.0.20.tar.gz -C /lvzhenjiang/software/
  • 创建符号链接

    $ ln -sv /lvzhenjiang/software/apache-tomcat-10.0.20 /lvzhenjiang/software/tomcat
  • 配置环境变量

    $ vim /etc/profile.d/elk.sh
    #!/bin/bash
    export JAVA_HOME=/usr/share/elasticsearch/jdk
    export TOMCAT_HOME=/lvzhenjiang/software/apache-tomcat-10.0.20
    export PATH=$PATH:$TOMCAT_HOME/bin:$JAVA_HOME/bin
  • 使得环境变量生效

    $ source /etc/profile.d/elk.sh
  • 启动tomcat服务

    $ catalina.sh start

2)启用tomcat模块管理

$ filebeat -c ~/config/11-nginx-to-es.yml modules disable ngix
$ filebeat -c ~/config/11-nginx-to-es.yml modules enable tomcat
$ filebeat -c ~/config/11-nginx-to-es.yml modules list

3)filebeat配置文件

filebeat.config.modules:
# 指定模块的配置文件路径,如果是yum方式安装,在7.17.3版本两种不能使用如下默认值
# path: ${path.config}/modules.d/*.yml
# 经过实际测试,推荐使用如下的配置,此处写绝对路径即可!而对于二进制部署无需做此操作
path: /etc/filebeat/modules.d/*.yml
# 是否开启热加载
reload.enabled: true
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
index: "lvzhenjiang-linux-tomcat-access-%{+yyyy.MM.dd}"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

3)/etc/filebeat/modules.d/tomcat.yml文件内容

- module: tomcat
log:
enabled: true
var.input: file
var.paths:
- /lvzhenjiang/software/apache-tomcat-10.0.20/logs/*.txt

8.6 基于log类型收集tomcat的原生日志

filebeat.inputs:
- type: log
paths:
- /lvzhenjiang/software/apache-tomcat-10.0.20/logs/*.txt
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
index: "lvzhenjiang-linux-tomcat-access-%{+yyyy.MM.dd}"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

8.7 基于log类型收集tomcat的json日志

1)自定义tomcat的日志格式

$ cp /lvzhenjiang/software/apache-tomcat-10.0.20/conf/server.xml{,.`date +%F`}
$ vim /lvzhenjiang/software/apache-tomcat-10.0.20/conf/server.xml
......(切换到行尾修改,大概在133-149之间)
<Host name="localhost" appBase="webapps"
unpackWARs="true" autoDeploy="true">
<Valve className="org.apache.catalina.valves.AccessLogValve" directory="logs"
prefix="localhost_access_log" suffix=".txt"
pattern="{&quot;client&quot;:&quot;%h&quot;, &quot;client user&quot;:&quot;%l&quot;, &quot;authenticated&quot;:&quot;%u&quot;, &quot;access time&quot;:&quot;%t&quot;, &quot;method&quot;:&quot;%r&quot;, &quot;status&quot;:&quot;%s&quot;, &quot;send bytes&quot;:&quot;%b&quot;, &quot;Query?string&quot;:&quot;%q&quot;, &quot;partner&quot;:&quot;%{Referer}i&quot;, &quot;Agent version&quot;:&quot;%{User-Agent}i&quot;}"/>
</Host>

2)修改filebeat的配置文件

filebeat.inputs:
- type: log
paths:
- /lvzhenjiang/software/apache-tomcat-10.0.20/logs/*.txt
# 解析message字段的json格式,并放在顶级字段中
json.key_under_root: true
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
index: "lvzhenjiang-linux-tomcat-access-%{+yyyy.MM.dd}"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

8.8 多行匹配——收集tomcat的错误日志

image

filebeat.inputs:
- type: log
paths:
- /lvzhenjiang/software/tomcat/logs/*.out
# 指定多行匹配的类型,可选值为“pattern”,“count”
multiline.type: pattern
# 指定匹配模式
multiline.pattern: '^\d{2}'
multiline.negate: true
multiline.match: after
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
index: "lvzhenjiang-linux-tomcat-error-%{+yyyy.MM.dd}"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

8.9 多行匹配——收集elasticsearch的错误日志

filebeat.inputs:
- type: log
paths:
- /var/log/elasticsearch/lvzhenjiang-elk-2022-09-03-1.log
# 指定多行匹配的类型,可选值为“pattern”,“count”
multiline.type: pattern
# 指定匹配模式
multiline.pattern: '^\['
multiline.negate: true
multiline.match: after
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
index: "lvzhenjiang-linux-es-error-%{+yyyy.MM.dd}"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

8.10 nginx错误日志过滤

filebeat.inputs:
- type: log
enabled: true
paths:
- /var/log/nginx/access.log*
tags: ["access"]
# 以JSON格式解析message字段的内容
json.keys_under_root: true
- type: log
enabled: true
paths:
- /var/log/nginx/error.log*
tags: ["error"]
include_lines: ['\[error\]']
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
indices:
- index: "lvzhenjiang-linux-web-access-%{+yyyy.MM.dd}"
# 匹配字段包含的内容
when.contains:
tags: "access"
- index: "lvzhenjiang-linux-web-error-%{+yyyy.MM.dd}"
when.contains:
tags: "error"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

8.11 nginx和tomcat同时采集案例

filebeat.inputs:
- type: log
enabled: true
paths:
- /var/log/nginx/access.log*
tags: ["nginx-access"]
json.keys_under_root: true
- type: log
enabled: true
paths:
- /var/log/nginx/error.log*
tags: ["nginx-error"]
include_lines: ['\[error\]']
- type: log
paths:
- /lvzhenjiang/software/apache-tomcat-10.0.20/logs/*.txt
json.key_under_root: true
tags: ["tomcat-access"]
- type: log
paths:
- /lvzhenjiang/software/tomcat/logs/*.out
multiline.type: pattern
multiline.pattern: '^\d{2}'
multiline.negate: true
multiline.match: after
tags: ["tomcat-error"]
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
indices:
- index: "lvzhenjiang-linux-web-nginx-access-%{+yyyy.MM.dd}"
when.contains:
tags: "nginx-access"
- index: "lvzhenjiang-linux-web-nginx-error-%{+yyyy.MM.dd}"
when.contains:
tags: "nginx-error"
- index: "lvzhenjiang-linux-web-tomcat-access-%{+yyyy.MM.dd}"
when.contains:
tags: "tomcat-access"
- index: "lvzhenjiang-linux-web-tomcat-error-%{+yyyy.MM.dd}"
when.contains:
tags: "tomcat-error"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

8.12 log类型切换filestream类型注意事项

8.12.1 filestream类型json解析配置
filebeat.inputs:
- type: filestream
enabled: true
paths:
- /var/log/nginx/access.log*
tags: ["access"]
# 对于filestream类型而言,不能直接配置json解析,而是需要借助解析器实现
# json.keys_under_root: true
# 综上所述,我们就需要使用以下的写法实现
parsers:
- ndjson:
keys_under_root: true
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
index: "lvzhenjiang-linux-nginx-access-%{+yyyy.MM.dd}"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0
8.12.2 filestream类型多行匹配
filebeat.inputs:
- type: filestream
paths:
- /lvzhenjiang/software/apache-tomcat-10.0.20/logs/*.txt
tags: ["tomcat-access"]
parsers:
- ndjson:
keys_under_root: true
- type: filestream
paths:
- /lvzhenjiang/software/tomcat/logs/*.out
tags: ["tomcat-error"]
parsers:
- multiline:
type: pattern
pattern: '^\d{2}'
negate: true
match: after
output.elasticsearch:
enabled: true
hosts: ["http://192.168.99.11:9200","http://192.168.99.12:9200","http://192.168.99.13:9200"]
indices:
- index: "lvzhenjiang-linux-tomcat-access-%{+yyyy.MM.dd}"
# 匹配字段包含的内容
when.contains:
tags: "tomcat-access"
- index: "lvzhenjiang-linux-tomcat-error-%{+yyyy.MM.dd}"
when.contains:
tags: "tomcat-error"
# 禁用索引生命周期管理
setup.ilm.enabled: false
# 设置索引模板的名称
setup.template.name: "lvzhenjiang-linux"
# 设置索引模板的匹配模式
setup.template.pattern: "lvzhenjiang-linux*"
# 配置已有的索引模板,如果为true,则会覆盖现有的索引模板,如果为false则不覆盖现有的索引模板
setup.template.overwrite: true
# 配置索引模板
setup.template.settings:
# 设置分片数量
index.number_of_shards: 3
# 设置副本数量(要求小于集群数量)
index.number_of_replicas: 0

8.13 收集日志到redis服务

8.13.1 部署redis
$ yum install epel-release -y
$ yum install redis -y
8.13.2 修改配置文件
$ vim /etc/redis.conf
......
bind 0.0.0.0
requirepass lvzhenjiang
8.13.3 启动redis服务
$ systemctl start redis
8.13.4 其他节点连接测试redis环境
$ redis-cli -a lvzhenjiang -h 192.168.99.11 -p 6379 --raw -n 5
8.13.5 将filebeat数据写入到Redis环境

image

filebeat.inputs:
- type: tcp
host: "0.0.0.0:9000"
output.redis:
# 写入redis的主机地址
hosts: ["192.168.99.11:6379"]
# 指定redis的认证口令
password: "lvzhenjiang"
# 指定连接数据库的编号
db: 5
# 指定的key值
key: "lvzhejiang-filebeat"
# 规定超时时间
timeout: 3
8.13.6 测试写入数据
# 写入数据
$ echo 333333333333 | nc 192.168.99.11 9000
# 查看数据
$ redis-cli -a lvzhenjiang -h 192.168.99.11 -p 6379 --raw -n 5
192.168.99.11:6379[5]> :LRANGE lvzhenjiang-filebeat 0 -1

九、部署logstash环境及基础使用

9.1 部署logstash环境

$ yum localinstall logstash-7.17.6-x86_64.rpm -y
$ ln -sv /usr/share/logstash/bin/logstash /usr/local/bin/

9.2 修改logstash的配置文件

# 1)编写配置文件
$ cat > 01-stdin-to-stdout.conf << 'EOF'
input {
stdin {}
}
output {
stdout {}
}
EOF
# 2)检查配置文件语法
$ logstash -tf 01-stdin-to-stdout.conf
# 3)启动logstash实例
$ logstash -f 01-stdin-to-stdout.conf

9.3 input插件基于file案例

input {
file {
# 指定收集的路径
path => ["/tmp/test/*.txt"]
# 指定文件的读取位置,仅在“.sincedb*”文件中没有记录的情况下生效
start_position => "beginning"
# start_position => "end"
# start_position默认值是end
}
}
output {
stdout {}
}

9.4 input插件基于tcp案例

image

input {
tcp {
port => 8888
}
tcp {
port => 9999
}
}
output {
stdout {}
}

9.5 input插件基于http案例

input {
http {
port => 8888
}
http {
port => 9999
}
}
output {
stdout {}
}

9.6 input插件基于redis案例

image

filebeat的配置:

filebeat.inputs:
- type: tcp
host: "0.0.0.0:9000"
output.redis:
# 写入redis的主机地址
hosts: ["192.168.99.11:6379"]
# 指定redis的认证口令
password: "lvzhenjiang"
# 指定连接数据库的编号
db: 5
# 指定的key值
key: "lvzhejiang-filebeat"
# 规定超时时间
timeout: 3

logstash的配置:

input {
redis {
# 指定的是REDIS的键(key)的类型
data_type => 'list'
# 指定数据库的编号,默认值是0号数据库
db => 5
# 指定数据库的IP地址,默认值是localhost
host => "192.168.99.11"
# 指定数据库的端口,默认值是6379
port => 6379
# 指定redis的认证密码
password => "lvzhenjiang"
# 指定从redis的哪个key取数据
key => "lvzhejiang-filebeat"
}
}
output {
stdout {}
}

9.7 input插件基于beats案例

image

filebeat配置:

filebeat.inputs:
- type: tcp
host: "0.0.0.0:9000"
output.logstash:
hosts: ["192.168.99.12:5044"]

logstash配置:

input {
beats {
port => 5044
}
}
output {
stdout {}
}

9.8 output插件基于redis案例

image

input {
tcp {
port => 9999
}
}
output {
stdout {}
redis {
# 指定redis的主机地址
host => "192.168.99.11"
# 指定redis的端口号
port => "6379"
# 指定redis数据库编号
db => 10
# 指定redis的密码
password => "lvzhenjiang"
# 指定写入数据的key类型
data_type => "list"
# 指定写入的key名称
key => "lvzhejiang-logstash"
}
}

9.9 output插件基于file案例

image

input {
tcp {
port => 9999
}
}
output {
stdout {}
file {
# 指定磁盘的落地位置
path => "/tmp/test/lvzhenjiang-logstash.log"
}
}

9.10 logstsh综合案例

image

1)filebeat-to-redis参考笔记

filebeat.inputs:
- type: tcp
host: "0.0.0.0:9000"
output.redis:
# 写入redis的主机地址
hosts: ["192.168.99.11:6379"]
# 指定redis的认证口令
password: "lvzhenjiang"
# 指定连接数据库的编号
db: 5
# 指定的key值
key: "lvzhejiang-filebeat"
# 规定超时时间
timeout: 3

2)filebeat-to-logstash参考笔记

filebeat.inputs:
- type: tcp
host: "0.0.0.0:9999"
output.logstash:
hosts: ["192.168.99.12:7777"]

3)logstash配置文件

input {
tcp {
type => "lvzhenjiang-tcp"
port => 6666
}
beats {
type => "lvzhenjiang-beat"
port => 7777
}
redis {
type => "lvzhenjiang-redis"
data_type => "list"
db => 5
host => "192.168.99.13"
port => "6379"
password => "lvzhenjiang"
key => "lvzhenjiang-linux-filebeat"
}
}
output {
stdout {}
if [type] == "lvzhenjiang-tcp" {
elasticsearch {
hosts => ["192.168.99.11:9200","192.168.99.12:9200","192.168.99.13:9200"]
index => "lvhzhenjiang-linux-tcp-%{+YYYY.MM.dd}"
}
} else if [type] == "lvzhenjiang-beat" {
elasticsearch {
hosts => ["192.168.99.11:9200","192.168.99.12:9200","192.168.99.13:9200"]
index => "lvhzhenjiang-linux-beat-%{+YYYY.MM.dd}"
}
} else if [type] == "lvzhenjiang-redis" {
elasticsearch {
hosts => ["192.168.99.11:9200","192.168.99.12:9200","192.168.99.13:9200"]
index => "lvhzhenjiang-linux-redis-%{+YYYY.MM.dd}"
}
} else {
elasticsearch {
hosts => ["192.168.99.11:9200","192.168.99.12:9200","192.168.99.13:9200"]
index => "lvhzhenjiang-linux-others-%{+YYYY.MM.dd}"
}
}
}

十、logstash企业插件案例(ELK架构)

10.1 常见的插件概述

gork插件:grok是将非结构化日志数据解析为结构化和可查询的好方法。底层原理是基于正则匹配任意文本格式;该工具非常使用syslog日志、apache日志和其他网络服务器日志、mysql日志,以及通常为人类而非计算机消耗而编写的任何日志格式。内置120中匹配模式,当然也可以自定义匹配:https://github.com/logstash-plugins/logstash-patterns-core/blob/main/patterns/

10.2 使用grok内置的正则案例1

image

input {
beats {
port => 8888
}
}
filter {
grok {
match => {
# "message" => "%{COMBINEDAPACHELOG}"
# 上面的变量github官方已经废弃,建议使用下面的匹配模式:https://github.com/logstash-plugins/logstash-patterns-core/blob/main/patterns/legacy/httpd
"message" => "%{HTTPD_COMMONLOG}"
}
}
}
output {
stdout {}
elasticsearch {
hosts => ["192.168.99.11:9200","192.168.99.12:9200","192.168.99.13:9200"]
index => "lvzhenjiang-linux-logstash-%{+YYYY.MM.dd}"
}
}

10.3 使用grok内置的正则案例2

image

input {
stdin {}
}
filter {
grok {
match => {
"message" => "%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}"
}
}
}
output {
stdout {}
}

温馨提示:(如图所示,按照要求输入数据)

55.3.244.1 GET /index.html 15824 0.043
192.168.99.11 POST /lvzhenjiang.html 888888 5.20

参考地址:https://github.com/logstash-plugins/logstash-patterns-core/blob/main/patterns/legacy

10.4 使用grok自定义的正则案例

image

input {
stdin {}
}
filter {
grok {
# 指定匹配模式的目录,可以使用绝对路径
# 在./patterns目录下随便创建一个文件,并吸入以下匹配模式
# POSTFIX_QUEUEID [0-9A-F]{10,11}
# LVZHENJIANG_LINUX [\d]{3}
patterns_dir => ["./patterns"]
# 匹配模式
# 测试数据:Jan 1 06:25:43 mailserver14 postfix/cleanup[21403]: BEF25A72965: message-id=<20130101142543.5828399CCAF@mailserver14.example.com>
# match => { "message" => "%{SYSLOGBASE} %{POSTFIX_QUEUEID:queue_id}: %{GREEDYDATA:syslog_message}" }
# 测试数据为:ABCDE12345678910 ---> 666
match => { "message" => "%{POSTFIX_QUEUEID:lvzhenjiang_queue_id} ---> %{LVZHENJIANG_LINUX:lvzhenjiang_linux_elk}" }
}
}
output {
stdout {}
}

10.5 filter插件通用字段案例

image

input {
beats {
port => 8888
}
}
filter {
grok {
match => {
"message" => "%{HTTPD_COMMONLOG}"
}
# 移除指定的字段
remove_field => [ "host", "ecs", "tag", "@version", "agent", "input", "log" ]
# 添加指定的字段
add_field => {
"name" => "吕振江"
"lvzhenjiang-clientip" => "客户端IP ---> %{clientip}"
}
# 添加tag
add_tag => [ "lvzhenjiang", "kafka", "elk" ]
# 移除tag
remove_tag => [ "beats_input_codec_plain_applied" ]
# 创建插件的唯一ID,如果不创建则系统默认生成
id => "lvzhenjiang-logstash-elk"
}
}
output {
stdout {}
}

10.6 date插件修改写入ES的时间

posted @   吕振江  阅读(784)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
浏览器标题切换
浏览器标题切换end
点击右上角即可分享
微信分享提示

目录导航