logstash日志收集之json格式 & 日志参数分离

ELK日志收集分离篇

一、Logstash收集日志#

1.Logstash的配置文件#

Copy
[root@web01 ~]# vim /etc/logstash/logstash.yml path.config: /etc/logstash/conf.d

2.logstash收集日志文件到文件#

Copy
[root@web01 ~]# vim /etc/logstash/conf.d/file_file.conf input { file { path => "/var/log/messages" start_position => "beginning" } } output { file { path => "/tmp/messages_%{+YYYY-MM-dd}.log" } }

3.logstash收集日志文件到ES#

Copy
[root@web01 ~]# vim /etc/logstash/conf.d/file_es.conf input { file { path => "/var/log/messages" start_position => "beginning" } } output { elasticsearch { hosts => ["172.16.1.51:9200"] index => "messages_%{+YYYY-MM-dd}.log" } }

4.Logstash收集多日志到文件#

Copy
[root@web01 ~]# vim /etc/logstash/conf.d/file_file.conf input { file { type => "messages_log" path => "/var/log/messages" start_position => "beginning" } file { type => "secure_log" path => "/var/log/secure" start_position => "beginn ing" } } output { if [type] == "messages_log" { file { path => "/tmp/messages_%{+YYYY-MM-dd}" } } if [type] == "secure_log" { file { path => "/tmp/secure_%{+YYYY-MM-dd}" } } }

5.Logstash收集多日志到ES#

1)方法一:#

Copy
[root@web01 ~]# vim /etc/logstash/conf.d/more_es.conf input { file { type => "messages_log" path => "/var/log/messages" start_position => "beginning" } file { type => "secure_log" path => "/var/log/secure" start_position => "beginning" } } output { if [type] == "messages_log" { elasticsearch { hosts => ["10.0.0.51:9200"] index => "messages_%{+YYYY-MM-dd}" } } if [type] == "secure_log" { elasticsearch { hosts => ["10.0.0.51:9200"] index => "secure_%{+YYYY-MM-dd}" } } } [root@web01 ~]# /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/more_es.conf & #启动后查看页面

2)方法二:#

Copy
[root@web01 ~]# vim /etc/logstash/conf.d/more_es_2.conf input { file { type => "messages_log" path => "/var/log/messages" start_position => "beginning" } file { type => "secure_log" path => "/var/log/secure" start_position => "beginning" } } output { elasticsearch { hosts => ["10.0.0.51:9200"] index => "%{type}_%{+YYYY-MM-dd}" } } # 这里两个同时运行,所以需要指定数据目录 [root@web01 ~]# /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/more_es_2.conf --path.data=/data/logstash/more_es_2 &

3)启动多实例

Copy
#创建不同的数据目录 [root@web01 ~]# mkdir /data/logstash/more_es_2 [root@web01 ~]# mkdir /data/logstash/more_es #启动时使用--path.data指定数据目录 [root@web01 ~]# /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/more_es.conf --path.data=/data/logstash/more_es & [root@web01 ~]# /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/more_es_2.conf --path.data=/data/logstash/more_es_2 & #如果资源充足,可以使用多实例收集多日志,如果服务器资源不足,启动不了多实例,配置一个文件收集多日志启动

二、Tomcat日志收集#

1.普通收集#

0> 说明#

Copy
# 在一般情况中,收集的日志不应该是local_access_log日志,因为这是一个访问日志,在一般架构中, tomcat前端应该有nginx或者其他代理服务,那么对于访问日志,直接在代理服务器中收集即可,在tomcat中收集的日志应该为catalina.XXXX-XX-XX.log日志,此日志文件为服务启动文件。

1>.logstash收集Tomcat日志到文件#

Copy
[root@web01 ~]# vim /etc/logstash/conf.d/tomcat_file.conf input { file { path => "/usr/local/tomcat/logs/localhost_access_log.*.txt" start_position => "beginning" } } output { file { path => "/tmp/tomcat_%{+YYYY-MM-dd}.log" } }

2>.logstash收集Tomcat日志到ES#

Copy
[root@web01 ~]# vim /etc/logstash/conf.d/tomcat_es.conf input { file { path => "/usr/local/tomcat/logs/localhost_access_log.*.txt" start_position => "beginning" } } output { elasticsearch { hosts => ["10.0.0.51:9200"] index => "tomcat_%{+YYYY-MM-dd}.log" } }

2.收集日志并修改为json格式#

0>.说明#

Copy
#收集tomcat日志,当遇到报错时,一条报错会被分割成很多条数据,不方便查看,所以需要将原本格式改为json格式, 然后再使用input插件下的mutiline模块,或者直接使用mutiline模块,也就是方法二的方式。 解决方法: 1.修改tomcat日志格式为json 1)开发修改输出日志为json 2)修改tomcat配置,日志格式为json 2.使用logstash的input插件下的mutiline模块 3.使用filebeat模块,修改日志格式 # 这里展示1.2和2中的方式,通过修改tomcat配置文件和直接使用模块两种方式

1>.方法一:修改tomcat的日志格式#

① 修改tomcat配置文件日志格式
Copy
# tomcat的主配置文件中最下面的一段就是日志格式 [root@web01 ~]# vim /usr/local/tomcat/conf/server.xml #把原来的日志格式注释,添加我们的格式 <Valve className="org.apache.catalina.valves.AccessLogValve" directory="logs" prefix="tomcat_access_json" suffix=".log" pattern="{&quot;clientip&quot;:&quot;%h&quot;,&quot;ClientUser&quot;:&quot;%l&quot;,&quot;authenticated&quot;:&quot;%u&quot;,&quot;AccessTime&quot;:&quot;%t&quot;,&quot;method&quot;:&quot;%r&quot;,&quot;status&quot;:&quot;%s&quot;,&quot;SendBytes&quot;:&quot;%b&quot;,&quot;Query?string&quot;:&quot;%q&quot;,&quot;partner&quot;:&quot;%{Referer}i&quot;,&quot;AgentVersion&quot;:&quot;%{User-Agent}i&quot;}"/>
② 重启tomcat
Copy
[root@web01 ~]# /usr/local/tomcat/bin/shutdown.sh [root@web01 ~]# /usr/local/tomcat/bin/startup.sh
③ 启动logstash
Copy
[root@web01 ~]# vim /etc/logstash/conf.d/tomcat_json_es.conf input { file { path => "/usr/local/tomcat/logs/tomcat_access_json.*.log" start_position => "beginning" } } output { elasticsearch { hosts => ["10.0.0.51:9200"] index => "tomcat_json_%{+YYYY-MM-dd}.log" } }

2> 方法二:使用mutiline模块实现错误日志收集#

①说明
Copy
# 此方式可在不修改tomcat主配置文件中的日志格式下操作,直接使用模块会将输出结果以json格式输出
② 收集日志以json格式输出到屏幕
Copy
[root@web01 ~]# vim /etc/logstash/conf.d/test_mutiline.conf input { stdin { # 调用匹配合并模块 codec => multiline { # 遇到以 [ 开头的开始合并 pattern => "^\[" #匹配到上面指定的字符进行合并,如果是false则匹配到进行合并 negate => true #向上合并,向下合并是next what => "previous" } } } output { stdout { codec => json } } #测试,输入内容不会直接输出,当遇到以 [ 开头才会收集以上的日志
③ 收集日志以json格式输出到ES
Copy
# 因为在tomcat的错误日志中是以 [ 开头,所以可以根据模块的匹配规则。 [root@web01 ~]# vim /etc/logstash/conf.d/tomcat_mutiline.conf input { file { path => "/usr/local/tomcat/logs/tomcat_access_json.*.log" start_position => "beginning" codec => multiline { pattern => "^\[" negate => true what => "previous" } } } output { elasticsearch { hosts => ["10.0.0.51:9200"] index => "tomcat_json_%{+YYYY-MM-dd}" codec => "json" } }
④ 模拟将错误日志写入
Copy
[root@web01 ~]# cat 1.txt >> /usr/local/tomcat/logs/tomcat_access_json.2020-08-14.log # 最后网页查看结果,错误日志没有像以往一样分隔成多条数据,而是成块显示

三、nginx日志收集#

1.普通收集#

Copy
# 将日志文件输出到es中 [root@web01 ~]# vim /etc/logstash/conf.d/nginx_json.conf input { file { path => "/var/log/nginx/access.log" start_position => "beginning" } } output { elasticsearch { hosts => ["10.0.0.51:9200"] index => "nginx_json_%{+YYYY-MM-dd}.log" } }

2.日志修改json格式#

Copy
1.# 将原本的日志格式删除,使用这种方式会将输出日志以json格式显示。 [root@web01 ~]# vim /etc/nginx/nginx.conf ... ... http { log_format json '{"@timestamp":"$time_iso8601",' '"host":"$server_addr",' '"clientip":"$remote_addr",' '"size":$body_bytes_sent,' '"responsetime":$request_time,' '"upstreamtime":"$upstream_response_time",' '"upstreamhost":"$upstream_addr",' '"http_host":"$host",' '"url":"$uri",' '"referer":"$http_referer",' '"agent":"$http_user_agent",' '"status":"$status"}'; access_log /var/log/nginx/access.log json; ............. 2.#实验将日志文件再次输出到es中,查看结果(图一)
  • 这里发现出现两种数据格式,最上面为json键值对格式,下面为旧的默认格式

四、日志参数分离#

1.说明#

Copy
# 需要配合json一起使用,当数据转换成json后,message里面存放为键值对形式,然后将键值对中的每个键值进行拆分。

方法一:#

1.修改tomcat日志收集配置

Copy
[root@web01 ~]# vim /etc/logstash/conf.d/tomcat_json_es.conf input { file { path => "/usr/local/tomcat/logs/tomcat_access_json.*.log" start_position => "beginning" } } #把收集到的数据进行处理 filter { json { source => "message" # 将message中的键值对进行拆分 } } output { elasticsearch { hosts => ["10.0.0.51:9200"] index => "tomcat_json_%{+YYYY-MM-dd}.log" } }

2.去掉多余数据

Copy
#message数据已经拆分,但是原本message中数据还在,去掉老的message数据,只留新拆分数据 filter { json { source => "message" remove_field => ["message"] } }

方法二:#

Copy
#nginx不需要配置修改获取日志,只需要收集同时修改格式即可(前提是这个日志文件已经是json格式了) [root@web01 ~]# vim /etc/logstash/conf.d/nginx_json.conf input { file { path => "/var/log/nginx/access.log" start_position => "beginning" codec => "json" } } output { elasticsearch { hosts => ["10.0.0.51:9200"] index => "nginx_json_%{+YYYY-MM-dd}.log" } } # 网页格式查看(图二)
  • 图二(都进行了拆分)

posted @   元气少女郭德纲!!  阅读(4159)  评论(0编辑  收藏  举报
编辑推荐:
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
阅读排行:
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!
点击右上角即可分享
微信分享提示
CONTENTS