ELK<logstash>过滤json数据

首先要找到正确的配置文件

java-app.yml

复制代码
input {
    tcp {
      port => 1001
  }
}

filter {
    json {
        source => "message"
    }
    grok {
        match => ["message","(\[%{DATA}\] --- )?(trace_id=%{DATA:trace_id} )?(span_id=%{DATA:span_id} )?%{GREEDYDATA:msg}"]
    }
    json {
        source => "msg"
    }
    mutate {
        remove_field => ["@version","message","msg","event","trace_id","span_id"]
    }
}

output {
    if "_grokparsefailure" in [tags] {
      stdout {
        codec => rubydebug
      }
    }
    elasticsearch {
      hosts => ["localhost:xxxx"]
      index => "index-name-%{+YYYY-MM-dd}"
      user => elasxxx
      password => xxxxxx
      codec => json
    }
}
复制代码

 

posted @   大稳·杨  阅读(13)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· 清华大学推出第四讲使用 DeepSeek + DeepResearch 让科研像聊天一样简单!
· 实操Deepseek接入个人知识库
· CSnakes vs Python.NET:高效嵌入与灵活互通的跨语言方案对比
· Plotly.NET 一个为 .NET 打造的强大开源交互式图表库
点击右上角即可分享
微信分享提示