搭建ELK日志分析系统

看了辣么多博客,就数这个最详细最容易理解了:https://blog.csdn.net/qq_22211217/article/details/80764568

》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

以下是本人自己搭建过程:

  其实看上面那篇博客写得很详细了,现在自己亲自动手搞一哈。

笔记:重要命令

Elasticsearch启动命令:


kibana启动命令:


logstash启动命令:

 





 

 

安装启动Elasticsearch,未完待续。。。

 

Elasticsearch启动成功图:

 

》》》》》》》》》》》》》》》》》》》》》》Kibana的安装启动》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

 

Kibana启动成功图:

 

》》》》》》》》》》》下面是logstash》》》》》》》》

在logstash的config里添加自定义文件xxx.conf,内容设置如下:

input {                                ##input 输入源配置
    tcp {                              ##使用tcp输入源      官网有详细文档
        host => 192.168.26.233         ##springboot项目中的logback.xml文件配置发送日志的地址端口要与这一样
        port => 9601                   ##服务器监听端口9061 接受日志  默认ip localhost
        codec => json_lines            ##使用json解析日志    需要安装json解析插件
        mode => "server"
    }
}
filter {                              ##数据处理
}
output {                               ##output 数据输出配置
        elasticsearch {                ##使用elasticsearch接收
            hosts => "localhost:9200"  ##集群地址  多个用,隔开
            index => "%{[appname]}-%{+YYYY.MM.dd}" #指定索引名字,不适用默认的,用来区分各个项目
        }
        stdout { codec => rubydebug}   ##输出到命令窗口
}

 

posted @ 2018-10-17 15:19  下课后我要去放牛  阅读(383)  评论(0编辑  收藏  举报