docker部署elk日志采集系统(tcp方式)

一、elk 概念

ELK是 Elasticsearch、Logstash、Kibana的简称,这三者是核心套件,但并非全部。

Elasticsearch:实时全文搜索和分析引擎,提供搜集、分析、存储数据三大功能。Elasticsearch是一套开放REST和JAVA API等结构提供高效搜索功能,可扩展的分布式系统。它构建于Apache Lucene搜索引擎库之上。

Logstash:用来搜集、分析、过滤日志的工具。它支持几乎任何类型的日志,包括系统日志、错误日志和自定义应用程序日志。它可以从许多来源接收日志,这些来源包括 syslog、消息传递(例如 RabbitMQ)和JMX,它能够以多种方式输出数据,包括电子邮件、websockets和Elasticsearch。

Kibana:基于Web的可视化图形界面,用于搜索、分析和可视化存储在 Elasticsearch指标中的日志数据。它利用Elasticsearch的REST接口来检索数据,不仅允许用户创建他们自己的数据的定制仪表板视图,还允许他们以特殊的方式查询和过滤数据。

二、docker 安装 elk

1、拉镜像,运行 

docker pull sebp/elk

docker run -d -it --name elk --restart always -p 5601:5601 -p 9200:9200 -p 5044:5044 -e ES_MIN_MEM=128m -e ES_MAX_MEM=2048m sebp/elk

5601 - Kibana web 接口
9200 - Elasticsearch JSON 接口
5044 - Logstash 日志接收接口

logstash有多种接受数据的方式,这里使用logback直接通过tcp的方式发送日志到logstash,还可以使用redis作为消息队列对日志数据做一个中转。

2、elasticsearch 报错解决

elasticsearch启动时可能遇到错误,报 elasticsearch用户拥有的内存权限太小,至少需要262144。

解决方法:
sysctl -w vm.max_map_count=262144

查看结果:
sysctl -a|grep vm.max_map_count,显示 vm.max_map_count = 262144

上述方法修改之后,如果重启虚拟机将失效。可以在 /etc/sysctl.conf文件最后添加一行
vm.max_map_count=262144,即可永久修改。

三、配置elk采集日志(tcp方式)

1、配置 tcp方式发送日志

在服务的pom.xml中添加依赖

<dependency>
    <groupId>net.logstash.logback</groupId>
    <artifactId>logstash-logback-encoder</artifactId>
</dependency>

在 logback-spring.xml中添加 appender,发送日志到 logstash

<springProperty scope="context" name="springAppName" source="spring.application.name"/>    

<appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
    <destination>192.168.0.6:5044</destination>
        <!-- <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder" /> -->
        <!-- 日志输出编码 -->
        <encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
            <providers>
                <timestamp>
                    <timeZone>UTC</timeZone>
                </timestamp>
                <pattern>
                    <pattern>
                        {
                          "severity": "%level",
                          "service": "${springAppName:-}",
                          "trace": "%X{X-B3-TraceId:-}",
                          "span": "%X{X-B3-SpanId:-}",
                          "exportable": "%X{X-Span-Export:-}",
                          "pid": "${PID:-}",
                          "thread": "%thread",
                          "class": "%logger{40}",
                          "rest": "%message"
                        }
                    </pattern>
                </pattern>
            </providers>
        </encoder>
    </appender>

    <!-- 日志输出级别 -->
    <root level="INFO">
        <appender-ref ref="STDOUT" />
        <appender-ref ref="FILE"/>
        <appender-ref ref="logstash" />
    </root>

2、配置 logstash 发送日志到 elasticsearch

由于 sebp/elk 中 logstash 的 input 默认采用 filebeat,这里采用tcp方式,所以首先需要进入elk容器中修改 input 的方式为 tcp。logstash默认会使用 etc/logstash/conf.d/ 中的配置文件。

启动elk,进入容器:

#docker exec -it elk /bin/bash

进入 /etc/logstash/conf.d/ 配置目录,修改 02-beats-input.conf 配置文件如下:

input {
    tcp {
        port => 5044
        codec => json_lines
    }
}

output {
    elasticsearch {
    hosts => ["localhost:9200"]
    }
}

修改完成后退出,重启 elk 容器

#docker restart elk

3、配置kibana

启动服务,日志就被发送到 logstash中了,访问 localhost:5601 进入 kibana 界面。

配置 index pattern,点击 Management ——> Index Patterns ——> Create index pattern 

 

 下面列出了两个可选的index pattern,输入logstash*,下一步。选择时间@timestamp,这样数据展示会以时间排序。

 

最后,在kabina 首页查看采集到的日志

 

posted @ 2019-10-14 17:41  Alan6  阅读(1683)  评论(0编辑  收藏  举报