摘要:
大型场合的工作流程图 filebeat -->logstash > fakfa > logstash >es 工作环境: 需要两台logstash, 172.31.2.101 es1 + kibana 172.31.2.102 es2 172.31.2.103 es3 172.31.2.105 lo 阅读全文
摘要:
大型场合的工作流程图 filebeat -->logstash > redis > logstash >es 工作环境: 需要两台logstash, 安装jdk8 [root@es-web1]# apt install openjdk-8-jdk -y 这里已经安装filebeat 配置filebe 阅读全文
摘要:
在web服务器 有就停止 root@long:~# systemctl stop logstash 监控单个日志配置: 上传deb包,安装 [root@es-web2 src]# dpkg -i filebeat-7.12.1-amd64.deb 先启动zookeeper [root@mq1 ~]# 阅读全文
摘要:
在web服务器 有就停止 [root@es-web1 ~]# systemctl stop logstash 监控单个日志配置: 上传deb包,安装 [root@es-web1 src]# dpkg -i filebeat-7.12.1-amd64.deb filebeat改配置文件 root@lo 阅读全文
摘要:
条件: 有kafka环境 图形架构: 环境准备 172.31.2.101 es1 + kibana 172.31.2.102 es2 172.31.2.103 es3 172.31.2.104 logstash1 172.31.2.105 logstash2 172.31.2.41 zookeepe 阅读全文
摘要:
redis做数据缓存 图形架构: 环境准备 172.31.2.101 es1 + kibana 172.31.2.102 es2 172.31.2.103 es3 172.31.2.104 logstash1 172.31.2.105 logstash2 172.31.2.106 Redis 172 阅读全文
摘要:
通过 logstash 的 tcp/udp 插件收集日志,通常用于在向 elasticsearch 日志补录丢 失的部分日志,可以将丢失的日志写到一个文件,然后通过 TCP 日志收集方式直 接发送给 logstash 然后再写入到 elasticsearch 服务器。 https://www.ela 阅读全文
摘要:
web服务器安装jdk,安装Tomcat还有logstash 安装jdk [root@es-web1 ~]# apt install openjdk-8-jdk -y dpkg安装logstash(需要改启动文件的以root启动) [root@es-web1 src]# dpkg -i logsta 阅读全文
摘要:
准备条件: 环境:jdk,安装好 logstash 上传包,安装Nginx [root@es-web1 src]# tar xf nginx-1.18.0.tar.gz [root@es-web1 src]# cd nginx-1.18.0/ 帮助 [root@es-web1 nginx-1.18. 阅读全文
摘要:
kibana自带grok插件工具 处理日志读取,思路是:先分析日志信息是什么格式,以及日志规则需要filter里面的什么模块处理或者组合使用处理?? 官网地址 https://www.elastic.co/guide/en/logstash/7.12/filter-plugins.html grok 阅读全文