logstash另类输出到es

filebeat配置文件:

filebeat.inputs:

- type: log
  enabled: true
  paths:
    - /opt/hkd-cloud/hkd-custom/hkd-custom.out
  fields: 
    log_source: test_custom
  fields_under_root: true

logstash输出到es

output {

    elasticsearch {
      hosts => ["http://172.17.107.187:9203", "http://172.17.107.187:9201","http://172.17.107.187:9202"]
      index => "filebeat_%{[log_source]}-%{+YYYY.MM.dd}"
      user => "elastic"
      password => "escluter123456"
    }

}

注意:index索引这儿需要加上中括号[]

posted @   哈喽哈喽111111  阅读(767)  评论(0编辑  收藏  举报
编辑推荐:
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
阅读排行:
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!
历史上的今天:
2019-01-16 以豌豆荚为例,用 Scrapy 爬取分类多级页面
2019-01-16 使用for或while循环来处理处理不确定页数的网页数据爬取
2019-01-16 Python 爬虫的代理 IP 设置方法汇总
2019-01-16 设置随机 User-Agent
2019-01-16 爬虫数据使用MongDB保存时自动过滤重复数据
2019-01-16 爬虫写法进阶:普通函数--->函数类--->Scrapy框架
2019-01-16 爬虫框架Scrapy初步使用
点击右上角即可分享
微信分享提示