logstash另类输出到es
filebeat配置文件:
filebeat.inputs:
- type: log
enabled: true
paths:
- /opt/hkd-cloud/hkd-custom/hkd-custom.out
fields:
log_source: test_custom
fields_under_root: true
logstash输出到es
output {
elasticsearch {
hosts => ["http://172.17.107.187:9203", "http://172.17.107.187:9201","http://172.17.107.187:9202"]
index => "filebeat_%{[log_source]}-%{+YYYY.MM.dd}"
user => "elastic"
password => "escluter123456"
}
}
注意:index索引这儿需要加上中括号[]
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!
2019-01-16 以豌豆荚为例,用 Scrapy 爬取分类多级页面
2019-01-16 使用for或while循环来处理处理不确定页数的网页数据爬取
2019-01-16 Python 爬虫的代理 IP 设置方法汇总
2019-01-16 设置随机 User-Agent
2019-01-16 爬虫数据使用MongDB保存时自动过滤重复数据
2019-01-16 爬虫写法进阶:普通函数--->函数类--->Scrapy框架
2019-01-16 爬虫框架Scrapy初步使用