随笔 - 1357  文章 - 0  评论 - 1104  阅读 - 1941万

Flume简介

Kafka在实际的开发之中的确可以处理千万级别的数据,但是现在有一个问题,这些数据从哪里来呢?Kafka产生的初衷是进行数据的收集以及合理的消费,但是这些实际之中的数据我们应该如何获取,我们该用什么样的方式来获取,而且最关键的是,如果现在是一个已经成型的系统(SSH、SSM、Spring),那么这个系统又该如何与Kafka进行合理的对接,可以让一些重要的数据能够得到汇总以及分析呢?

很明显,如果采用传统的模式,那么肯定需要由用户自己明确使用Kafka生产者的操作类对象进行消息的发送后才可以通过kafka的服务进行数据的汇总,但是这样一来,整体的代码就需要进行大面积的修改,而且所有需要进行消息发送的的数据的操作代码都需要重复注入新的对象。这样的作法明显不合理。

于是在这样的状态下有人开始思考,几乎所有的项目之中都会使用到log4j组件。那么如果说现在为所有的log4j组件设计一个通道,让他采集到的数据直接发送给消息系统,而后再由消息系统发送给其他的分析程序,这样一来是不是就不需要大面积修改已有的程序代码程序。而这一思想就是flume的诞生前提,所以flume可以理解为一个日志系统与消息组件之间的过度端。

1、Flume简介
Flume是由Apache 推出的一款日志采集框架,下载的地址:flume.apache.org

Flume核心的本质一定是结合Log4j以及在结合消息组件使用,由于其会产生大规模的日志数据,所以能够承受flume的消息组件,首选kafka。

posted on   Ruthless  阅读(420)  评论(0编辑  收藏  举报
编辑推荐:
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· 写一个简单的SQL生成工具
· AI 智能体引爆开源社区「GitHub 热点速览」
· C#/.NET/.NET Core技术前沿周刊 | 第 29 期(2025年3.1-3.9)
历史上的今天:
2017-07-01 spring mvc 404页面制作
2017-07-01 Centos nginx安装
2014-07-01 django orm总结
2014-07-01 django Q和F查询
2013-07-01 lucene3.0范围查找
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示