flume-kafka-storm-hdfs-hadoop-hbase

# bigdata-demo

项目地址:https://github.com/windwant/bigdata-service

hadoop:

hadoop hdfs操作

log输出到flume

flume输出到hdfs

hbase:

HTable基本操作:创建,删除,添加表,行,列族,列等。

kafka:

测试 producer | consumer

storm:实时处理消息


kafka集成storm集成hdfs

读取kafka数据=》storm实时处理(分割字符,统计字符)=》写入hdfs


* kafka消息生成方式:

* 1. LogGenerator生成测试日志发送到flume=》

* 2. MyKafkaProducer发送测试消息

* 3. elasticjob定时任务模块生成测试日志


* MyKafkaStormHdfs 实时处理消息:

* =》读取kafka数据

* =》storm实时处理(分割字符,统计字符)

* =》写入hdfs


posted @ 2017-12-15 15:42  WindWant  阅读(589)  评论(0编辑  收藏  举报
文章精选列表