大数据架构

大数据架构和技术选型

大数据架构

源数据层:

1、sdk日志埋点

2、日志文件:爬虫日志、业务日志

3、关系型数据库:mysql、oracle等

数据采集层:

1、离线:flume、Sqoop、Nifi
2、实时:filebeat、nginx+lua
补充:当数据量达到5亿左右的时候,filebeat+logstash采集数据到hdfs,数据会出现丢失的情况,所以此种方案不适合用于大数据存储到hdfs

数据存储层:

1、hdfs用于存储离线大数据量
2、kudu用于存储mysql关系数据库更新变化的数据
3、es存储一些log日志,比如说我们需要快速的定位某一个业务的log情况
4、kafka作为消息中间件,存储filebeat或者是flume采集的日志

数据分析层:

1、es,分析一些log
2、hive适用于分析一些离线大数据(基于磁盘IO分析)
3、impala、presto适用于分析一些准实时日志(要求快速出数据,基于内存分析)
4、spark core+spark sql 适用于分析一些离线数据,自定义解析规则
5、spark streaming适用于分析一些实时(不是完全实时)数据
6、flink、jstorm进行分析完全实时的数据

数据调度层:

1、airflow:使用于大集群,阿里的调度系统就是根据airflow二次开发,配置复杂,python脚本实现
2、azkaban:cpu和内存要求不高,主从配置支持的不算太好,适用于小集群,以job的文件实现,配置简单
3、oozie:通常hue集成,单独的使用oozie的情况下,配置及其复杂,不建议使用,所有的任务是以mr的形式进行的,可支持复杂的依赖调度
4、jobX:cpu使用高,bug还没修复,所以造成agent的cpu维持在1个左右,配置简单,只支持依赖调度,并行调度不支持
5、crontab:一般用于每分钟调度一次的任务,不支持依赖调度、并行调度(配置复杂,通过脚本自定义控制),没有可视化界面,不能准确的判断任务是否成功或者是失败.......

6、NiFi

7、自定义,公司自己开发使用的

数据同步层:

1、sqoop用的是1.x系列版本
2、datax

3、kettle

4、NiFi

数据olap存储层:

mysql、es、tidb、redis、hbase、clickhouse

补充:有时间的话去研究一下tidb和clickhouse

数据展示层:

PowerBI、帆软等BI可视化工具、前端定制开发。

技术选型

实时分析

​ 可以使用lua或者filebeat将nginx数据采集到kafka,数据经过spark streaming或者是jstorm进行分析后,尽可能的存入一些高吞吐量的数据库(非关系型),但是有时必须要存入一些关系型数据库,比如说mysql,但是spark streaming发现仅仅通过一个map操作,每个执行的batch的时间,就超过我们所设置的batch时间,这时候我们需要一个措施,增加一个缓冲层,不直接mysql或者是redis,先写入kafka,然后通过kafka推送到独立的写入服务,这样会发现实时处理服务的时间明显的降低。

离线分析

采集这块用flume的tailf形式,或者使用sqoop和nifi。

数据分析使用Hive、SparkSql,数据存储使用HDFS。

最终将数据导出到mysql等常用的关系型数据库当中。

组件版本号

Cloudera Manager:6.2.1

CDH:6.2.1

Hadoop:3.0.0-cdh6.2.1

HBase:2.1.0-cdh6.2.1

Hive:2.1.1-cdh6.2.1

Kafka:2.1.0-cdh6.2.1

Kudu:1.9.0-cdh6.2.1

Oozie:5.1.0-cdh6.2.1

Spark:2.4.0-cdh6.2.1

Sqoop:1.4.7-cdh6.2.1

ZooKeeper:3.4.5-cdh6.2.1

posted @ 2020-07-20 13:33  天宇轩-王  阅读(551)  评论(0编辑  收藏  举报