10.6 flume、sqoop、oozie/Azkaban

在一个完整的大数据处理系统中,除了hdfs+mapreduce+hive组成分析系统的核心之外,还需要数据采集、结果数据导出、任务调度等不可或缺的辅助系统,而这些辅助工具在hadoop生态体系中都有便捷的开源框架。

 

1 日志采集框架Flume

 Flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。

 Flume可以采集文件,socket数据包等各种形式源数据,又可以将采集到的数据输出到HDFShbasehive、kafka队列等众多外部存储系统中

一般的采集需求,通过对flume的简单配置即可实现

 Flume针对特殊场景也具备良好的自定义扩展能力,因此,flume可以适用于大部分的日常数据采集场景

1.1运行过程

1、 Flume分布式系统中最核心的角色是agentflume采集系统就是由一个个agent所连接起来形成

2、 每一个agent相当于一个数据传递员,内部有三个组件:

a) Source:采集源,用于跟数据源对接,以获取数据

b) Sink:下沉地,采集数据的传送目的,用于往下一级agent传递数据或者往最终存储系统传递数据

c) Channelangent内部的数据传输通道,用于从source将数据传递到sink

Flume支持众多的sourcesink类型

1.2Flume的安装部署

1、Flume的安装非常简单,只需要解压即可,当然,前提是已有hadoop环境

上传安装包到数据源所在节点上

然后解压  tar -zxvf apache-flume-1.6.0-bin.tar.gz

然后进入flume的目录,修改conf下的flume-env.sh,在里面配置JAVA_HOME

2、根据数据采集的需求配置采集方案,描述在配置文件中(文件名可任意自定义)

3指定采集方案配置文件,在相应的节点上启动flume agent

2 工作流调度器azkaban

一个完整的数据分析系统通常都是由大量任务单元组成:

shell脚本程序,java程序,mapreduce程序、hive脚本等 各任务单元之间存在时间先后及前后依赖关系

l为了很好地组织起这样的复杂执行计划,需要一个工作流调度系统来调度执行;

简单的任务调度:直接使用linuxcrontab来定义;

复杂的任务调度:开发调度平台

或使用现成的开源调度系统,比如ooize、azkaban等

2.1Azkaban介绍

Azkaban是由Linkedin开源的一个批量工作流任务调度器。用于在一个工作流内以一个特定的顺序运行一组工作和流程。Azkaban定义了一种KV文件格式来建立任务之间的依赖关系,并提供一个易于使用的web用户界面维护和跟踪你的工作流。

它有如下功能特点:

² Web用户界面

² 方便上传工作流

² 方便设置任务之间的关系

² 调度工作流

² 认证/授权(权限的工作

² 能够杀死并重新启动工作流

² 模块化和可插拔的插件机制

² 项目工作区 

² 工作流和任务的日志记录和审计

2.2AzkabanOozie对比

对市面上最流行的两种调度器,给出以下详细对比,以供技术选型参考。总体来说,ooize相比azkaban是一个重量级的任务调度系统,功能全面,但配置使用也更复杂。如果可以不在意某些功能的缺失,轻量级调度器azkaban是很不错的候选对象。

功能

两者均可以调度mapreduce,pig,java,脚本工作流任务

两者均可以定时执行工作流任务

 工作流定义

Azkaban使用Properties文件定义工作流

Oozie使用XML文件定义工作流

  工作流传参

Azkaban支持直接传参,例如${input}

Oozie支持参数和EL表达式,例如${fs:dirSize(myInputDir)}

  定时执行

Azkaban的定时执行任务是基于时间的

Oozie的定时执行任务基于时间和输入数据

资源管理

Azkaban有较严格的权限控制,如用户对工作流进行读//执行等操作

Oozie暂无严格的权限控制

工作流执行

Azkaban有两种运行模式,分别是solo server mode(executor serverweb server部署在同一台节点)multi server mode(executor serverweb server可以部署在不同节点)

Oozie作为工作流服务器运行,支持多用户和多工作流

 工作流管理

Azkaban支持浏览器以及ajax方式操作工作流

Oozie支持命令行、HTTP RESTJava API、浏览器操作工作流

3 sqoop数据迁移

3.1作用

sqoopapache旗下一款Hadoop和关系数据库服务器之间传送数据”的工具。

导入数据MySQLOracle导入数据到HadoopHDFSHIVEHBASE等数据存储系统;

导出数据:Hadoop的文件系统中导出数据到关系数据库

 

3.2工作机制

将导入或导出命令翻译成mapreduce程序来实现

在翻译出的mapreduce中主要是对inputformatoutputformat进行定制

 

3.3 sqoop安装

 

安装sqoop的前提是已经具备javahadoop的环境

 

1、下载并解压

 

最新版下载地址http://ftp.wayne.edu/apache/sqoop/1.4.6/

 

2、修改配置文件

 

$ cd $SQOOP_HOME/conf

 

$ mv sqoop-env-template.sh sqoop-env.sh

 

打开sqoop-env.sh并编辑下面几行:

 

export HADOOP_COMMON_HOME=/home/hadoop/apps/hadoop-2.6.1/

 

export HADOOP_MAPRED_HOME=/home/hadoop/apps/hadoop-2.6.1/

 

export HIVE_HOME=/home/hadoop/apps/hive-1.2.1

 

3、加入mysqljdbc驱动包

 

cp  ~/app/hive/lib/mysql-connector-java-5.1.28.jar   $SQOOP_HOME/lib/

 

4、验证启动

 

$ cd $SQOOP_HOME/bin

 

$ sqoop-version

 

预期的输出:

 

15/12/17 14:52:32 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6

 

Sqoop 1.4.6 git commit id 5b34accaca7de251fc91161733f906af2eddbe83

 

Compiled by abe on Fri Aug 1 11:19:26 PDT 2015

 

到这里,整个Sqoop安装工作完成。

 

 

 

 

posted @ 2017-07-21 21:49  Smileing  阅读(1398)  评论(0编辑  收藏  举报