Hadoop之MapReduce

MapReduce

MapReduce概念

Mapreduce是一个分布式运算程序的编程框架,是用户开发“基于hadoop的数据分析应用”的核心框架;

Mapreduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上。

 

MapReduce进程

一个完整的mapreduce程序在分布式运行时有三类实例进程:

1MrAppMaster:负责整个程序的过程调度及状态协调

2MapTask:负责map阶段的整个数据处理流程

3ReduceTask:负责reduce阶段的整个数据处理流程

 

MapReduce编程规范

用户编写的程序分成三个部分:MapperReducerDriver(提交运行mr程序的客户端)

1Mapper阶段

1)用户自定义的Mapper要继承自己的父类

(2Mapper的输入数据是KV对的形式(KV的类型可自定义)

(3Mapper中的业务逻辑写在map()方法中

(4Mapper的输出数据是KV对的形式(KV的类型可自定义)

(5map()方法(maptask进程)对每一个<K,V>调用一次

2Reducer阶段

1)用户自定义的Reducer要继承自己的父类

(2Reducer的输入数据类型对应Mapper的输出数据类型,也是KV

(3Reducer的业务逻辑写在reduce()方法中

(4Reducetask进程对每一组相同k<k,v>组调用一次reduce()方法

3Driver阶段

整个程序需要一个Drvier来进行提交,提交的是一个描述了各种必要信息的job对象

 

MapReduce程序运行流程分析

1)在MapReduce程序读取文件的输入目录上存放相应的文件。

2)客户端程序在submit()方法执行前,获取待处理的数据信息,然后根据集群中参数的配置形成一个任务分配规划。

3)客户端提交job.split、jar包、job.xml文件给yarnyarn中的resourcemanager启动MRAppMaster

4MRAppMaster启动后根据本次job的描述信息,计算出需要的maptask实例数量,然后向集群申请机器启动相应数量的maptask进程。

5maptask利用客户指定的inputformat来读取数据,形成输入KV对。

6maptask将输入KV对传递给客户定义的map()方法,做逻辑运算

7map()运算完毕后KV对收集到maptask缓存。

8maptask缓存中的KV对按照K分区排序后不断写到磁盘文件

9MRAppMaster监控到所有maptask进程任务完成之后,会根据客户指定的参数启动相应数量的reducetask进程,并告知reducetask进程要处理的数据分区。

10Reducetask进程启动之后,根据MRAppMaster告知的待处理数据所在位置,从若干台maptask运行所在机器上获取到若干个maptask输出结果文件,并在本地进行重新归并排序,然后按照相同keyKV为一个组,调用客户定义的reduce()方法进行逻辑运算。

11Reducetask运算完毕后,调用客户指定的outputformat将结果数据输出到外部存储。

 

 

MapTask工作机制

1Read阶段:Map Task通过用户编写的RecordReader,从输入InputSplit中解析出一个个key/value。

 

2Map阶段:该节点主要是将解析出的key/value交给用户编写map()函数处理,并产生一系列新的key/value。

 

3Collect阶段:在用户编写map()函数中,当数据处理完成后,一般会调用OutputCollector.collect()输出结果。在函数内部,它会生成的key/value分区调用Partitioner并写入一个环形内存缓冲区中。

 

4Spill阶段:即“溢”,当环形缓冲区满后,MapReduce将数据写到本地磁盘上,生成一个临时文件。需要注意的是,将数据写入本地磁盘之前,先要对数据进行一次本地排序,并在必要对数据进行合并压缩等操作

 

Shuffle机制

 

Mapreduce确保每个reducer的输入都是按键排序的。系统执行排序的过程(即map输出作为输入传给reducer称为shuffle。

 

 

 

上面的流程是整个mapreduce最全工作流程,但是shuffle过程只是从7步开始16结束,具体shuffle过程详解如下:

1maptask收集我们的map()方法输出的kv对,放到内存缓冲区中

2)从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件

3)多个溢出文件会被合并成大的溢出文件

4)在溢出过程中,及合并的过程中,都要调用partitoner进行分组和针对key进行排序

5)reducetask根据自己的分区号,去各个maptask机器上取相应的结果分区数据

6reducetask会取到同一个分区的来自不同maptask的结果文件,reducetask会将这些文件再进行合并(归并排序)

7)合并成大文件后,shuffle的过程也就结束了,后面进入reducetask的逻辑运算过程(从文件中取出一个一个的键值对group,调用用户自定义的reduce()方法)

3注意

Shuffle中的缓冲区大小会影响到mapreduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。

缓冲区的大小可以通过参数调整,参数:io.sort.mb  默认100M

 

 

ReduceTask工作机制

 

 

1设置ReduceTask

reducetask的并行度同样影响整个job的执行并发度和执行效率,但与maptask的并发数由切片数决定不同,Reducetask数量的决定是可以直接手动设置:

//默认值是1,手动设置为4

job.setNumReduceTasks(4);

 

2注意

1)如果数据分布不均匀,就有可能在reduce阶段产生数据倾斜

2reducetask数量并不是任意设置,还要考虑业务逻辑需求,有些情况下,需要计算全局汇总结果,就只能有1reducetask

3)具体多少reducetask,需要根据集群性能而定。

4)如果分区数不是1但是reducetask1是否执行分区过程。答案:不执行分区过程。因为在maptask的源码中,执行分区的前提是先判断reduceNum个数是否大于1大于1肯定不执行。

工作机制

1Copy阶段:ReduceTask从各个MapTask上远程拷贝一片数据,并针对某一片数据,如果其大小超过一定阈值,则写到磁盘上,否则直接放到内存中。

2Merge阶段:在远程拷贝数据的同时,ReduceTask启动了两个后台线程对内存和磁盘上的文件进行合并,以防止内存使用过多或磁盘上文件过多。

3Sort阶段:按照MapReduce语义,用户编写reduce()函数输入数据是按key进行聚集的一组数据。为了key相同的数据聚在一起,Hadoop采用了基于排序的策略。由于各个MapTask已经实现对自己的处理结果进行了局部排序,因此,ReduceTask只需对所有数据进行一次归并排序即可。

4Reduce阶段:reduce()函数将计算结果写到HDFS上。

 

 

Yarn工作机制

(0)Mr程序提交到客户端所在的节点

(1yarnrunnerResourcemanager申请一个application

(2rm将该应用程序的资源路径返回给yarnrunner

(3)该程序将运行所需资源提交到HDFS

(4)程序资源提交完毕后,申请运行mrAppMaster

(5RM将用户的请求初始化成一个task

(6)其中一个NodeManager领取task任务。

(7)该NodeManager创建容器Container并产生MRAppmaster

(8ContainerHDFS上拷贝资源到本地

(9)MRAppmaster向RM 申请运行maptask容器

10RM运行maptask任务分配给另外两个NodeManager,另两个NodeManager分别领取任务创建容器。

11MR向两个接收到任务的NodeManager发送程序启动脚本这两个NodeManager分别启动maptask,maptask对数据分区排序。

12MRAppmaster向RM申请2容器,运行reduce task。

13reduce taskmaptask获取相应分区的数据。

14)程序运行完毕后,MR会向RM注销自己。

 

 

 MapReduce开发总结

 

 

mapreduce在编程的时候,基本上一个固化的模式,没有太多可灵活改变的地方,除了以下几处:

1)输入数据接口InputFormat--->FileInputFormat(文件类型数据读取的通用抽象类)  DBInputFormat (数据库数据读取的通用抽象类)

   默认使用的实现类是:TextInputFormat

   job.setInputFormatClass(TextInputFormat.class)

   TextInputFormat的功能逻辑是:一次读一行文本,然后将该行的起始偏移量作为key,行内容作为value返回

2)逻辑处理接口 Mapper  

   完全需要用户自己去实现其中:map()   setup()   clean()

3map输出的结果在shuffle阶段会被partition以及sort,此处有两个接口可自定义:

    1Partitioner

有默认实现 HashPartitioner,逻辑是  根据keynumReduces来返回一个分区号; key.hashCode()&Integer.MAXVALUE % numReduces

通常情况下,用默认的这个HashPartitioner就可以,如果业务上有特别的需求,可以自定义

2Comparable

当我们用自定义的对象作为key来输出时,就必须要实现WritableComparable接口,override其中的compareTo()方法

4reduce端的数据分组比较接口:Groupingcomparator

reduceTask拿到输入数据(一个partition的所有数据)后,首先需要对数据进行分组,其分组的默认原则是key相同,然后对每一组kv数据调用一次reduce()方法,并且将这一组kv中的第一个kvkey作为参数传给reducekey,将这一组数据的value的迭代器传给reduce()values参数

利用上述这个机制,我们可以实现一个高效的分组取最大值的逻辑:

自定义一个bean对象用来封装我们的数据,然后改写其compareTo方法产生倒序排序的效果

然后自定义一个Groupingcomparator,将bean对象的分组逻辑改成按照我们的业务分组id来分组(比如订单号)

这样,我们要取的最大值就是reduce()方法中传进来key

5)逻辑处理接口:Reducer

完全需要用户自己去实现其中  reduce()   setup()   clean()   

6)输出数据接口:OutputFormat---> 有一系列子类FileOutputformat  DBoutputFormat  .....

默认实现类是TextOutputFormat,功能逻辑是:将每一个KV对向目标文本文件中输出为一行

 

posted @ 2019-07-14 20:42  孤身!  阅读(264)  评论(0编辑  收藏  举报