Shuffle

huffle是MapReduce中一个重要的阶段,前几天在面试的时候被问到了。其实我不是一个很会表述理论和原理的人,所以吃了很多亏。这里对shuffle做一个晓得总结。

Map阶段的输出,会经过shuffle过程,然后交给reduce处理。在MapReduce中,为了让Reduce可以并行处理map结果,必须对map的输出进行一定的排序,然后交给Reduce处理,这个过程就是shuffle,可以说它是MapReduce的一个核心。

总的来说,它包含在map和Reduce两端中:

1.在map端,shuffle过程是对map的结果进行分区,排序和溢出操作,将属于同一个分区的输出合并并写入到磁盘中,同事安装不同的分区将结果发送到对应的Reduce中。

2.Reduce端会对各个map属于同一个划分的输出进行合并,然后对合并的结果进行排序,最后交给Reduce处理。

 

下面是一个很常见的图:

Map端的shuffle

Map端会处理输入数据并产生中间结果,这个中间结果会写到本地磁盘,而不是HDFS。每个Map的输出会先写到内存缓冲区中,当写入的数据达到设定的阈值时,系统将会启动一个线程将缓冲区的数据写到磁盘,这个过程叫做spill。

在spill写入之前,会先进行二次排序,首先根据数据所属的partition进行排序,然后每个partition中的数据再按key来排序。partition的目是将记录划分到不同的Reducer上去,以期望能够达到负载均衡,以后的Reducer就会根据partition来读取自己对应的数据。接着运行combiner(如果设置了的话),combiner的本质也是一个Reducer,其目的是对将要写入到磁盘上的文件先进行一次处理,这样,写入到磁盘的数据量就会减少。最后将数据写到本地磁盘产生spill文件(spill文件保存在{mapred.local.dir}指定的目录中,Map任务结束后就会被删除)。

最后,每个Map任务可能产生多个spill文件,在每个Map任务完成前,会通过多路归并算法将这些spill文件归并成一个文件。至此,Map的shuffle过程就结束了。

Reduce端的shuffle

Reduce端的shuffle主要包括三个阶段,copy、sort(merge)和reduce。

首先要将Map端产生的输出文件拷贝到Reduce端,但每个Reducer如何知道自己应该处理哪些数据呢?因为Map端进行partition的时候,实际上就相当于指定了每个Reducer要处理的数据(partition就对应了Reducer),所以Reducer在拷贝数据的时候只需拷贝与自己对应的partition中的数据即可。每个Reducer会处理一个或者多个partition,但需要先将自己对应的partition中的数据从每个Map的输出结果中拷贝过来。

接下来就是sort阶段,也成为merge阶段,因为这个阶段的主要工作是执行了归并排序。从Map端拷贝到Reduce端的数据都是有序的,所以很适合归并排序。最终在Reduce端生成一个较大的文件作为Reduce的输入。

最后就是Reduce过程了,在这个过程中产生了最终的输出结果,并将其写到HDFS上。

 

posted @ 2017-07-01 12:59  人人从众  阅读(48)  评论(0编辑  收藏  举报