MapReduce案例

大数据技术之HadoopMap-Reduce

MapReduce入门

1.1 MapReduce定义

Mapreduce是一个分布式运算程序的编程框架,是用户开发“基于hadoop的数据分析应用”的核心框架。

Mapreduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上。

1.2 MapReduce优缺点

1.2.1 优点

1MapReduce 易于编程它简单的实现一些接口,就可以完成一个分布式程序,这个分布式程序可以分布到大量廉价的PC机器上运行。也就是说你写一个分布式程序,跟写一个简单的串行程序是一模一样的。就是因为这个特点使得MapReduce编程变得非常流行。

2)良好的扩展性当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力。

3高容错性MapReduce设计的初衷就是使程序能够部署在廉价的PC机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由 Hadoop内部完成的。

4)适合PB级以上海量数据的离线处理,说明它适合离线处理而不适合在线处理。比如像毫秒级别的返回一个结果,MapReduce很难做到。

1.2.2 缺点

MapReduce擅长做实时计算、流式计算、DAG有向图计算。

1)实时计算。MapReduce无法像Mysql一样,在毫秒或者秒级内返回结果。

2)流式计算。流式计算的输入数据是动态的,而MapReduce的输入数据集是静态的,不能动态变化。这是因为MapReduce自身的设计特点决定了数据源必须是静态的。

3DAG(有向无环图)计算。多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce并不是不能做,而是使用后,每个MapReduce作业的输出结果都会写入到磁盘,会造成大量的磁盘IO,导致性能非常的低下。

1.3 MapReduce核心思想

 

 

1)分布式的运算程序往往需要分成至少2个阶段。

2)第一个阶段的maptask并发实例,完全并行运行,互不相干。

3)第二个阶段的reduce task并发实例互不相干,但是他们的数据依赖于上一个阶段的所有maptask并发实例的输出。

4)MapReduce编程模型只能包含一个map阶段和一个reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个mapreduce程序,串行运行。

1.4 MapReduce进程

一个完整的mapreduce程序在分布式运行时有三类实例进程:

1MrAppMaster:负责整个程序的过程调度及状态协调。

2MapTask:负责map阶段的整个数据处理流程。

3ReduceTask:负责reduce阶段的整个数据处理流程。

1.5 MapReduce编程规范

用户编写的程序分成三个部分:MapperReducerDriver(提交运行mr程序的客户端)

1Mapper阶段

1)用户自定义的Mapper要继承自己的父类

(2Mapper的输入数据是KV对的形式(KV的类型可自定义)

(3Mapper中的业务逻辑写在map()方法中

(4Mapper的输出数据是KV对的形式(KV的类型可自定义)

(5map()方法(maptask进程)对每一个<K,V>调用一次

2Reducer阶段

1)用户自定义的Reducer要继承自己的父类

(2Reducer的输入数据类型对应Mapper的输出数据类型,也是KV

(3Reducer的业务逻辑写在reduce()方法中

(4Reducetask进程对每一组相同k<k,v>组调用一次reduce()方法

3Driver阶段

整个程序需要一个Drvier来进行提交,提交的是一个描述了各种必要信息的job对象

Hadoop序列化

2.1 为什么要序列化?

        一般来说,“活的”对象只生存在内存里,关机断电就没有了。而且“活的”对象只能由本地的进程使用,不能被发送到网络上的另外一台计算机。 然而序列化可以存储“活的”对象,可以将“活的”对象发送到远程计算机。

2.2 什么是序列化?

序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储(持久化)和网络传输。 

反序列化就是将收到字节序列(或其他数据传输协议)或者是硬盘的持久化数据,转换成内存中的对象。

2.3 为什么不用Java的序列化?

        Java的序列化是一个重量级序列化框架(Serializable),一个对象被序列化后,会附带很多额外的信息(各种校验信息,header,继承体系等),不便于在网络中高效传输。所以,hadoop自己开发了一套序列化机制(Writable),精简、高效。

2.4 为什么序列化对Hadoop很重要?

         因为Hadoop在集群之间进行通讯或者RPC调用的时候,需要序列化,而且要求序列化要快,且体积要小,占用带宽要小。所以必须理解Hadoop的序列化机制。

        序列化和反序列化在分布式数据处理领域经常出现:进程通信和永久存储。然而Hadoop中各个节点的通信是通过远程调用(RPC)实现的,那么RPC序列化要求具有以下特点:

1紧凑:紧凑的格式能让我们充分利用网络带宽,而带宽是数据中心最稀缺的资

2快速:进程通信形成了分布式系统的骨架,所以需要尽量减少序列化和反序列化的性能开销,这是基本的;

3可扩展:协议为了满足新的需求变化,所以控制客户端和服务器过程中,需要直接引进相应的协议,这些是新协议,原序列化方式能支持新的协议报文;

4互操作:能支持不同语言写的客户端和服务端进行交互; 

2.5 常用数据序列化类型

常用的数据类型对应的hadoop数据序列化类型

Java类型

Hadoop Writable类型

boolean

BooleanWritable

byte

ByteWritable

int

IntWritable

float

FloatWritable

long

LongWritable

double

DoubleWritable

string

Text

map

MapWritable

array

ArrayWritable

2.6 自定义bean对象实现序列化接口Writable

1自定义bean对象要想序列化传输,必须实现序列化接口需要注意以下7

1)必须实现Writable接口

2反序列化时,需要反射调用空参构造函数,所以必须有空参构造

public FlowBean() {

super();

}

3)重写序列化方法

@Override

public void write(DataOutput out) throws IOException {

out.writeLong(upFlow);

out.writeLong(downFlow);

out.writeLong(sumFlow);

}

4)重写反序列化方法

@Override

public void readFields(DataInput in) throws IOException {

upFlow = in.readLong();

downFlow = in.readLong();

sumFlow = in.readLong();

}

5注意反序列化的顺序和序列化的顺序完全一致

6)要想把结果显示在文件中,需要重写toString(),可”\t”分开,方便后续用

7)如果需要将自定义的bean放在key中传输,则还需要实现comparable接口,因为mapreduce框中的shuffle过程一定会对key进行排序。

@Override

public int compareTo(FlowBean o) {

// 倒序排列,从大到小

return this.sumFlow > o.getSumFlow() ? -1 : 1;

}

MapReduce框架原理

3.1 MapReduce工作流程

1)流程示意图

 

 

2)流程详解

上面的流程是整个mapreduce最全工作流程,但是shuffle过程只是从7步开始16结束,具体shuffle过程详解如下:

1maptask收集我们的map()方法输出的kv对,放到内存缓冲区中

2)从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件

3)多个溢出文件会被合并成大的溢出文件

4)在溢出过程中,及合并的过程中,都要调用partitioner进行分区和针对key进行排序

5)reducetask根据自己的分区号,去各个maptask机器上取相应的结果分区数据

6reducetask会取到同一个分区的来自不同maptask的结果文件,reducetask会将这些文件再进行合并(归并排序)

7)合并成大文件后,shuffle的过程也就结束了,后面进入reducetask的逻辑运算过程(从文件中取出一个一个的键值对group,调用用户自定义的reduce()方法)

3注意

Shuffle中的缓冲区大小会影响到mapreduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。

缓冲区的大小可以通过参数调整,参数:io.sort.mb  默认100M

3.2 InputFormat数据输入

3.2.1 切片计算公式

1)找到你数据存储的目录

2)开始遍历处理(规划切片)目录下的每一个文件

3)遍历第一个文件ss.txt

a)获取文件大小fs.sizeOf(ss.txt);

b)计算切片大小computeSplitSize方法 Math.max(minSize,Math.min(maxSize,blocksize))=blocksize=128M

  以上源码在FileInputFormat280

c默认情况下,切片大小=blocksize

d)开始切,形成第1个切片:ss.txt—0:128M 2个切片ss.txt—128:256M 3个切片ss.txt—256M:300M(每次切片时,都要判断切完剩下的部分是否大于块的1.1倍不大于1.1就划分一块切片)

1.1倍解释源码解释:在FileInputFormat这个类得第48行,有个1.1倍得`SPLIT_SLOP `得属性参数;注会有精度不准确得情况:Double类型

 

e)将切片信息写到一个切片规划文件中

f)整个切片核心过程在getSplit()方法中完成。

g)数据切片只是在逻辑上对输入数据进行分片,并不会再磁盘上将其切分成分片进行存储InputSplit只记录了分片的元数据信息,比如起始位置长度以及所在的节点列表等。

h注意:blockHDFS物理上存储的数据,切片是对数据逻辑上的划分。

4)提交切片规划文件到yarn,yarn的MrAppMaster就可以根据切片规划文件计算开启maptask个数。

3.2.2 FileInputFormat切片机制

1FileInputFormat中默认的切片机制:

1)简单地按照文件的内容长度进行切片

2)切片大小,默认等于block大小

3)切片时不考虑数据集整体,而是逐个针对每一个文件单独切片

比如待处理数据有两个文件:

file1.txt    320M

file2.txt    10M

经过FileInputFormat的切片机制运算后,形成的切片信息如下:  

file1.txt.split1--  0~128

file1.txt.split2--  128~256

file1.txt.split3--  256~320

file2.txt.split1--  0~10M

2)FileInputFormat切片大小的参数配置

通过分析源码,在FileInputFormat中,计算切片大小的逻辑:Math.max(minSize, Math.min(maxSize, blockSize)); 

切片主要由这几个值来运算决定

mapreduce.input.fileinputformat.split.minsize=1 默认值为1

mapreduce.input.fileinputformat.split.maxsize= Long.MAXValue 默认Long.MAXValue

因此,默认情况下,切片大小=blocksize

maxsize(切片最大值):参数如果调得比blocksize小,则会让切片变小,而且就等于配置的这个参数的值。

minsize(切片最小值):参数调的比blockSize大,则可以让切片变得比blocksize还大。

3)获取切片信息API

// 根据文件类型获取切片信息

FileSplit inputSplit = (FileSplit) context.getInputSplit();

// 获取切片的文件名称

String name = inputSplit.getPath().getName();

3.2.3 CombineTextInputFormat切片机制

关于大量小文件的优化策略

1默认情况下TextInputformat对任务的切片机制是按文件规划切片不管文件多小都会是一个单独的切都会交给一个maptask,这样如果有大量小文件产生大量的maptask处理效率极其低下。

2)优化策略

1)最好的办法,在数据处理系统的最前端(预处理/采集将小文件先合并成大文件,再上传到HDFS做后续分析。

2)补救措施如果已经是大量小文件在HDFS中了,可以使用另一种InputFormat来做切片(CombineTextInputFormat,它的切片逻辑跟TextFileInputFormat不同:它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件可以交给一个maptask。

3优先满足最小切片大小,不超过最大切片大小

CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m

CombineTextInputFormat.setMinInputSplitSize(job, 2097152);// 2m

举例0.5m+1m+0.3m+5m=2m + 4.8m=2m + 4m + 0.8m

3)具体实现步骤

//  如果不设置InputFormat,它默认用的是TextInputFormat.class

job.setInputFormatClass(CombineTextInputFormat.class)

CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m

CombineTextInputFormat.setMinInputSplitSize(job, 2097152);// 2m

4)案例实操

3.2.4 InputFormat接口实现

MapReduce任务的输入文件一般是存储在HDFS里面。输入的文件格式包括:基于行的日志文件、二进制格式文件等。这些文件一般会很大,达到数十GB,甚至更大。那么MapReduce是如何读取这些数据的呢?下面我们首先学习InputFormat接口。

InputFormat常见接口实现类包括:TextInputFormatKeyValueTextInputFormatNLineInputFormatCombineTextInputFormat和自定义InputFormat等

1TextInputFormat

TextInputFormat是默认的InputFormat。每条记录是一行输入。键是LongWritable类型,存储该行在整个文件中的字节偏移量。值是这行的内容,不包括任何行终止符(换行符和回车符)。

以下是一个示例,比如,一个分片包含了如下4条文本记录。

Rich learning form

Intelligent learning engine

Learning more convenient

From the real demand for more close to the enterprise

每条记录表示为以下键/值对:

(0,Rich learning form)

(19,Intelligent learning engine)

(47,Learning more convenient)

(72,From the real demand for more close to the enterprise)

很明显,键并不是行号。一般情况下,很难取得行号,因为文件按字节而不是按行切分为分片。

2KeyValueTextInputFormat(仅知道即可)

每一行均为一条记录,被分隔符分割为keyvalue。可以通过驱动类中设置conf.set(KeyValueLineRecordReader.KEY_VALUE_SEPERATOR, " ");来设定分隔符。默认分隔符是tab\t)。

以下是一个示例,输入是一个包含4条记录的分片。其中——>表示一个(水平方向的)制表符。

line1 ——>Rich learning form

line2 ——>Intelligent learning engine

line3 ——>Learning more convenient

line4 ——>From the real demand for more close to the enterprise

每条记录表示为以下键/值对:

(line1,Rich learning form)

(line2,Intelligent learning engine)

(line3,Learning more convenient)

(line4,From the real demand for more close to the enterprise)

 此时的键是每行排在制表符之前的Text序列。

 3NLineInputFormat(仅知道即可)

如果使用NlineInputFormat,代表每个map进程处理的InputSplit不再按block块去划分,而是NlineInputFormat指定的行数N来划分。即输入文件的总行数/N=切片如果不整除,切片=+1

以下是一个示例,仍然以上面的4行输入为例。

Rich learning form

Intelligent learning engine

Learning more convenient

From the real demand for more close to the enterprise

 例如,如果N2,则每个输入分片包含两行。开启2maptask。

(0,Rich learning form)

(19,Intelligent learning engine)

另一个 mapper 则收到后两行:

(47,Learning more convenient)

(72,From the real demand for more close to the enterprise)

        这里的键和值与TextInputFormat生成的一样。

3.2.5 自定义InputFormat

1概述

1)自定义一个类继承FileInputFormat

2)改写RecordReader,实现一次读取一个完整文件封装为KV

3)在输出时使用SequenceFileOutPutFormat输出合并文件。

3.3 MapTask工作机制

3.3.1 并行度决定机制

1问题引出

maptask的并行度决定map阶段的任务处理并发度,进而影响到整个job的处理速度。那么mapTask并行任务是否越多越好呢?

2MapTask并行度决定机制

一个jobmap阶段MapTask并行度个数由客户端提交job时的切片个数决定

3.3.2 MapTask工作机制

 

1Read阶段:Map Task通过用户编写的RecordReader,从输入InputSplit中解析出一个个key/value。

2Map阶段:该节点主要是将解析出的key/value交给用户编写map()函数处理,并产生一系列新的key/value。

3Collect收集阶段:在用户编写map()函数中,当数据处理完成后,一般会调用OutputCollector.collect()输出结果。在函数内部,它会生成的key/value分区调用Partitioner并写入一个环形内存缓冲区中。

4Spill阶段:即“溢”,当环形缓冲区满后,MapReduce将数据写到本地磁盘上,生成一个临时文件。需要注意的是,将数据写入本地磁盘之前,先要对数据进行一次本地排序,并在必要对数据进行合并压缩等操作

写阶段详情:

步骤1利用快速排序算法对缓存区内的数据进行排序,排序方式是,先按照分区编号partition进行排序,然后按照key进行排序。这样经过排序后,数据以分区为单位聚集在一起,且同一分区内所有数据按照key有序。

步骤2按照分区编号由小到大依次将每个分区中的数据写入任务工作目录下的临时文件output/spillN.outN表示当前溢写次数)中。如果用户设置了Combiner,则写入文件之前,对每个分区中数据进行一次聚集操作。

步骤3将分区数据的元信息写到内存索引数据结构SpillRecord中,其中每个分区的元信息包括在临时文件中的偏移量、压缩前数据大小和压缩后数据大小。如果当前内存索引大小超过1MB,则将内存索引写到文件output/spillN.out.index

5Combine阶段:当所有数据处理完成后,MapTask对所有临时文件进行一次合并,以确保最终只会生成一个数据文件。

所有数据处理完后,MapTask会将所有临时文件合并成一个大文件保存到文件output/file.out中,同时生成相应的索引文件output/file.out.index。

进行文件合并过程中,MapTask以分区为单位进行合并。对于某个分区,将采用多轮递归合并的方式每轮合并io.sort.factor(默认100)个文件,并将产生的文件重新加入待合并列表中,对文件排序后,重复以上过程,直到最终得到一个大文件。

每个MapTask最终只生成一个数据文件,可避免同时打开大量文件和同时读取大量小文件产生的随机读取带来的开销。

3.4 Shuffle机制

3.4.1 Shuffle机制

Mapreduce确保每个reducer的输入都是按键排序的。系统执行排序的过程(即map输出作为输入传给reducer称为shuffle。

 

 

3.4.2 Partition分区

0问题引出:要求将统计结果按照条件输出到不同文件中(分区)。比如:将统计结果按照手机归属地不同省份输出到不同文件中(分区)

1默认partition分区

public class HashPartitioner<K, V> extends Partitioner<K, V> {

  public int getPartition(K key, V value, int numReduceTasks) {

    return (key.hashCode() & Integer.MAX_VALUE) % numReduceTasks;

  }

}

默认分区是根据keyhashCode对reduceTasks个数取模得到的。用户没法控制哪个key存储到哪个分区

2自定义Partitioner步骤

1)自定义类继承PartitionergetPartition()方法

public class ProvincePartitioner extends Partitioner<Text, FlowBean> {

 

@Override

public int getPartition(Text key, FlowBean value, int numPartitions) {

 

// 1 获取电话号码的前三位

String preNum = key.toString().substring(0, 3);

 

int partition = 4;

 

// 2 判断是哪个省

if ("136".equals(preNum)) {

partition = 0;

}else if ("137".equals(preNum)) {

partition = 1;

}else if ("138".equals(preNum)) {

partition = 2;

}else if ("139".equals(preNum)) {

partition = 3;

}

return partition;

}

}

(2)job驱动中,设置自定义partitioner

job.setPartitionerClass(CustomPartitioner.class);

(3)自定义partition后,要根据自定义partitioner的逻辑设置相应数量的reduce task

job.setNumReduceTasks(5);

3)注意:

如果reduceTask的数量> getPartition的结果数,则会多产生几个空的输出文件part-r-000xx

如果1<reduceTask的数量<getPartition的结果数,则有一部分分区数据无处安放,会Exception

如果reduceTask的数量=1,则不管mapTask端输出多少个分区文件,最终结果都交给这一个reduceTask,最终也就只会产生一个结果文件 part-r-00000

例如假设自定义分区数为5

1job.setNumReduceTasks(1);会正常运行,只不过会产生一个输出文件

2job.setNumReduceTasks(2);会报错

3job.setNumReduceTasks(6);大于5,程序会正常运行,会产生空文件

3.4.3 WritableComparable排序

排序是MapReduce框架中最重要的操作之一。Map Task和Reduce Task均会对数据(按照key进行排序。该操作属于Hadoop的默认行为。任何应用程序中的数据均会被排序,而不管逻辑上是否需要。默认排序是按照字典顺序排序,且实现该排序的方法是快速排序。

对于Map Task,它会将处理的结果暂时放到一个缓冲区中,当缓冲区使用率达到一定阈值后,再对缓冲区中的数据进行一次排序,并将这些有序数据写到磁盘上,而当数据处理完毕后,它会对磁盘上所有文件进行一次合并,以将这些文件合并成一个大的有序文件。

对于Reduce Task,它从每个Map Task上远程拷贝相应数据文件,如果文件大小超过一定阈值,则放到磁盘上,否则放到内存中。如果磁盘上文件数目达到一定阈值则进行一次合并以生成一个更大文件如果内存中文件大小或者数目超过一定阈值,则进行一次合并后数据写到磁盘上。当所有数据拷贝完毕后,Reduce Task统一对内存和磁盘上的所有数据进行一次合并。

每个阶段的默认排序

1)排序的分类:

1部分排序:

MapReduce根据输入记录的键对数据集排序。保证输出的每个文件内部排序。

2全排序:

如何用Hadoop产生一个全局排序的文件?最简单的方法是使用一个分区。但方法在处理大型文件时效率极低,因为一台机器必须处理所有输出文件,从而完全丧失MapReduce所提供的并行架构。

替代方案:首先创建一系列排好序的文件;其次,串联这些文件;最后,生成一个全局排序的文件。主要思路是使用一个分区来描述输出的全局排序。例如可以为上述文件创建3个分区,在第一分区中,记录的单词首字母a-g第二分区记录单词首字母h-n, 分区记录单词首字母o-z。

3)辅助排序:GroupingComparator分组)

Mapreduce框架在记录到达reducer之前按键对记录排序,但键所对应的值并没有被排序。甚至不同的执行轮次中,这些值的排序也不固定,因为它们来自不同的map任务且这些map任务在不同轮次中完成时间各不相同。一般来说,大多数MapReduce程序会避免让reduce函数依赖于值的排序。但是,有时也需要通过特定的方法对键进行排序和分组等以实现对值的排序。

4)二次排序:

自定义排序过程中如果compareTo中的判断条件为两个即为二次排序。

2)自定义排序WritableComparable

1)原理分析

bean对象实现WritableComparable接口重写compareTo方法,就可以实现排序

@Override

public int compareTo(FlowBean o) {

// 倒序排列,从大到小

return this.sumFlow > o.getSumFlow() ? -1 : 1;

}

3.4.4 GroupingComparator分组(辅助排序

1)对reduce阶段的数据根据某一个几个字段进行分组

3.4.5 Combiner合并

1combinerMR程序中MapperReducer之外的一种组件。

2combiner组件的父类就是Reducer

3combinerreducer的区别在于运行的位置:

Combiner是在每一个maptask所在的节点运行;

Reducer是接收全局所有Mapper的输出结果;

4combiner的意义就是对每一个maptask的输出进行局部汇总,以减小网络传输量。

5combiner能够应用的前提是不能影响最终的业务逻辑,而且,combiner的输出kv应该跟reducer的输入kv类型要对应起来。

Mapper

3 5 7 ->(3+5+7)/3=5

2 6 ->(2+6)/2=4

Reducer

(3+5+7+2+6)/5=23/5    不等于    (5+4)/2=9/2

6)自定义Combiner实现步骤:

1)自定义一个combiner继承Reducer,重写reduce方法

public class WordcountCombiner extends Reducer<Text, IntWritable, Text, IntWritable>{

@Override

protected void reduce(Text key, Iterable<IntWritable> values,

Context context) throws IOException, InterruptedException {

        // 1 汇总操作

int count = 0;

for(IntWritable v :values){

count = v.get();

}

        // 2 写出

context.write(key, new IntWritable(count));

}

}

2)在job驱动中设置:  

job.setCombinerClass(WordcountCombiner.class);

MapReduce实战

1.1 WordCount案例

1.1.1 需求1统计一堆文件中单词出现的个数

0)需求:在一堆给定的文本文件中统计输出每一个单词出现的总次数

1)数据准备

 

2)分析

按照mapreduce编程规范,分别编写MapperReducerDriver

 

 

3)编写程序

1)编写mapper

package com.itstar.mapreduce;

import java.io.IOException;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Mapper;

 

public class WordcountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{

 

Text k = new Text();

IntWritable v = new IntWritable(1);

 

@Override

protected void map(LongWritable key, Text value, Context context)

throws IOException, InterruptedException {

 

// 1 获取一行

String line = value.toString();

 

// 2 切割

String[] words = line.split(" ");

 

// 3 输出

for (String word : words) {

 

k.set(word);

context.write(k, v);

}

}

}

2)编写reducer

package com.itstar.mapreduce.wordcount;

import java.io.IOException;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Reducer;

 

public class WordcountReducer extends Reducer<Text, IntWritable, Text, IntWritable>{

 

@Override

protected void reduce(Text key, Iterable<IntWritable> value,

Context context) throws IOException, InterruptedException {

 

// 1 累加求和

int sum = 0;

for (IntWritable count : value) {

sum += count.get();

}

 

// 2 输出

context.write(key, new IntWritable(sum));

}

}

3)编写驱动类

package com.itstar.mapreduce.wordcount;

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

 

public class WordcountDriver {

 

public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {

 

        String[] args=new String{“输入路径”,”输出路径”};

 

// 1 获取配置信息

Configuration configuration = new Configuration();

Job job = Job.getInstance(configuration);

 

// 2 设置jar加载路径

job.setJarByClass(WordcountDriver.class);

 

// 3 设置mapReduce

job.setMapperClass(WordcountMapper.class);

job.setReducerClass(WordcountReducer.class);

 

// 4 设置map输出

job.setMapOutputKeyClass(Text.class);

job.setMapOutputValueClass(IntWritable.class);

 

// 5 设置Reduce输出

job.setOutputKeyClass(Text.class);

job.setOutputValueClass(IntWritable.class);

 

// 6 设置输入和输出路径

FileInputFormat.setInputPaths(job, new Path(args[0]));

FileOutputFormat.setOutputPath(job, new Path(args[1]));

 

// 7 提交

boolean result = job.waitForCompletion(true);

 

System.exit(result ? 0 : 1);

}

}

4)集群上测试

(1)将程序打成jar包,然后拷贝hadoop集群中

(2)启动hadoop集群

(3)执行wordcount程序

[itstar@hadoop102 software]$ hadoop jar  wc.jar com.itstar.wordcount.WordcountDriver /user/itstar/input /user/itstar/output1

5)本地测试

1)在windows环境上配置HADOOP_HOME环境变量。

2)在idea上运行程序

3)注意:如果idea打印不出日志,在控制台上只显示

1.log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.Shell).  

2.log4j:WARN Please initialize the log4j system properly.  

3.log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.

需要在项目的src目录下,新建一个文件,命名为“log4j.properties”在文件中填入

log4j.rootLogger=INFO, stdout  

log4j.appender.stdout=org.apache.log4j.ConsoleAppender  

log4j.appender.stdout.layout=org.apache.log4j.PatternLayout  

log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n  

log4j.appender.logfile=org.apache.log4j.FileAppender  

log4j.appender.logfile.File=target/spring.log  

log4j.appender.logfile.layout=org.apache.log4j.PatternLayout  

log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n  

1.1.2 需求2:把单词按照ASCII码奇偶分区(Partitioner

0分析

 

1自定义分区

package com.itstar.mapreduce.wordcount;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Partitioner;

 

public class WordCountPartitioner extends Partitioner<Text, IntWritable>{

 

@Override

public int getPartition(Text key, IntWritable value, int numPartitions) {

 

// 1 获取单词key

String firWord = key.toString().substring(0, 1);

int result = Integer.valueOf(firWord);

 

// 2 根据奇数偶数分区

if (result % 2 == 0) {

return 0;

}else {

return 1;

}

}

}

2)在驱动中配置加载分区,设置reducetask个数

job.setPartitionerClass(WordCountPartitioner.class);

job.setNumReduceTasks(2);

1.1.3 需求3:对每一个maptask的输出局部汇总(Combiner

0)需求:统计过程对每一个maptask的输出进行局部汇总,以减小网络传输量即采用Combiner功能。

1)数据准备

 

方案一

1增加一个WordcountCombiner类继承Reducer

package com.itstar.mr.combiner;

import java.io.IOException;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Reducer;

 

public class WordcountCombiner extends Reducer<Text, IntWritable, Text, IntWritable>{

 

@Override

protected void reduce(Text key, Iterable<IntWritable> values,

Context context) throws IOException, InterruptedException {

        // 1 汇总

int count = 0;

for(IntWritable v :values){

count += v.get();

}

// 2 写出

context.write(key, new IntWritable(count));

}

}

2WordcountDriver驱动类中指定combiner

// 9 指定需要使用combiner,以及用哪个类作为combiner的逻辑

job.setCombinerClass(WordcountCombiner.class);

方案

1)将WordcountReducer作为combinerWordcountDriver驱动类中指定

// 指定需要使用combiner,以及用哪个类作为combiner的逻辑

job.setCombinerClass(WordcountReducer.class);

 

运行程序

 

 

1.1.4 需求4:大量小文件切片优化(CombineTextInputFormat

0在分布式的架构中,分布式文件系统HDFS,和分布式运算程序编程框架mapreduce。

HDFS:不怕大文件,怕很多小文件

mapreduce :怕数据倾斜

那么mapreduce是如果解决多个小文件的问题呢?

mapreduce关于大量小文件的优化策略

1) 默认情况下,TextInputFormat对任务的切片机制是按照文件规划切片,不管有多少个小文件,都会是单独的切片,都会交给一个maptask,这样,如果有大量的小文件

就会产生大量的maptask,处理效率极端底下

2)优化策略

最好的方法:在数据处理的最前端(预处理、采集),就将小文件合并成大文件,在上传到HDFS做后续的分析

补救措施:如果已经是大量的小文件在HDFS中了,可以使用另一种inputformat来做切片(CombineFileInputformat),它的切片逻辑跟TextInputformat

注:CombineTextInputFormat是CombineFileInputformat的子类

不同:

它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个maptask了

//如果不设置InputFormat,它默认的用的是TextInputFormat.class

/*CombineTextInputFormat为系统自带的组件类

 * setMinInputSplitSize 中的2048是表示n个小文件之和不能大于2048

 * setMaxInputSplitSize 中的4096是     当满足setMinInputSplitSize中的2048情况下  在满足n+1个小文件之和不能大于4096

 */

job.setInputFormatClass(CombineTextInputFormat.class);

CombineTextInputFormat.setMinInputSplitSize(job, 2048);

CombineTextInputFormat.setMaxInputSplitSize(job, 4096);

1)输入数据:准备5小文件

2)实现过程

1不做任何处理,运行需求1wordcount程序,观察切片个数为5

2WordcountDriver中增加如下代码运行程序,并观察运行的切片个数为1

// 如果不设置InputFormat,它默认用的是TextInputFormat.class

job.setInputFormatClass(CombineTextInputFormat.class);

CombineTextInputFormat.setMaxInputSplitSize(job, 4*1024*1024);// 4m

CombineTextInputFormat.setMinInputSplitSize(job, 2*1024*1024);// 2m

 

注:在看number of splits时,和最大值(MaxSplitSize)有关、总体规律就是和低于最大值是一片、高于最大值1.5+,则为两片;高于最大值2倍以上则向下取整,比如文件大小65MB,切片最大值为4MB,那么切片为14.总体来说,切片差值不超过1个,不影响整体性能

posted @ 2019-07-26 02:14  jareny  阅读(1297)  评论(0编辑  收藏  举报