MapReduce经典案例——TopN
MapReduce经典案例————TopN
一、案例分析
1、topN介绍:
-
TopN分析法是指从研究对象中按照某一个指标进行倒序或正序排列,取其中所需的N个数据,并对这N个数据进行重点分析的方法。
-
测试文件:num.txt
10 3 8 7 6 5 1 2 9 4
11 12 17 14 15 20
19 18 13 16
2. 案例需求及分析
- 现假设有数据文件num.txt,现要求使用MapReduce技术提取上述文本中最大的5个数据,并最终将结果汇总到一个文件中。
- (1) 先设置MapReduce分区为1,即ReduceTask个数一定只有一个。我们需要提取TopN,即全局的前N条数据,不管中间有几个Map、Reduce,最终只能有一个用来汇总数据。
- (2) 在Map阶段,使用TreeMap数据结构保存TopN的数据,TreeMap默认会根据其键的自然顺序进行排序,也可根据创建映射时提供的 Comparator进行排序,其firstKey()方法用于返回当前集合最小值的键。
- (3) 在Reduce阶段,将Map阶段输出数据进行汇总,选出其中的TopN数据,即可满足需求。这里需要注意的是,TreeMap默认采取正序排列,需求是提取5个最大的数据,因此要重写Comparator类的排序方法进行倒序排序。
二、案例实现
1、实现步骤:
(1)Map阶段实现
-
使用Eclipse开发工具打开之前创建的Maven项目HadoopDemo,并且新建cn.itcast.mr.topN包,在该路径下编写自定义Mapper类TopNMapper
-
主要用于将文件中的每行数据进行切割提取,并把数据保存到TreeMap中
-
判断TreeMap是否大于5,如果大于5就需要移除最小的数据。TreeMap保存了当前文件最大5条数据后,再输出到Reduce阶段。
-
TopNMapper.java:
package cn.itcast.mr.topN; //Map阶段实现 import java.util.TreeMap; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper; public class TopNMapper extends Mapper<LongWritable, Text, NullWritable, IntWritable> { private TreeMap<Integer, String> repToRecordMap = new TreeMap<Integer, String>(); // <0,10 3 8 7 6 5 1 2 9 4> // <xx,11 12 17 14 15 20> @Override public void map(LongWritable key, Text value, Context context) { String line = value.toString(); String[] nums = line.split(" "); for (String num : nums) { repToRecordMap.put(Integer.parseInt(num), " "); if (repToRecordMap.size() > 5) { repToRecordMap.remove(repToRecordMap.firstKey()); } } } @Override protected void cleanup(Context context) { for (Integer i : repToRecordMap.keySet()) { try { context.write(NullWritable.get(), new IntWritable(i)); } catch (Exception e) { e.printStackTrace(); } } } }
(2)Reduce阶段实现
-
根据Map阶段的输出结果形式,同样在cn.itcast.mr.topN包下,自定义Reducer类TopNReducer
-
主要用于编写TreeMap自定义排序规则,当需求取最大值时,只需要在compare()方法中返回正数即可满足倒序排列,reduce()方法依然是要满足时刻判断TreeMap中存放数据是前五个数,并最终遍历输出最大的5个数。
-
TopNReducer.java:
package cn.itcast.mr.topN; //Reduce阶段实现 import java.io.IOException; import java.util.Comparator; import java.util.TreeMap; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.mapreduce.Reducer; public class TopNReducer extends Reducer<NullWritable, IntWritable, NullWritable, IntWritable> { private TreeMap<Integer, String> repToRecordMap = new TreeMap<Integer, String>(new Comparator<Integer>() { //返回一个基本类型的整型,谁大谁排后面. //返回负数表示:o1 小于o2 //返回0表示:表示:o1和o2相等 //返回正数表示:o1大于o2。 public int compare(Integer a, Integer b) { return b - a; } }); public void reduce(NullWritable key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { for (IntWritable value : values) { repToRecordMap.put(value.get(), " "); if (repToRecordMap.size() > 5) { repToRecordMap.remove(repToRecordMap.firstKey()); } } for (Integer i : repToRecordMap.keySet()) { context.write(NullWritable.get(), new IntWritable(i)); } } }
(3)Driver程序主类实现
-
编写MapReduce程序运行主类TopNDriver
-
主要用于对指定的本地D:\topN\input目录下的源文件(需要提前准备)实现TopN分析,得到文件中最大的5个数,并将结果输入到本地E:\hadoop\fileStorage\TopN\output\dow目录下。
-
TopDriver.java:
package cn.itcast.mr.topN; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; public class TopNDriver { public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); Job job = Job.getInstance(conf); job.setJarByClass(TopNDriver.class); job.setMapperClass(TopNMapper.class); job.setReducerClass(TopNReducer.class); job.setNumReduceTasks(1); job.setMapOutputKeyClass(NullWritable.class);// map阶段的输出的key job.setMapOutputValueClass(IntWritable.class);// map阶段的输出的value job.setOutputKeyClass(NullWritable.class);// reduce阶段的输出的key job.setOutputValueClass(IntWritable.class);// reduce阶段的输出的value FileInputFormat.setInputPaths(job, new Path("E:\\hadoop\\fileStorage\\TopN\\input")); FileOutputFormat.setOutputPath(job, new Path("E:\\hadoop\\fileStorage\\TopN\\output\\dow")); boolean res = job.waitForCompletion(true); System.exit(res ? 0 : 1); } }