MapReduce经典案例——TopN

MapReduce经典案例————TopN

一、案例分析

1、topN介绍:

  • TopN分析法是指从研究对象中按照某一个指标进行倒序或正序排列,取其中所需的N个数据,并对这N个数据进行重点分析的方法。

  • 测试文件:num.txt

    10 3 8 7 6 5 1 2 9 4
    11 12 17 14 15 20
    19 18 13 16

2. 案例需求及分析

  • 现假设有数据文件num.txt,现要求使用MapReduce技术提取上述文本中最大的5个数据,并最终将结果汇总到一个文件中。
  • (1) 先设置MapReduce分区为1,即ReduceTask个数一定只有一个。我们需要提取TopN,即全局的前N条数据,不管中间有几个Map、Reduce,最终只能有一个用来汇总数据。
  • (2) 在Map阶段,使用TreeMap数据结构保存TopN的数据,TreeMap默认会根据其键的自然顺序进行排序,也可根据创建映射时提供的 Comparator进行排序,其firstKey()方法用于返回当前集合最小值的键。
  • (3) 在Reduce阶段,将Map阶段输出数据进行汇总,选出其中的TopN数据,即可满足需求。这里需要注意的是,TreeMap默认采取正序排列,需求是提取5个最大的数据,因此要重写Comparator类的排序方法进行倒序排序。

二、案例实现

1、实现步骤:

(1)Map阶段实现

  • 使用Eclipse开发工具打开之前创建的Maven项目HadoopDemo,并且新建cn.itcast.mr.topN包,在该路径下编写自定义Mapper类TopNMapper

  • 主要用于将文件中的每行数据进行切割提取,并把数据保存到TreeMap中

  • 判断TreeMap是否大于5,如果大于5就需要移除最小的数据。TreeMap保存了当前文件最大5条数据后,再输出到Reduce阶段。

  • TopNMapper.java:

    package cn.itcast.mr.topN;
    //Map阶段实现
    import java.util.TreeMap;
    
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    
    public class TopNMapper extends Mapper<LongWritable, Text, NullWritable, IntWritable> {
    
        private TreeMap<Integer, String> repToRecordMap = new TreeMap<Integer, String>();
    
        // <0,10 3 8 7 6 5 1 2 9 4>
        // <xx,11 12 17 14 15 20>
        @Override
        public void map(LongWritable key, Text value, Context context) {
            String line = value.toString();
            String[] nums = line.split(" ");
            for (String num : nums) {
                repToRecordMap.put(Integer.parseInt(num), " ");
                if (repToRecordMap.size() > 5) {
                    repToRecordMap.remove(repToRecordMap.firstKey());
                }
            }
        }
        @Override
        protected void cleanup(Context context) {
            for (Integer i : repToRecordMap.keySet()) {
                try {
                    context.write(NullWritable.get(), new IntWritable(i));
                } catch (Exception e) {
                    e.printStackTrace();
                }
            }
        }
    }
    

(2)Reduce阶段实现

  • 根据Map阶段的输出结果形式,同样在cn.itcast.mr.topN包下,自定义Reducer类TopNReducer

  • 主要用于编写TreeMap自定义排序规则,当需求取最大值时,只需要在compare()方法中返回正数即可满足倒序排列,reduce()方法依然是要满足时刻判断TreeMap中存放数据是前五个数,并最终遍历输出最大的5个数。

  • TopNReducer.java:

    package cn.itcast.mr.topN;
    //Reduce阶段实现
    import java.io.IOException;
    import java.util.Comparator;
    import java.util.TreeMap;
    
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.mapreduce.Reducer;
    
    public class TopNReducer extends Reducer<NullWritable, IntWritable, NullWritable, IntWritable> {
    
        private TreeMap<Integer, String> repToRecordMap = new TreeMap<Integer, String>(new Comparator<Integer>() {
    
            //返回一个基本类型的整型,谁大谁排后面.
            //返回负数表示:o1 小于o2
            //返回0表示:表示:o1和o2相等
            //返回正数表示:o1大于o2。
            public int compare(Integer a, Integer b) {
                return b - a;
            }
        });
        public void reduce(NullWritable key, Iterable<IntWritable> values, Context context)
                throws IOException, InterruptedException {
            for (IntWritable value : values) {
                repToRecordMap.put(value.get(), " ");
                if (repToRecordMap.size() > 5) {
                    repToRecordMap.remove(repToRecordMap.firstKey());
                }
            }
            for (Integer i : repToRecordMap.keySet()) {
                context.write(NullWritable.get(), new IntWritable(i));
            }
        }
    }
    

(3)Driver程序主类实现

  • 编写MapReduce程序运行主类TopNDriver

  • 主要用于对指定的本地D:\topN\input目录下的源文件(需要提前准备)实现TopN分析,得到文件中最大的5个数,并将结果输入到本地E:\hadoop\fileStorage\TopN\output\dow目录下。

  • TopDriver.java:

    package cn.itcast.mr.topN;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    public class TopNDriver {
        public static void main(String[] args) throws Exception {
            Configuration conf = new Configuration();
    
            Job job = Job.getInstance(conf);
    
            job.setJarByClass(TopNDriver.class);
            job.setMapperClass(TopNMapper.class);
            job.setReducerClass(TopNReducer.class);
    
            job.setNumReduceTasks(1);
    
            job.setMapOutputKeyClass(NullWritable.class);// map阶段的输出的key
            job.setMapOutputValueClass(IntWritable.class);// map阶段的输出的value
    
            job.setOutputKeyClass(NullWritable.class);// reduce阶段的输出的key
            job.setOutputValueClass(IntWritable.class);// reduce阶段的输出的value
    
            FileInputFormat.setInputPaths(job, new Path("E:\\hadoop\\fileStorage\\TopN\\input"));
            FileOutputFormat.setOutputPath(job, new Path("E:\\hadoop\\fileStorage\\TopN\\output\\dow"));
    
            boolean res = job.waitForCompletion(true);
            System.exit(res ? 0 : 1);
        }
    }
    

2、效果测试

(1)程序执行结果:

image-20240419102525820

(2)本地文件查看:

image-20240419102744965

(3)打开part-r-00000:

image-20240419102818712

posted @ 2024-04-19 10:34  朝暮青丝  阅读(107)  评论(0编辑  收藏  举报