Loading

MapReduce 案例-统计每台智能音箱设备内容播放时长

需求

统计每台智能音箱设备内容播放时长

原始日志格式

日志id	设备id	appkey(合作硬件厂商)  IP	      自有内容时长(s)    第三方内容时长(s) 网络状态码
001	001577c3   kar890809   120.111.222.99	  1116	           865	          200

输出结果

设备id    自有内容时长(s)  第三方内容时长(s) 总时长
001577c3    11160           9540        20700

整体思路分析
Map 阶段:

  1. 读取一行文本数据,按照制表符切分
  2. 抽取出自有内容时长,第三方内容时长,设备 id
  3. 输出:key -> 设备 id,value:封装一个 bean 对象,bean 对象携带自有内容时长,第三方内容、设备id
  4. 自定义bean对象作为 value 输出,需要实现 writable序列化接口
    Reduce阶段
  5. 在 reduce 方法中直接遍历迭代器,累加时长然后输出即可

生成测试数据

@Test
public void generateData() throws IOException {
    String path = "D:\\Code\\Hadoop\\wordCount\\datalog.txt";
    File file = new File(path);
    if (file.exists()) { // 如果存在则删除
        file.delete();
    }

    BufferedWriter bos = new BufferedWriter(new FileWriter("D:\\Code\\Hadoop\\wordCount\\datalog.txt"));
    Random random = new Random();
    for (int i = 1; i <= 3000000; i++) {
        String driverId = generateWord(4);
        String appKey = generateWord(5);
        String ip = getRandomIp();
        int selfDuration = random.nextInt(1000); // 自有内容时长
        int thirdPartDuration = random.nextInt(1000); // 第三方内容时长
        int status = 200;
        String line = i + "\t" + driverId + "\t" + appKey + "\t" + ip + "\t" + selfDuration + "\t" + thirdPartDuration + "\t" + status + "\n";
        bos.write(line);
    }
    bos.close();
    System.out.println("生成数据文件成功!");
}

/**
 * 生成随机用户名
 */
public static String generateWord(Integer count) {
    StringBuffer str = new StringBuffer();
    for (int i = 1; i <= count; i++) {
        str.append((char) (Math.random() * 5 + 'a'));
    }
    return str.toString();
}


/**
 * 获取一个随机IP
 */
public static String getRandomIp() {

    // 指定 IP 范围
    int[][] range = {
            {607649792, 608174079}, // 36.56.0.0-36.63.255.255
            {1038614528, 1039007743}, // 61.232.0.0-61.237.255.255
            {1783627776, 1784676351}, // 106.80.0.0-106.95.255.255
            {2035023872, 2035154943}, // 121.76.0.0-121.77.255.255
            {2078801920, 2079064063}, // 123.232.0.0-123.235.255.255
            {-1950089216, -1948778497}, // 139.196.0.0-139.215.255.255
            {-1425539072, -1425014785}, // 171.8.0.0-171.15.255.255
            {-1236271104, -1235419137}, // 182.80.0.0-182.92.255.255
            {-770113536, -768606209}, // 210.25.0.0-210.47.255.255
            {-569376768, -564133889}, // 222.16.0.0-222.95.255.255
    };

    Random random = new Random();
    int index = random.nextInt(10);
    String ip = num2ip(range[index][0] + random.nextInt(range[index][1] - range[index][0]));
    return ip;
}

/*
 * 将十进制转换成IP地址
 */
public static String num2ip(int ip) {
    int[] b = new int[4];
    b[0] = (ip >> 24) & 0xff;
    b[1] = (ip >> 16) & 0xff;
    b[2] = (ip >> 8) & 0xff;
    b[3] = ip & 0xff;
    // 拼接 IP
    String x = b[0] + "." + b[1] + "." + b[2] + "." + b[3];
    return x;
}

SpeakBean 实体

package com.orginly.mapreduce.speak;

import org.apache.hadoop.io.Writable;

import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;

/**
 * map输出kv的value类型 需要实现 Writable 序列化接口
 */
public class SpeakBean implements Writable {

    private String driverId; // 设备ID
    private Long selfDuration; // 自有内容时长
    private Long thirdPartDuration; // 第三方内容时长
    private Long totalDuration; // 总时长
    
    // 空参(必须)
    public SpeakBean() {

    }

    // 有参构造
    public SpeakBean(String driverId, Long selfDuration, Long thirdPartDuration) {
        this.driverId = driverId;
        this.selfDuration = selfDuration;
        this.thirdPartDuration = thirdPartDuration;
        this.totalDuration = selfDuration + thirdPartDuration; // 总时长 = 自有时长 + 第三方时长
    }

    // 序列化方法:将内容输出到网络或写入文本中
    @Override
    public void write(DataOutput dataOutput) throws IOException {
        dataOutput.writeUTF(driverId);
        dataOutput.writeLong(selfDuration);
        dataOutput.writeLong(thirdPartDuration);
        dataOutput.writeLong(totalDuration);

    }

    // 反序列化方法
    @Override
    public void readFields(DataInput dataInput) throws IOException {
        driverId = dataInput.readUTF();
        selfDuration = dataInput.readLong();
        thirdPartDuration = dataInput.readLong();
        totalDuration = dataInput.readLong();
    }

    @Override
    public String toString() {
        return "selfDuration:" + selfDuration + "\t" + "thirdPartDuration:" + thirdPartDuration + "\t" + "totalDuration:" + totalDuration;
    }

    public Long getSelfDuration() {
        return selfDuration;
    }

    public Long getThirdPartDuration() {
        return thirdPartDuration;
    }

}

Mapper

package com.orginly.mapreduce.speak;

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

/**
 * Mapper的泛型四个参数,两对kv
 * 第一对kv:输入参数   key=>一行文本的偏移量 value=>一行文本内容
 * 第二对kv:输出参数   key=>map输出的key类型  v:map输出的value类型
 */
public class SpeakMapper extends Mapper<LongWritable, Text, Text, SpeakBean> {

    private Text device_id = new Text();

    @Override
    protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, Text, SpeakBean>.Context context) throws IOException, InterruptedException {
        // 接收到一行数据转为 String 类型
        String str = value.toString();
        // 按照 \t 进行分隔得到设备id、自有时长、第三方时长
        String[] fields = str.split("\t");
        String selfDuration = fields[fields.length - 3];
        String thIrdPartDuration = fields[fields.length - 2];
        String driverId = fields[1];
        // 输出 <设备id,bean对象>
        SpeakBean speakBean = new SpeakBean(driverId, Long.parseLong(selfDuration), Long.parseLong(thIrdPartDuration));
        device_id.set(driverId);
        context.write(device_id, speakBean);
    }


}

Reduce

package com.orginly.mapreduce.speak;

import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;

/**
 * 继承 Reducer 类
 * 有四个泛型,两对 kv
 * 第一对kv要与 Mapper 输出类型一致 (Text,IntWritable)
 * 第二对kv自己设计决定输出结果数据是什么类型
 */
public class SpeakReduce extends Reducer<Text, SpeakBean, Text, SpeakBean> {


    /**
     * @param key     map输出的某一个key, driverId
     * @param values  map输出的kv对中相同key的value的一个集合
     * @param context
     */
    @Override
    protected void reduce(Text key, Iterable<SpeakBean> values, Reducer<Text, SpeakBean, Text, SpeakBean>.Context context) throws IOException, InterruptedException {

        // 每一次调用reduce 方法都是 key 相同的一个集合
        Long selfDuration = 0L;
        Long thirdPartDuration = 0L;
        for (SpeakBean speak : values) { // 累加
            selfDuration += speak.getSelfDuration();
            thirdPartDuration += speak.getThirdPartDuration();
        }
        // 封装为一个 bean 数据
        SpeakBean speakBean = new SpeakBean(key.toString(), selfDuration, thirdPartDuration);
        // 输出
        context.write(key, speakBean);
    }
}

Driver

package com.orginly.mapreduce.speak;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;

public class SpeakDriver {

    public static void main(String[] args) throws IOException, InterruptedException, ClassNotFoundException {
        // 1. 获取配置文件对象,获取 job 对象实例
        Configuration entries = new Configuration();
        Job job = Job.getInstance(entries, "speakDriver");
        // 2. 指定程序 jar 的本地路径
        job.setJarByClass(SpeakDriver.class);
        // 3. 指定 Mapper / Reduce类
        job.setMapperClass(SpeakMapper.class);
        job.setReducerClass(SpeakReduce.class);
        // 4. 指定 Mapper 输出的 kv 数据类型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(SpeakBean.class);
        // 5. 指定最终输出的 kv 数据类型
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(SpeakBean.class);
        // 6. 指定 job 处理的原始数据路径
        FileInputFormat.setInputPaths(job, new Path(args[0]));
        // 7. 指定 job 输出结果路径
        FileOutputFormat.setOutputPath(job, new Path(args[1]));
        // 8. 提交 job 作业
        long start_time = System.currentTimeMillis();
        boolean flag = job.waitForCompletion(true);
        long end_time = System.currentTimeMillis();
        System.out.println("运行时间" + (end_time - start_time) + "ms");
        System.exit(flag ? 0 : 1);
    }

}

验证程序

本地验证

使用 IDEA 运行 Drive 中的 main() 方法
如果出现其他异常请查看 https://www.cnblogs.com/orginly/p/15392871.html

  1. 先自动运行一次,此时会 args 下标异常
    image
  2. 编辑运行配置添加参数
    image
  3. 重新运行
    image
    image

Yarn 集群验证

  1. 把程序打成 jar 包,改名为 wordCount.jar 上传到 Hadoop 集群

image

# 上传到服务器
rz
# 重命名
mv wordCount-1.0-SNAPSHOT.jar wordCount.jar
  1. 启动 Hadoop 集群(Hdfs,Yarn)
  2. 使用 Hadoop 命令提交任务运行

因为是集群,源文件不能存放在本地目录,需要上传至 HFDS 进行处理

hadoop jar wordCount.jar com.orginly.mapreduce.speak.SpeakDriver /mapReduce/datalog.txt /speakoutput

执行成功

image

image

如果执行命令时出现版本过低提示,请安装服务器所使用的 jdk 版本进行 jar 的打包
image

image

posted @ 2021-10-13 15:21  白日醒梦  阅读(110)  评论(0编辑  收藏  举报