hadoop之MapReduce输入(split)输出

Split分割
在执行mapreduce之前,原始数据被分割成若干split,每个split作为一个map任务的输入,
在map执行过程中split会被分解成一个个记录(key-value对),map会依次处理每一个记录。
(Key:偏移量,不是行数)
FileInputFormat:
        FileInputFormat是所有以文件作为数据源的InputFormat实现的基类,FileInputFormat
        保存作为job输入的所有文件,并实现了对输入文件计算splits的方法。至于获得记录的
        方法是有不同的子类进行实现的;
        1) FileInputFormat只划分比HDFS block大的文件,所以FileInputFormat划分的结果是
           这个文件或者是这个文件中的一部分.                
        2) 如果一个文件的大小比block小,将不会被划分,这也是Hadoop处理大文件的效率要比
           处理很多小文件的效率高的原因。
        3) 当Hadoop处理很多小文件(文件大小小于hdfs block大小)的时候,由于FileInputFormat
          不会对小文件进行划分,所以每一个小文件都会被当做一个split并分配一个map任务,导致
          效率底下。
        例如:
             一个1G的文件,会被划分成16个64MB的split,并分配16个map任务处理,而10000个
             100kb的文件会被10000个map任务处理。
 
获得了输入文件后,FileInputFormat是怎样将他们划分成splits的呢?
input file -->split -->map task
计算SplitSize的函数很简单:
       splitSize = max(minsize,min(maxSize,blockSize)) = 64M;
       maxSize = mapred.max.split.size 默认最大值整数值
       minSize = mapred.min.split.size 默认0
 
那么我们如何处理同一行垮Split问题呢?
首先map任务getSplit读入一个split-->recordReader一行一行读取数据,如果有一行数据在
两个split中,map读入第一个split后,会去读取留在另一个split中的半行;然而另一个map
读入第二个split时,会自动跳过第一个换行符;
 
  //此方法每次只读取一行数据,key为偏移量,value为本行数据
public void map(Object key, Text value, Context context)
   throws IOException, InterruptedException {
        StringTokenizer itr = new StringTokenizer(value.toString());
        while (itr.hasMoreTokens()) {
        word.set(itr.nextToken());
        context.write(word, one);
   }
}            
分割成split(不支持的除外)比如:1G的文件切割成64M,放到一个map里面,如果不支持直接把1G
放到map里面
解释map方法中的(key偏移量-value对):
abcdefghigklmnopqrstuvwxyz        key = 0     value=abcdefghigklmnopqrstuvwxyz  
abcdefghigklmnopqrstuvwxyz        key = 26   value=abcdefghigklmnopqrstuvwxyz  
abcdefghigklmnopqrstuvwxyz        key = 52   value=abcdefghigklmnopqrstuvwxyz    
 
 
 
 
 
posted on 2013-04-25 12:57  北京_飞狐  阅读(2556)  评论(0编辑  收藏  举报