windows中eclipse调试hadoop

  下载eclipse:https://www.eclipse.org/downloads/eclipse-packages

  下载hadoop eclipse插件:https://github.com/winghc/hadoop2x-eclipse-plugin/tree/master/release/hadoop-eclipse-plugin-2.6.0.jar

  下载hadoop:http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz

  下载hadoop2.7.1的window下编译好的bin目录:http://url.cn/4EO196a

   1、配置hadoop环境变量

    将下载的hadoop-2.7.1.tar.gz进行解压,复制解压路径,配置到系统环境变量中

    

    

    解压下载hadoop windowsbin目录包

    

    将解压出来的内容复制到hadoop-2.7.1\bin 目录中,再将hadoop.dll文件复制到C:\Windows\System32中,然后重启机器;

  2、配置eclipse

    打开eclipse ,选择window/Peferences设置hadoop安装路径

    

    在eclipse中的MapReduce面板右击新建hadoop localtion

    

   在弹窗的面板中输入hadoop服务器的DFS Master ip和端口

   

   注意由于本机使用的是administrator的用户,所以访问服务器的DFS可能会有权限问题,可master服务器的hadoop/etc/hadoop/hdfs-site.xml 中添加如下配置

<property>
<name>dfs.permissions</name>
<value>false</value> 
</property>

 

   完成后可在Project Exploer中看到如下界面

   

  3、新建hadoop项目

     

    

    WordCount.java代码

package com.apache.hadoop.examples;

import java.io.IOException;
import java.util.StringTokenizer;
 
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;
 
public class WordCount {
     public static class TokenizerMapper 
     extends Mapper<Object, Text, Text, IntWritable>{

  private final static IntWritable one = new IntWritable(1);
  private Text word = new Text();

  public void map(Object key, Text value, Context context
                  ) throws IOException, InterruptedException {
    StringTokenizer itr = new StringTokenizer(value.toString());
    while (itr.hasMoreTokens()) {
      word.set(itr.nextToken());
      context.write(word, one);
    }
  }
}

public static class IntSumReducer 
     extends Reducer<Text,IntWritable,Text,IntWritable> {
  private IntWritable result = new IntWritable();

  public void reduce(Text key, Iterable<IntWritable> values, 
                     Context context
                     ) throws IOException, InterruptedException {
    int sum = 0;
    for (IntWritable val : values) {
      sum += val.get();
    }
    result.set(sum);
    context.write(key, result);
  }
}

public static void main(String[] args) throws Exception {
  Configuration conf = new Configuration();
  Job job = new Job(conf, "word count");
  job.setJarByClass(WordCount.class);
  job.setMapperClass(TokenizerMapper.class);
  job.setCombinerClass(IntSumReducer.class);
  job.setReducerClass(IntSumReducer.class);
  job.setOutputKeyClass(Text.class);
  job.setOutputValueClass(IntWritable.class);
  FileInputFormat.addInputPath(job, new Path(args[0]));
  FileOutputFormat.setOutputPath(job, new Path(args[1]));
  System.exit(job.waitForCompletion(true) ? 0 : 1);
}
}

 

    在运行main方法前先配置参数,并且在项目跟目录(myFirstHadoop)下面新建input文件夹,再往里面添加测试文件,文件里面随意添加一些单词

    

    执行后会在myFirstHadoop下出现一个output文件夹,里面的文件中会有运行的结果,注意下次运行的时候要删除output目录

    

    

  4、在eclipse中连接服务器hdfs测试

    4.1、复制配置文件

      在master服务器中下载三个配置文件core-site.xml,hdfs-site.xml,log4j.properties,并复制到项目的src下

      

    4.2、修改运行参数

      由于window中调用服务器的时候是使用的administrator账号,而服务器fdfs在使用相对路径时是相对/user/用户名的路径

      而我们服务器中没有administrator用户,所以要将运行参数改成绝对路径

        

      如图我使用的是hadoop的账号,运算后的输入路径为/user/hadoop/input,输出路径为/user/hadoop/output

    4.3、新建目录并上传数据

      

      如图在user添加hadoop和input的目录与我们运行参数中的配置对应,然后上传我们的测试文件wordcount.txt

    4.4、运行测试程序

      运行配置和输入数据都准备好后执行程序,将在/user/hadoop/output中看到输出结果,结果应该和3中本地测试的结果一致;

    4.5、导出测试的jar包到服务器运行

      测试ok后可以将jar包进行导出,方便直接在服务器中运行使用

      在项目上右击,选择Export,再选择JAR file

      

      next后选择导出路径,将导出的wordcount.jar上传到hadoop的master服务器的/opt目录

      通过hdfs dfs -put /opt/wordcount.txt input 往input目录中添加测试文件,文件的内容跟eclipse中一致,如果input目录不存在则要先新建input目录

        hdfs dfs -mkdir input

      执行:

       hadoop jar /opt/wordcount.jar com.apache.hadoop.examples.WordCount input/wordcount.txt output

      通过

       hdfs dfs -cat /opt/test.txt output/part-r-00000    

      可看到输出和之前测试一样的结果

   

 

      

 

posted @ 2017-08-17 16:08  一曲秋殇  阅读(177)  评论(0编辑  收藏  举报