win32下开发hadoop
转载自:http://my.oschina.net/muou/blog/408543【木偶:Windows下使用Hadoop2.6.0-eclipse-plugin插件】
对于一些细节地方,我进行了补充。
一.简介
Hadoop2.x之后没有Eclipse插件工具,我们就不能在Eclipse上调试代码,我们要把写好的java代码的MapReduce打包成jar然后在Linux上运行,所以这种不方便我们调试代码,所以我们自己编译一个Eclipse插件,方便我们在我们本地上调试,经过hadoop1.x的发展,编译hadoop2.x版本的eclipse插件比之前简单多了。接下来我们开始编译Hadoop-eclipse-plugin插件,并在Eclipse开发Hadoop。
二.软件安装并配置
1.JDK配置
1) 安装jdk
2) 配置环境变量。JAVA_HOME、CLASSPATH、PATH等设置,这里就不多介绍,网上很多资料
2.Eclipse
1) 下载eclipse-jee-mars-1-win32.zip
2) 解压到本地磁盘,如图所示:
注:
1、eclipse一定要下载jee版,否则后面在eclipse中安装插件后,左边不会显示DFS Locations。或者你暂不不用管这个,等出现这个问题,再重新下个eclipse也行。
2、eclipse的解压路径中不要包含空格,否则后面用ant编译eclipse插件时,会报类似下面的错误:can not found D:\Program\eclipse\plugins。这是因为我把eclipse解压到了D:\Program Files\里,但ant编译插件时,应该是把空格当做了分隔符,于是要求找到D:\Program\eclipse\plugins,但实际上plugins目录应该是D:\Program Files\eclipse\plugins。
3.Ant
1)下载apache-ant-1.9.6-bin.zip
2)解压到一个盘,如图所示:
3)环境变量的配置
新建ANT_HOME=D:\hadoop\apache-ant-1.9.6
在PATH后面加;%ANT_HOME%\bin
4)cmd 测试一下是否配置正确
4.Hadoop
1) 下载hadoop包
hadoop-2.6.0.tar.gz
解压到本地磁盘,如图所示:
下载hadoop2x-eclipse-plugin源代码
1)目前hadoop2的eclipse-plugins源代码由github脱管,下载地址是https://github.com/winghc/hadoop2x-eclipse-plugin,然后在右侧的Download ZIP连接点击下载,如图所示:
2)下载完后,将其解压到本地磁盘,如图所示:
三.编译hadoop-eclipse-plugin插件
1) cmd切换到hadoop2x-eclipse-plugin-master\src\contrib\eclipse-plugin目录,如图所示:
2) 执行ant jar编译生成插件,如下:
ant jar -Dversion=2.6.0 -Declipse.home= D:\hadoop\eclipse -Dhadoop.home= D:\hadoop\hadoop-2.6.0
注:
1、使用ant jar编译生成插件时,可能会卡在ivy-resolve-common,网上的说法很多,比如网络不行等等,我的解决方法是(已验证成功):修改eclipse-plugin\build.xml文件,大概68行的位置(直接ctrl+F,查找compile即可),如下:
作如上修改是因为ivy-resolve-common下载下来的jar包貌似没有什么用,直接去掉这个依赖关系。
2、编译过程中会出现警告,这个没有影响,不用在意。
3) 编译生成的hadoop-eclipse-plugin-2.6.0.jar在新建的build目录下,如下:
四.Eclipse配置hadoop-eclipse-plugin插件
1) 我已经把可以用的插件包上传了,地址如下:
http://download.csdn.net/detail/tingxuelouwq/9389652
注意,我的环境win7 32位,如果你的是64位,请自行编译,或者上网搜。
把hadoop-eclipse-plugin-2.6.0.jar拷贝到D:\hadoop\eclipse\plugins\目录下,重启Eclipse,然后可以看到DFS Locations,这表示插件安装成功。如图所示:
2) 打开Window-->Preferens,可以看到Hadoop Map/Reduc选项,然后指定hadoop-2.6.0的安装路径,如图所示:
3) 配置Map/ReduceLocations
1、点击Window-->Show View -->MapReduce Tools,点击Map/ReduceLocation,如图:
2、点击Map/ReduceLocation选项卡,点击右边小象图标,打开Hadoop Location配置窗口进行配置,如图:
上图中几个参数的说明:
Host:即master(主节点)的ip地址
Map/Reduce中的Port:即mapred-site.xml文件中配置的mapreduce.jobtracker.address的端口号,如下:
DFS中的Port:即core-site.xml文件中配置的fs.default.name的端口号,如下:
4) 查看是否连接成功。
配置好之后,点击DFS Locations的子菜单,可以看到目前我们hdfs上已有的文件,如下:
注:可能一开始点击子菜单时,会出现listening,这是因为eclipse正在连接远程的hadoop集群,要等待一下才能看到。
五.新建MapReduce项目并运行
1) 右击New->Map/Reduce Project,项目名称为WordCount
2) 新建TestWordCount.java,然后在Hadoop的share目录下找到wordcount的案例,拷贝到TestWordCount.java中,如下:
注:wordcount案例的路径为:
D:\hadoop\hadoop-2.6.0\share\hadoop\mapreduce\sources\hadoop-mapreduce-examples-2.6.0-sources.jar
将hadoop-mapreduce-examples-2.6.0-sources.jar解压后,在\org\apache\hadoop\examples可以找到WordCount.java文件。
3) 在hdfs创建一个input目录(输出目录可以不用创建,运行MR时会自动创建),并上传一个file01.txt文件(随便写几个单词),整个过程如下:
//新建input文件夹
[wangqi@node001 ~]$ hdfs dfs -mkdir input
[wangqi@node001 ~]$ hdfs dfs -ls -R /
drwxr-xr-x - wangqi supergroup 0 2016-01-05 10:07 /user
drwxr-xr-x - wangqi supergroup 0 2016-01-05 10:08 /user/wangqi
drwxr-xr-x - wangqi supergroup 0 2016-01-05 10:08 /user/wangqi/input
//新建file01.txt文件,并写几个单词
[wangqi@node001 ~]$ touch file01.txt
[wangqi@node001 ~]$ vim file01.txt
hello world. this is my first hadoop program in eclipse.
I love the world, and I love hadoop.
//将file01.txt文件上传到input文件夹下
[wangqi@node001 ~]$ hdfs dfs -put file01.txt input/
[wangqi@node001 ~]$ hdfs dfs -ls -R /
drwxr-xr-x - wangqi supergroup 0 2016-01-05 10:07 /user
drwxr-xr-x - wangqi supergroup 0 2016-01-05 10:08 /user/wangqi
drwxr-xr-x - wangqi supergroup 0 2016-01-05 10:10 /user/wangqi/input
-rw-r--r-- 2 wangqi supergroup 94 2016-01-05 10:10 /user/wangqi/input/file01.txt
注:因为现在eclipse已经连上了hadoop集群,因此你也可以在elicpse中直接创建这些文件及文件夹。
4) 在TestWordCount.java上右键-Run As-Run Configurations,设置输入和输出目录路径,如图所示:
注:不要忘了写端口号,这里的端口号就是core-site.xml中fs.default.name的端口号。
5) 运行maprecude项目前的一些配置。
在运行TestWordCount.java之前,我们需要做一些配置,否则运行时出各种错误。
(1)配置log4j。
配置log4j的好处是可以从日志中看到出了哪些问题。只需要在src目录下写一个log4j.properties即可,如下:
log4j.properties的内容如下:
log4j.rootLogger=debug,stdout,R
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%5p - %m%n
log4j.appender.R=org.apache.log4j.RollingFileAppender
log4j.appender.R.File=mapreduce_test.log
log4j.appender.R.MaxFileSize=1MB
log4j.appender.R.MaxBackupIndex=1
log4j.appender.R.layout=org.apache.log4j.PatternLayout
log4j.appender.R.layout.ConversionPattern=%p %t %c - %m%n
log4j.logger.com.codefutures=DEBUG
(2)把winutil.exe放到hadoop安装文件的bin目录下,即:
然后配置环境变量HADOOP_HOME和Path,即:
注:winutil.exe可以到网上搜索,注意是win32位的(我的机子是32位的),并且是hadoop 2.6.0的。网上的大多都是hadoop 2.2.0,并且是64位的,注意一下。或者你可以到如下地址下载:
http://download.csdn.net/detail/tingxuelouwq/9390307
缺少winutil.exe文件,在运行时会报如下错误:
Exception in thread "main" java.lang.NullPointerException
at java.lang.ProcessBuilder.start
(3)把hadoop.dll放到C:\Windows\System32目录下,然后重启电脑。(最好将hadoop.dll也拷贝一份到hadoop安装文件的bin目录下)。
注:缺少hadoop.dll文件,在运行时会报如下错误:
Exception in thread "main"java.lang.UnsatisfiedLinkError:
org.apache.hadoop.io.nativeio.NativeIO$Windows.access0
(4)修改hdfs-site.xml文件,添加如下代码:
注:这一步是设置对hadoop中目录的访问权限(在正式的服务器上不要这样设置),如果不设置,会报如下错误:
org.apache.hadoop.security.AccessControlException: Permissiondenied: user=wangqi, access=WRITE,inode="/user/wangqi/output":root:supergroup:drwxr-xr-x
6) 在TestWordCount.java上右键-Run As-Run on Hadoop,执行完成后,在output/count目录下有一个统计文件,如图: