干货--安装eclipse-hadoop-plugin插件及HDFS API编程两个遇到的重要错误的解决

在Windows的eclipse上写hdfs的API程序,都会遇到两个错误,在网上查了很多资料,都没有解决的办法,经过了很多时间的研究,终于把这个问题解决了

 

错误是 1.java.io.IOException :HADOOP_HOME or hadoop.home.dir are not set.

               2.java.io.IOException:could not locate executable D:\hadoop-2.6.4\hadoop-2.6.4\bin/winutils.exe in the Hadoop binaries.

 

,先来讲安装,安装完后再测试,那才是重点部分,因为错误就会发生在那,难倒了不知道多少人,网上很多求助的都没有解决

 

首先来安装eclipse-hadoop-plugin插件(安装了的可以跳过,直接看下面错误是怎么解决的)需要用到下面这个Jar包,具体所有用到的包我后面会上传,会把地址写到这篇文章的最后

过程看下图

 

 

接着重启eclipse,然后按下图操作

 

 

接着OK

接着再按下图操作

 

 

 

创建一个location位置

编辑一下内容

完成后,可以看到下面错误(可能会弹出一个对话框,有错,不要管,没事)

看到这个图就说明你成功了

 

接着要进行测试了,测试怎么能少jar包了,看下面的图,加入jar包到Hadoop工程来

 

 

 OK,jar包引入到eclipse后就来测试了,重点部分来了

看见没,报了一个错,是不是很多人都遇到了,看下面的解决方案

配置一些HADOOP_HOME的环境变量,把它加入到PATH系统环境变量中,具体看图

 

往PATH中加入%HADOOP_HOME%\bin;%HADOOP_HOME%\sbin;(注意,每个人的解压路径都不同,不要完全照我的来,除非你的解压路径和我一样,我的解压到D盘了)

 

重启eclipse,然后再测试,注意,又报了一个错,是不是很奇怪,因为少了一个东西,具体看图

 

少什么就加什么,看jar包解压后加入到解压的那个文件的bin目录下即可

 

 

 

 

再重启eclipse后运行,测试

 

 

终于成功了!!!

需要jar包的朋友可以去  http://download.csdn.net/detail/tanggao1314/9500056和  http://download.csdn.net/detail/tanggao1314/9500061下载找到相关对应的包,因为文件上传不能太大,有一个hadoop-2.6.4.tar.gz不能上传,有需要的朋友可以联系我,我单独发

posted @ 2016-10-09 13:58  专注it  阅读(195)  评论(0编辑  收藏  举报