Call to localhost/127.0.0.1:9000 failed on connection exception:java.net.ConnectException的解决方案
作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/
在启动hadoop时,出现了如下错误:
Call From java.net.UnknownHostException: ubuntu-larntin: ubuntu-larntin to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused;
而且启动datanode、yarn都正常,只有namenode一直挂掉
解决方案如下:
wrr@ubuntu:~$ hadoop namenode -format
之后,重新启动所有的集群,即可
wrr@ubuntu:~$ cd /home/wrr/java/hadoop-2.7.6/sbin wrr@ubuntu:~/java/hadoop-2.7.6/sbin$ ./hadoop-daemon.sh start namenode starting namenode, logging to /home/wrr/java/hadoop-2.7.6/logs/hadoop-wrr-namenode-ubuntu.out wrr@ubuntu:~/java/hadoop-2.7.6/sbin$ jps 8307 DataNode 9317 NameNode 7431 9352 Jps 8476 ResourceManager
之后,再次在eclipse上运行程序,就没问题了。
新建了一个java文件
import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class HDFSFileIfExist { public static void main(String[] args){ try{ String fileName = "test"; Configuration conf = new Configuration(); conf.set("fs.defaultFS", "hdfs://localhost:9000"); conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem"); FileSystem fs = FileSystem.get(conf); if(fs.exists(new Path(fileName))){ System.out.println("文件存在"); }else{ System.out.println("文件不存在"); } }catch (Exception e){ e.printStackTrace(); } } }
判断当前hadoop-2.7.6目录下是否存在test文件
如果想看更多关于java API的内容,可以看大数据技术原理与应用 第三章 分布式文件系统HDFS 学习指南_厦大数据库实验室博客