Java 简单操作hdfs API
注:图片如果损坏,点击文章链接:https://www.toutiao.com/i6632047118376780295/
启动Hadoop出现问题:datanode的clusterID 和 namenode的clusterID 不匹配
从日志中可以看出,原因是因为datanode的clusterID 和 namenode的clusterID 不匹配。
打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs.sh)再执行jps命令可以看到datanode已正常启动。
出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。
验证伪分布环境是否完成
Java操作hdfs
新创建一个maven项目
编写pom文件
编写测试代码
我们运行一下看一看
这种简单的写法是本地模式,所以我们去看下本地文件是不是有了
那么我们怎么上传到我们的虚拟机中呢?即伪分布模式
添加一句配置代码
其中配置部分可以查看core-site.xml文件
然后查看我们的浏览器,文件存在