HDFS 笔记配置、启动

下载安装Hadoop、JDK、SSH(SSH要求免密访问)

修改Hadoop配置文件:

  1、../hadoop/etc/hadoop/core-site.xml

<!--配置HDFS默认的文件地址及端口-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<!--临时文件地址-->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/app/tmp</value>
</property>

  2、

<!--hdfs-site.xml-->
<!--默认副本数-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>

3、slaves配置节点(DN)地址
10.xxxxx


配置完成,开始启动:

  1、格式化文件系统(仅第一次执行即可,不要重复执行,格式化一次,就是清空数据一次),命令:./hdfs namenode -format(在bin目录下)

  2、启动NN、DN,在sbin目录下使用命令:./start-dfs.sh

  3、验证是否启动成功,用jps命令:jps  应当启动的进程:Jps、DataNode、SecondaryNameNode、NameNode
      
      验证方式二:浏览器输入地址:http://xxx:50070
  4、停止HDFS,在sib目录下执行命令:./stop-dfs.sh




posted @ 2018-02-26 16:55  猴子1  阅读(139)  评论(0编辑  收藏  举报