Hadoop的完全分布式搭建

一、准备虚拟机两台

1.将虚拟机进行克隆https://www.cnblogs.com/the-roc/p/12336745.html

2.1将克隆虚拟机的IP修改一下

vi /etc/sysconfig/network-scripts/ifcfg-ens33

 

 完成后:systemctl restart network

2.2 修改主机名

vim /etc/hostname

reboot 重启生效

2.3修改ip与主机映射

vim /etc/hosts

 

 reboot   重启

二、开始完全分布式搭建

1.1先清空克隆机dfs文件夹的内容

cd /opt/software//hadoop-2.7.7/tmp/dfs/

删除所有   rm -rf *

1.2在原机上添加从节点ip映射

vim /etc/hosts

 

 1.3做ssh免密

生成密钥对   ssh-keygen

  ssh-copy-id hdp05

1.4修改hdfs-site.xfs     

两台虚拟机都需要修改

vim /opt/software/hadoop-2.7.7/etc/hadoop/hdfs-site.xml

 

 1.5把从节点别名加主节点的slaves 配置中

vim /opt/software/hadoop-2.7.7/etc/hadoop/slaves

 

 1.6启动测试  

start-dfs.sh(主节点启动,从节点也会启动DataNode)

http://主机ip :50070       进入网页如图

三.sbin下的脚本启动

1.start-all.sh/stop-all.sh

  启动/停止所有(5个)的软件【NameNode,DataNode,secondarynamenode,nodemanager,resourcesmanager】

2.start-dfs.sh/stop-dfs.sh

  一次性启动/停止3个软件【NameNode,DataNode,secondarymanager】

3.start-yarn.sh/stop-yarn.sh【MapReduce使用】

  一次性启动/停止2个软件【nodemanager,resourcesmanager】

4.hadoop-daemon.sh start XXX

  只想启动/停止其中某一个软件【NameNode,DataNode,secondarymanager】

5.yarn-daemon.sh start XXX

  只想启动/停止其中某一个软件【nodemanager,resourcesmanager】

 

posted @ 2020-02-25 17:53  THEROC  阅读(301)  评论(0编辑  收藏  举报