3(全分布式安装)

  NN SNN DN
node0001 *    
node0002   * *
node0003     *
node0004     *

 

 

 

 

 

 

1、环境检查:

4台机器jdk安装完成

date  (检查时间,相差不能超过几秒,主从节点ping不通)

date -s "2020-07-18 23:32:00"    (4台机器设置i相同时间)

cat /etc/sysconfig/network    (查看4台机器别名是否设置好)

cat /etc/hosts   (查看ip/别名映射是否设置好 )

cat /etc/sysconfig/selinux (查询安全机制文件是否关闭   SELINUX=disabled)

检查防火墙是否关闭

2、秘钥分发(主节点)

ll -a   (若没有.ssh文件,则ssh localhost    输入密码 exit)

cd .ssh

node0001:scp  id_dsa.pub   node0002:`pwd`/node0001.pub     (发送到node0002的.ssh文件夹)

node0002:cat .ssh/node0001.pub  >> .ssh/authorized_keys    (公钥追加到认证文件里)

node0001:ssh node0002     (完成免密钥登陆)

重复上面操作,分发到node0003\node0004

3、备份伪分布式

cp -r hadoop hadoop_pseude   (在hadoop里etc下执行,hadoop_pseude 为伪分布式配置,以后需要可以改成hadoop,以切换)

4、修改配置文件(主节点)

vi core-site.xml     (换个新文件夹,防止和伪分布式的文件冲突)

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node0001:9000</value>
    </property>
  <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/sxt/hadoop/full</value>
    </property>
</configuration>

vi hdfs-site.xml   (2给DN  使node0002为SNN)

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>node0002:50090</value>
    </property>
</configuration>

vi slaves   (从节点配置   node0002  node0003   node0004)

cd /opt

scp -r sxt/ node0002:`pwd`

scp -r sxt/ node0003:`pwd`

scp -r sxt/ node0004:`pwd`

配置node0002-4  hadoop环境变量并scoure

hdfs namenode -format  (格式化,只有主节点需要node0001)

5、启动集群

start-dfs.sh   (stop-dfs.sh 停集群)

node0001:jps   (只有namenode)

node0002:jps  (datename和secondarynamenode)

node0003/node0004只有datanode

有问题看日志(/opt/sxt/hadoop-2.6.5/logs)

全分布分配方案:
NNSNNDNNODE06*NODE07**NODE08*NODE09*

posted @ 2020-07-19 00:33  bug开发工程师  阅读(104)  评论(0编辑  收藏  举报