hadoop-3.1.2分布式搭建

一、准备工作

三台虚拟机:

master、node1、node2

时间同步
关闭防火墙:

systemctl stop firewalld

查看防火墙状态:

systemctl status firewalld

取消防火墙自启:

systemctl disable firewalld

修改主机名

三台分别执行 vim /etc/hostname 并将内容指定为对应的主机

静态IP配置

vim /etc/sysconfig/network-scripts/ifcfg-ens33

关闭NetworkManager,并取消开机自启

systemctl stop NetworkManager
systemctl disable NetworkManager
systemctl status NetworkManager

免密登录

1、生成密钥
ssh-keygen -t rsa
2、配置免密登录
ssh-copy-id master
ssh-copy-id node1
ssh-copy-id node2
3、测试免密登录
ssh node1

配置好映射文件:

vim /etc/hosts
192.168.6.101 master
192.168.6.102 node1
192.168.6.103 node2

配置jdk

java -version

二、hadoop-3.1.1分布式搭建

1、上传解压配置环境变量

  • 解压

tar -zxvf hadoop-3.1.2.tar.gz

  • 配置环境变量

vim /etc/profile

  • 使环境变量生效

source /etc/profile

2、修改配置文件

  • 1、进入hadoop配置文件所在位置,修改hadoop配置文件

cd /usr/local/soft/hadoop-3.1.2/etc/hadoop

  • 2、修改core-site.xml配置文件,在configuration中间增加配置
<configuration>
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://master:9000</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/local/soft/hadoop-3.1.2/tmp</value>
</property>
<property>
  <name>fs.trash.interval</name>
  <value>1440</value>
</property>
</configuration>

  • 3、修改hdfs-site.xml配置文件,在configuration中间增加配置
<configuration>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
<property>
  <name>dfs.permissions</name>
  <value>false</value>
</property>
</configuration>

  • 4、修改yarn-site.xml配置文件,在configuration中间增加配置
<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>master</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>
<property>
  <name>yarn.log-aggregation-enable</name>
  <value>true</value>
</property>

  • 5、修改mapred-site.xml配置文件,在configuration中间增加配置
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>

    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>master:10020</value>
    </property>

    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>master:19888</value>
    </property>
</configuration>

  • 6、修改hadoop-env.sh配置文件
export JAVA_HOME=/usr/local/soft/jdk1.8.0_171

export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

  • 7、修改 workers 配置文件
node1
node2

  • 8、初始化hdfs

hdfs namenode -format

  • 9、启动hadoop

start-all.sh

master

node1

node2

  • 10、停止hadoop

stop-all.sh

三、格式化集群

  • 1、关闭集群

stop-all.sh

  • 2、删除每个节点的hadoop根目录下的tmp目录

rm -rf tmp/

  • 3、重新格式化 在hadoop的bin目录下执行

hdfs namenode -format

  • 4、重新启动

start-all.sh

posted @ 2024-11-01 22:31  w我自横刀向天笑  阅读(3)  评论(0编辑  收藏  举报