hadoop安装详细步骤

安装包下载地址:https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.10.0/hadoop-2.10.0.tar.gz

1.卸载CentOS7自带jdk1.8,安装自己的jdk并设置环境变量

[root@localhost network-scripts]# rpm -qa |grep jdk
java-1.8.0-openjdk-headless-1.8.0.262.b10-1.el7.x86_64
copy-jdk-configs-3.3-10.el7_5.noarch
java-1.7.0-openjdk-headless-1.7.0.261-2.6.22.2.el7_8.x86_64
java-1.8.0-openjdk-1.8.0.262.b10-1.el7.x86_64
java-1.7.0-openjdk-1.7.0.261-2.6.22.2.el7_8.x86_64

 

yum -y remove java-1.8.0-openjdk-headless-1.8.0.262.b10-1.el7.x86_64
yum -y remove copy-jdk-configs-3.3-10.el7_5.noarch
yum -y remove java-1.7.0-openjdk-headless-1.7.0.261-2.6.22.2.el7_8.x86_64
yum -y remove java-1.8.0-openjdk-1.8.0.262.b10-1.el7.x86_64
yum -y remove java-1.7.0-openjdk-1.7.0.261-2.6.22.2.el7_8.x86_64

#判断有没有卸载好
java -version
[root@localhost network-scripts]# mkdir -p /usr/local/soft/java

把jdk包上传到/usr/local/soft/java ,并解压 tar -xvf jdk-8u311-linux-i586.tar.gz ,之后配置环境变量

复制代码
vi /etc/profile #添加自己的jdk目录环境变量 root用户 对所有用户生效

export JAVA_HOME=/usr/local/soft/java/jdk1.8.0_311  #注意这里是自己的jdk解压目录 export PATH=$JAVA_HOME/bin:$PATH export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

#用 source /etc/profile 命令是环境变量生效

#解压jdk
tar -xvf jak-8u311-linux-i586.tar.gz
#判断有没有安装好
java -version
#若报错bash: /usr/local/soft/java/jdk1.8.0_311/bin/java: /lib/ld-linux.so.2: bad ELF interpreter: No such file or directory
#执行下面命令
yum install glibc.i686
复制代码

2.设置主机名

vi /etc/hosts

192.168.1.11 master
192.168.1.12 node1
192.168.1.13 node2

vi /etc/hosts #三台服务器做同样的操作

192.168.1.11 master
192.168.1.12 node1
192.168.1.13 node2

3.服务器之间设置免密登录

#master节点运行
ssh-keygen
-t rsa ssh-copy-id -i node1 ssh-copy-id -i node2

4.安装hadoop

把安装包上传到 /usr/local/soft 路径

tar -zxvf hadoop-2.10.0.tar.gz

a)  在/usr/local/soft/hadoop-2.10.0/etc/hadoop 路径修改相应文件

      1) 修改 slaves 文件中节点为

            node1 

            node2

       2)在 hadoop-env.sh 文件增加下面语句

             export JAVA_HOME=/usr/local/soft/java/jdk1.8.0_311

 

        3)修改core-site.xml文件 为下面配置 /usr/local/soft/hadoop-2.10.0 为实际安装路径

复制代码
<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://master:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/usr/local/soft/hadoop-2.10.0/tmp</value>
        </property>
        <property>
                 <name>fs.trash.interval</name>
                 <value>1440</value>
        </property>
</configuration>
复制代码

      4)修改 hdfs-site.xml 下面配置

复制代码
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
</configuration>
复制代码

      5)修改yarn-site.xml 为下面配置

复制代码
<configuration>
        <property>
               <name>yarn.resourcemanager.hostname</name>
               <value>master</value>
        </property>
        <property>
               <name>yarn.nodemanager.aux-services</name>
               <value>mapreduce_shuffle</value>
        </property>
        <property>
            <name>yarn.log-aggregation-enable</name>
            <value>true</value>
        </property>
        <property>
            <name>yarn.log-aggregation.retain-seconds</name>
            <value>604800</value>
        </property>
        <property>  
            <name>yarn.nodemanager.resource.memory-mb</name>  
            <value>20480</value>  
        </property>  
        <property>  
           <name>yarn.scheduler.minimum-allocation-mb</name>  
           <value>2048</value>  
        </property>  
        <property>  
        <name>yarn.nodemanager.vmem-pmem-ratio</name>  
        <value>2.1</value>  
    </property>  
</configuration>
复制代码

     6)修改 mapred-site.xml(将mapred-site.xml.template 复制一份为 mapred-site.xml)

复制代码
<configuration>
   <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>  
        <name>mapreduce.jobhistory.address</name>  
        <value>master:10020</value>  
    </property>  
    <property>  
        <name>mapreduce.jobhistory.webapp.address</name>  
        <value>master:19888</value>  
    </property> 
</configuration>
复制代码

b) 同步hadoop解压文件到到node1 node2

       

scp -r /usr/local/soft/hadoop-2.10.0 node1:/usr/local/soft/

scp -r /usr/local/soft/hadoop-2.10.0 node2:/usr/local/soft/

首先看下hadoop-2.10.0目录下有没有tmp文件夹。
如果没有 执行一次格式化命令:
cd /usr/local/soft/hadoop-2.10.0目录下
执行命令:
./bin/hdfs namenode -format
会生成tmp文件。
然后
/usr/local/soft/hadoop-2.10.0目录下
启动执行:./sbin/start-all.sh

验证hdfs: 可以windows电脑登录浏览器(强烈建议chrome浏览器) 地址:192.168.0.11:50070 (ip地址是master的地址)

 

 

————————————————
版权声明:本文为CSDN博主「Kayleigh520」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/Kayleigh520/article/details/121882874

部分取自博客链接:https://www.lmlphp.com/user/16591/article/item/563471/ 

 

posted @   临界稳态  阅读(2594)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
点击右上角即可分享
微信分享提示