Centos7安装hadoop2.7.5(单节点)

1.安装Java JDK

#编辑配置文件
vim /etc/profile   
      
#添加以下内容
export JAVA_HOME=/usr/local/java/jdk1.7.0_79
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

#使环境变量生效
source /etc/profile

#查看环境变量配置是否成功
java -version

2.创建一个新用户

#新建用户
useradd hadoop

#设置密码
passwd hadoop

3.下载Hadoop

hadoop-2.7.5.tar.gz

#解压tar包
tar xfz hadoop-2.7.5.tar.gz

#移动到/opt目录
mkdir /opt/hadoop
mv hadoop-2.7.5/* /opt/hadoop

#更改目录所有者为hadoop
chown -R hadoop:hadoop /opt/hadoop/

4.配置ssh免密登录

*#登录hadoop用户
su - hadoop

#首先,生成SSH秘钥,生成的私钥文件默认位置是~/.ssh/id_rsa.pub
ssh-keygen -t rsa 

#将私钥写入~/.ssh/authorized_keys
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

#尝试使用ssh登陆localhost,应该不再需要输入密码
ssh localhost

#非root用户设置本地ssh免密登录失败,需要给authorized_keys文件授权
chmod 710 ~/.ssh/authorized_keys
ssh localhost

5.配置hadoop

  • 添加环境变量,编辑/etc/profile文件
vim /etc/profile  
  • 配置hadoop环境变量
export HADOOP_HOME=/opt/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
  • 使环境变量生效
source /etc/profile
  • 编辑hadoop-env.sh文件
cd $HADOOP_HOME/etc/hadoop
vim hadoop-env.sh
  • 将export JAVA_HOME=${JAVA_HOME}改为如下
export JAVA_HOME=/usr/local/java/jdk1.7.0_79
  • 编辑core-site.xml文件,configuration中的内容
<configuration>
<property>
  <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
</property>
</configuration>
  • 编辑hdfs-site.xml文件,configuration中的内容
<configuration>
<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>
 
<property>
  <name>dfs.name.dir</name>
  <value>file:///opt/hadoop/hadoopdata/namenode</value>
</property>
 
<property>
  <name>dfs.data.dir</name>
  <value>file:///opt/hadoop/hadoopdata/datanode</value>
</property>
</configuration>
  • 创建目录
mkdir /opt/hadoop/hadoopdata
mkdir /opt/hadoop/hadoopdata/namenode
mkdir /opt/hadoop/hadoopdata/datanode
  • 创建mapred-site.xml文件
cp mapred-site.xml.template mapred-site.xml
  • 编辑mapred-site.xml文件,configuration中的内容
<configuration>
 <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
 </property>
</configuration>
  • 编辑yarn-site.xml文件,configuration中的内容
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property> 
</configuration>
  • 初始化HDFS文件系统
hdfs namenode -format

6.启动服务

#进入sbin文件夹
cd /opt/hadoop/sbin

#启动Hadoop服务
start-dfs.sh

#启动yarn
start-yarn.sh

#查看服务运行状态
jps

7.测试

访问主机端口50070或8088查看



作者:Mr_Gao_
链接:https://www.jianshu.com/p/68087004baa0
來源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。
posted @ 2018-08-03 15:42  DoubleW  阅读(929)  评论(0编辑  收藏  举报