Hadoop配置

Hadoop配置

一、配置jdk

二、配置ssh及免密登录

三、上传hadoop2.6.4.tar.gz文件到linux1

四、创建安装目录,并把hadoop2.6.4.tar.gz文件解压到目录中

下载地址:http://hadoop.apache.org/releases.html

命令:tar -zxvf hadoop-2.6.4.tar.gz 

我的解压目录:/root/app/hadoop

五、配置hadoop环境变量

vi /etc/profile

配置hadoop的路径

export JAVA_HOME=/root/app/jdk/jdk1.8.0_152
export HADOOP_HOME=/root/app/hadoop/hadoop-2.6.4
export PATH=$PATH:$JAVA_HOME/bin
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

 

使环境变量生效

source /etc/profile

六、进入hadoop配置文件目录

[root@linux1 hadoop]# cd /root/app/hadoop/hadoop-2.6.4/etc/hadoop/
[root@linux1 hadoop]# ll
总用量 152
-rw-r--r--. 1 root root  4436 5月  24 2017 capacity-scheduler.xml
-rw-r--r--. 1 root root  1335 5月  24 2017 configuration.xsl
-rw-r--r--. 1 root root   318 5月  24 2017 container-executor.cfg
-rw-r--r--. 1 root root   963 12月 25 23:46 core-site.xml
-rw-r--r--. 1 root root  3670 5月  24 2017 hadoop-env.cmd
-rw-r--r--. 1 root root  4238 12月 25 23:49 hadoop-env.sh
-rw-r--r--. 1 root root  2598 5月  24 2017 hadoop-metrics2.properties
-rw-r--r--. 1 root root  2490 5月  24 2017 hadoop-metrics.properties
-rw-r--r--. 1 root root  9683 5月  24 2017 hadoop-policy.xml
-rw-r--r--. 1 root root   775 5月  24 2017 hdfs-site.xml
-rw-r--r--. 1 root root  1449 5月  24 2017 httpfs-env.sh
-rw-r--r--. 1 root root  1657 5月  24 2017 httpfs-log4j.properties
-rw-r--r--. 1 root root    21 5月  24 2017 httpfs-signature.secret
-rw-r--r--. 1 root root   620 5月  24 2017 httpfs-site.xml
-rw-r--r--. 1 root root  3523 5月  24 2017 kms-acls.xml
-rw-r--r--. 1 root root  1325 5月  24 2017 kms-env.sh
-rw-r--r--. 1 root root  1631 5月  24 2017 kms-log4j.properties
-rw-r--r--. 1 root root  5511 5月  24 2017 kms-site.xml
-rw-r--r--. 1 root root 11291 5月  24 2017 log4j.properties
-rw-r--r--. 1 root root   938 5月  24 2017 mapred-env.cmd
-rw-r--r--. 1 root root  1383 5月  24 2017 mapred-env.sh
-rw-r--r--. 1 root root  4113 5月  24 2017 mapred-queues.xml.template
-rw-r--r--. 1 root root   844 12月 25 23:50 mapred-site.xml.template
-rw-r--r--. 1 root root    21 12月 26 00:10slaves
-rw-r--r--. 1 root root  2316 5月  24 2017 ssl-client.xml.example
-rw-r--r--. 1 root root  2268 5月  24 2017 ssl-server.xml.example
-rw-r--r--. 1 root root  2237 5月  24 2017 yarn-env.cmd
-rw-r--r--. 1 root root  4567 5月  24 2017 yarn-env.sh
-rw-r--r--. 1 root root   888 12月 25 23:53 yarn-site.xml

七、配置五个文件

7.1core-site.xml

<configuration>
    <property>   
        <name>fs.defaultFS</name>
        <value>hdfs://linux1:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/root/app/hadoop/hadoopdata</value>
    </property> 
</configuration>

7.2 hadoop-env.sh

# The java implementation to use.
export JAVA_HOME=/root/app/jdk/jdk1.8.0_152

7.3 mapred-site.xml.template

<configuration>
    <property>  
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property> 
</configuration>

 将模版重命名

mv mapred-site.xml.template mapred-site.xml

7.4 yarn-site.xml

<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>linux1</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

yarn的主节点在生产环境下和hdfs的主节点是分开的

yarn的从节点和hdfs的从节点在生产环境下是放在同一台机器上

7.5 slaves

这里只配置从节点

八、把配置好的hadoop文件发到所有的从节点

 新建patch.sh文件

#!/bin/bash
for((i=2;i<5;i++))
do
    scp -r /etc/profile root@linux$i:/etc/profile
    scp -r /root/app/hadoop root@linux$i:/root/app/hadoop
done

给文件授权,让它变成可执行

chmod u+x patch.sh

 执行脚本

./patch.sh 

九、格式化hdfs,关闭防火墙,启动hdfs

hadoop namenode –format
service  iptables stop
start-dfs.sh

浏览器输入:http://linux1:50070

 

十、介绍几个命令

-help            

功能:输出这个命令参数手册

-ls                 

功能:显示目录信息

示例: hadoop fs -ls hdfs://linux1:9000/

备注:这些参数中,所有的hdfs路径都可以简写

-->hadoop fs -ls /   等同于上一条命令的效果

-mkdir              

功能:在hdfs上创建目录

示例:hadoop fs  -mkdir  -p  /aaa/bbb/cc/dd

-moveFromLocal           

功能:从本地剪切粘贴到hdfs

示例:hadoop  fs  -moveFromLocal  /home/hadoop/a.txt  /aaa/bbb/cc/dd

-moveToLocal             

功能:从hdfs剪切粘贴到本地

示例:hadoop  fs  -moveToLocal   /aaa/bbb/cc/dd  /home/hadoop/a.txt

--appendToFile 

功能:追加一个文件到已经存在的文件末尾

示例:hadoop  fs  -appendToFile  ./hello.txt  hdfs://linux1:9000/hello.txt

可以简写为:

Hadoop  fs  -appendToFile  ./hello.txt  /hello.txt

 

-cat 

功能:显示文件内容 

示例:hadoop fs -cat  /hello.txt

 

-tail                

功能:显示一个文件的末尾

示例:hadoop  fs  -tail  /weblog/access_log.1

-text                 

功能:以字符形式打印一个文件的内容

示例:hadoop  fs  -text  /weblog/access_log.1

手册:http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html#FS+Shell

 

posted @ 2017-12-25 17:32  啸傲风月  阅读(485)  评论(0编辑  收藏  举报