Linux下配置Hadoop 1.2.1

  首先要下载hadoop的包,版本选择1.2.1的,下载地址为:http://mirrors.cnnic.cn/apache/hadoop/common/hadoop-1.2.1/

  

  这里可以下载hadoop-1.2.1-tar.gz包括源码或者hadoop-1.2.1-bin.tar.gz执行包不包括源码,两个文件大小差不多正好是一倍关系

  下载之后通过tar -xzvf hadoop-1.2.1.tar.gz进行解压,解压后放到我们指定的目录中,然后进入conf目录开始配置文件

  主要就是配置hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml这四个文件,使用vim打开配置

  首先是hadoop.env.sh

  

  JAVA_HOME这个地方把注释去掉,换成jdk的目录,保存退出

  然后是core-site.xml,直接在<configuration>标签之间添加代码即可

  

  第一个属性是hadoop的工作目录,就是/hadoop,第二个是dfs文件系统节点目录,第三个就是本地的服务器端口号是9000

  hdfs-site.xml 配置数据存放目录

1 <configuration>
2      <property>
3          <name>dfs.data.dir</name>
4          <value>/hadoop/data</value>
5      </property>
6 </configuration>

  mapred-site.xml

1 <configuration>
2      <property>
3          <name>mapred.job.tracker</name>
4          <value>localhost:9001</value>
5      </property>
6 </configuration>

  保存之后,可以把hadoop添加到环境变量中,也可以不添加,

  然后按之前说的配置ssh免登陆

  最后执行hadoop下的bin/start-all.sh启动hadoop的进程

  此时访问http://localhost:50030或者http://localhost:50070可以正常打开页面证明配置成功

  然后输入命令jps回车可以看到打开进程和端口,说明hadoop单机模式的配置就成功了

  

  下面可以按照官方文档提供的方法进行测试,能正常输出就可以了

  

  如果中间有问题的话,可以考虑编辑/etc/hosts文件最后一行添加:

  127.0.0.1   计算机名

  计算机名可以通过命令hostname查看,

  如果通过web访问连接失败,可以关闭防火墙,关闭命令是:

service iptables stop

  高版本红帽使用:

/bin/systemctl stop iptables.service

  或者

/etc/init.d/iptables stop

 

  

posted @ 2016-01-21 17:53  小得盈满  阅读(1217)  评论(0编辑  收藏  举报