0821: aniy hadoop 1-6的步骤安装总结。。我怕自己忘记


 

主要的参考文章:

http://tecadmin.net/setup-hadoop-2-4-single-node-cluster-on-linux/

 

首先:java的安装

http://hermosa-young.iteye.com/blog/1798026

这里说的非常清楚,下载的时候去oracle的官网

注意8u5 代表1.8.0_05.

而我们发现官网此时支持的是8u20

具体代表哪个看自动生成的文件名

 

题外话:

       解压缩应用程序。默认生成在usr/程序名文件夹

       新建用户。在home文件夹。

 

Step 2:

ssh localhost //跟之前安装mpi时一样。遇到问题

http://blog.csdn.net/greemeet/article/details/9284991

 

Step 4.1:

Now edit $HADOOP_HOME/etc/hadoop/hadoop-env.sh file and set JAVA_HOME environment variable

export JAVA_HOME=/opt/jdk1.8.0_05/

务必改成自己的安装路径java

否则后面报错无穷 

另外,进不去文档。可以root加权限

手工一层一层进入

 

Step 4.1:

First we need to set environment variable uses by hadoop. Edit ~/.bashrc file and append following values at end of file.

export HADOOP_HOME=/home/hadoop/hadoop

上面!!这里还有一个问题。我的这个环境变量并不是这个

而是/home/hadoop/hadoop2.4.0

当时我傻傻的未发现这个问题

所以改了我的文件夹名字

其实,改这个就可以啦

细心。多思考,一定成功

 

Step 4.2:

ls后发现没有mapred-site.xml

之后的评论里面也有提到是加template

 

 

这个是因为被前面的Step 4.1给坑了。。

hdfs namenode -format

 

Step 5:

start-dfs.sh

脚本运行时,要求输入hadoop用户名密码

多次输入,不止一次完事。注意

 

Step 6:

http://svr1.tecadmin.net:50070/

网址失败,明显是带有作者个人特色的

尝试localhost:50070失败

后采用openstack思路

本机ip

192.168.179.129:50070成功~

 

 

posted @ 2014-08-21 22:21  爱吃萝卜干  阅读(190)  评论(0编辑  收藏  举报