hadoop安装笔记-1.准备工作

1.ssh添加用户

2.jdk安装

3.hadoop下载

1.要为hadoop添加ssh用户,为了方便hadoop能够使用安装在根目录下(用于修改非hadoop用户目录下内容,如果hadoop安装在/usr/hadoop下修改日志就需要用到root权限)

过程如下:

然后:/home目录下mkdir hadoop

以后hadoop的临时文件什么的都放在这里

2.jdk
安装可以参照晚上例子,一般而言,我们将jdk放到根目录下,一边不同的用户使用。我放在/usr/jdk下面,那么我们找到/conf/profile并在后面添加如下内容:

JAVA_HOME=/usr/jdk1.7.0_03
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=$JAVA_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$PATH

3.hadoop下载在http://hadoop.apache.org/上可以找到,最好找的是最新版本,我使用的是比最新版hadoop2.0前面的,这样会遇到一些老问题。

下载hadoop之后我们将hadoop解压到了/usr/hadoop目录下,如果需要在系统路径里面添加hadoop home可以按照上面的方法佩hadoop home,但是,这些一般情况下不用的可以免了,在hadoop里面添加java环境(这是hadoop唯一需要配置的地方,其他使用默认都ok):修改hadoop/conf/hadoop-env.sh。将注释了的JAVA_HOME给改成刚安装的java路径

export JAVA_HOME=/usr/jdk1.7.0_03

我们知道,hadoop有三种方式运行:本地运行、为分布式、分布式。

这些都需要我们修改hadoop配置的,我先写我测试使用的本地模式:

进入hadoop/conf修改:core-site.xml

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>l</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/tmp</value>
    </property>
</configuration>
配置里面写着的是dfs的路径,很明显。

然后是修改mapred-site.xml

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>l</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/tmp</value>
    </property>
</configuration>
这里是mapreduce的配置,这也是废话

到这里我们的hadoop就已经配置好了,

尝试运行hadoop namenode -format
格式化我们的dfs位置。

接着运行start-all.sh(这个脚本在hadoop/bin里面)

然后我们可以查看端口50070和50030

posted @ 2012-09-08 10:41  宏定义  阅读(206)  评论(0编辑  收藏  举报