hadoop-1.2.1伪分布模式配置

1、hadoop-env.sh

修改 export JAVA_HOME=/Library/Java/Home #增加 JAVA_HOME

2、masters

localhost

3、slaves 

localhost

4、hdfs-site.xml

<property>
<name>dfs.replication</name>
<value>1</value>
</property>


<property>
<name>dfs.block.size</name>
<value>512000</value>
<description>The default block size for new files.</description>
</property>

5、core-site.xml

<property>
<name>hadoop.tmp.dir</name>
<value>/Users/hujihong/hadoop/tmp</value>
</property>

<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>

6、mapred-site.xml

<property>
<name>mapred.job.tracker</name>
<value>http://localhost:9001</value>
</property>

<property>
<name>mapred.tasktracker.map.tasks.maximum</name>
<value>2</value>
</property>

<property>
<name>mapred.tasktracker.reduce.tasks.maximum</name>
<value>2</value>
</property>

7、环境变量

export JAVA_HOME=/Library/Java/Home
export CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export HADOOP_HOME=/Users/hujihong/hadoop/hadoop-1.2.1
export PATH=$PATH:$HADOOP_HOME/bin
#export JAVA_TOOL_OPTIONS=-Dfile.encoding=UTF-8 #eclipse 打开中文文件名乱码,而用命令行启动eclipse

8、无密码登录

  1、ssh-keygen -t rsa -P ''

      这条命是生成其无密码密钥对,询问其保存路径时直接回车采用默认路径。生成的密钥对:id_rsa和id_rsa.pub,默认存储在"/home/hujihong/.ssh"目录下

  2、cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

    把id_rsa.pub追加到授权的key里面去

    修改文件"authorized_keys"权限(权限的设置非常重要,因为不安全的设置安全设置,会让你不能使用RSA功能

    chmod 600 ~/.ssh/authorized_keys

    chmod 700 ~/.ssh

    用root用户设置"/etc/ssh/sshd_config"的内容。使其无密码登录有效

    vi /etc/ssh/sshd_config

     RSAAuthentication yes  #启用RAS认证

    PubkeyAuthentication yes #启用公钥私钥配对认证方式 这个是ssh安全认证是的一个RSA认证。此处必须选择yes才能连接

  (也可以修改/etc/ssh/ssh_config 中的#  StrictHostKeyChecking ask 改成 StrictHostKeyChecking no

    AuthorizedKeysFile .ssh/authorized_keys #公钥文件路径(和上面生成的文件同)

    增加多个端口,可用个不同端口登录 Port 22 Port 8015

9、hadoop namenode -format

  (service iptables stop  注意:防火墙一定要关闭)

10、启动 start-all.sh

11、验证: jps  //查看进程

     hadoop dfsadmin -report // 查看Hadoop集群的状态

   访问"http://10.180.10.132:50030"查看集群

  访问"http://10.180.10.132:50070"

 

posted @ 2014-04-23 12:14  jhhu  阅读(321)  评论(0编辑  收藏  举报