[hadoop新实战2]hadoop伪分布式安装序列(支持ubuntu和redhat)

亲测可在redhat和ubuntu下使用,在开始前请务必核对好版本,准备好相关的安装包
image
一.ssh安装(linux一般安装有客户端,服务端redhat可能有,ubuntu一定没有)
1.redhat下
(1)测试是否安装了ssh service
ssh localhost或者rpm -qa|grep openssh
(2)redhat上去光盘里安装
rpm -ivh openssh-server-5.3p1-81.el6.i686
2.ubuntu下
sudo apt-get install openssh-server
3.生成秘钥对
ssh-keygen -t rsa -P ""
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
二.jre的安装(环境变量配置最好配置root用户的环境变量)
1.将jre目录改为可执行,用户改为root
2.修改用户环境变量文件
vim .bash_profile
增加 :/usr/jre/bin
source .bash_profile
echo $PATH 是否有 刚添加的目录
是否java 有效果
三.hadoop文件的配置
1.修改hadoop-env.sh
export JAVA_HOME=/usr/jre
2.修改xm11:core-site.xml
<property> 
<name>fs.default.name</name>   
<value>hdfs://localhost:9000</value>
</property>
3.修改xml2:mapred-site.xml
<property> 
<name>mapred.job.tracker</name>   
<value>localhost:9001</value>
</property>
4.修改xml3:hdfs-site.xml
<property> 
<name>dfs.data.dir</name>
<value>/root/hadoop/hdfsDir</value>
</property>
<property>
<property>
<name>hadoop.tmp.dir</name>
<value>/root/hadoop/tmpDir</value>
</property> 
<name>dfs.replication</name>
<value>1</value>
</property>
四、运行和验证
1.格式化hdfs
./hadoop namenode -format
2.打开hadoop
./start-all.sh
3.验证网站是否登录
 
http://localhost:50030
注意如果用局域网的计算机访问发现端口被封应打开防火墙:
/sbin/iptables -I INPUT -p tcp --dport 50030 -j ACCEPT #开启50030端口
/etc/rc.d/init.d/iptables save #保存配置
/etc/rc.d/init.d/iptables restart #重启服务
查看端口是否已经开放
/etc/init.d/iptables status
posted @ 2014-02-09 16:00  老刁  阅读(114)  评论(0编辑  收藏  举报