hadoop1.2开发环境搭建

 

一:Vmware上安装Linux系统

二:配置Vmware NAT网络。(详细说明:vmware三种网络模式 - 简书)。
NAT是网络地址转换,是在宿主机和虚拟机之间增加一个地址转换服务,负责外部和虚拟机之间的通讯转接和IP转换。
部署Hadoop集群,这里选择NAT模式,各个虚拟机通过NAT使用宿主机的IP来访问外网。
我们的要求是集群中的各个虚拟机有固定的IP、可以访问外网,所以进行如下设置:
打开网络接口配置文件。(详细说明:详细的ifcfg-eth0配置详解 - 莫笑 - 博客园)。

vim /etc/sysconfig/network-scripts/ifcfg-eth0

 

首先把BOOTPROTO="dhcp"改成BOOTPROTO="static"表示静态获取,然后在最后追加比如下面的配置:

IPADDR=192.168.183.10

NETMASK=255.255.255.0

GATEWAY=192.168.183.2

DNS1=114.114.114.114

 

设置完毕,然后使用命令: 

/etc/init.d/network restart 或者 service network restart
用curl www.baidu.com和ping www.baidu.com来测试是否可以上网。

 

三:hadoop集群环境搭建。
1,为了模仿完全布式环境部署Hadoop,我们克隆两台名为slave1和slave2的虚拟机。
2、 配置网络。配置完成后,输入curl www.baidu.com测试是否可以上网。
修改网卡名称:(mac电脑修改方式)
在slave1和slave2机器上编辑网卡信息。执行sudo vim /etc/udev/rules.d/70-persistent-net.rules命令。因为它们是从master机器克隆来的,所以会保留master的网卡eth0,并且再添加一个网卡eth1。并且eth0的Mac地址和master的地址是一样的,Mac地址不允许相同,所以要删除eth0,只保留eth1网卡,并且要将eth1改名为eth0。将修改后的eth0的mac地址复制下来,修改network-scripts文件中的HWADDR属性。

vim /etc/sysconfig/network-scripts/ifcfg-eth0

修改网络参数:
slave1机器IP改为192.168.183.11
slave2机器IP改为192.168.183.12
3.安装java。
(1) 去下载Oracle版本Java JDK:jdk-8u67-linux-x64.tar.gz

  或本地下载java,jdk-6u45-linux-x64.bin,设置共享文件夹,cd /mnt/hgfs/ ,执行./jdk-6u45-linux-x64.bin
(2) 将jdk-7u67-linux-x64.tar.gz解压到/usr/local/src目录下

   tar -zxvf jdk-8u67-linux-x64.tar.gz -C /usr/local/src

(3) 添加环境变量
设置JDK的环境变量 JAVA_HOME。vim ~/.bashrc,追加

export JAVA_HOME=/usr/local/src/jdk1.6.0_45

export PATH=$PATH:$JAVA_HOME/bin

export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib

修改完毕后,执行 source /etc/profile

(4)安装后再次执行 java –version,可以看见已经安装完成。
(5)执行:

scp -rp jdk 192.168.183.11:/user/loacl/src/
scp -rp jdk 192.168.183.12:/user/loacl/src/

远程复制到另外两台机器上。vim ~/.bashrc配置环境变量(同上)

su -

cd /usr/local/src

chmod +x jdk-6u45-linux-x64.bin
./jdk-6u45-linux-x64.bin
vim ~/.bashrc
追加

export JAVA_HOME=/usr/local/src/jdk1.6.0_45

export PATH=$PATH:$JAVA_HOME/bin

export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib
 source ~/.bashrc
执行java验证

 

4,下载hadoop-1.2安装包,解压。执行mkdir tmp,存放hadoop运行生成的临时文件。cd conf/
(1)配置master.xml

master

(2)配置slave.xml

slave1
slave2

(3) 配置core-site.xml

vim etc/hadoop/core-site.xml。配置如下:

<configuration>
   <property>
       <name>hadoop.tmp.dir</name>
       <value>/usr/local/src/hadoop-1.2.1/tmp</value>
   </property>
   <property>
       <name>fs.default.name</name>
       <value>hdfs://192.168.183.10:9000</value>
   </property>
</configuration>

 

(4)配置mapred-site.xml

<property>
    <name>mapred.job.tracker</name>
    <value>http://192.168.183.10:9001</value>
</property>

(5)配置hdfk-site.xml。(配置HDFS里面数据副数)

<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>

(6)配置hadoop-env.sh。

export JAVA_HOME=/usr/local/src/jdk

5,配置hosts。(指定ip和hostname的映射关系)
vim /etc/hosts
master、slave1、slave2三台机器hosts都配置为:

192.168.183.10 master
192.168.183.11 slave1
192.168.183.12 slave2

6,配置network。(设置hostname)

vim /etc/sysconfig/network

HOSTNAME=master

配置完成之后需要重启才能生效。所以我们临时设置一下:
mater:hostname master
slave1: hostname slave1
slave2: hostname slave2

7,远程拷贝hadoop 1.2.1到slave1和slave2。(由于slave1和slave2此时还没有设置hostname,所以需要用ip进行copy)
cd /usr/local/src/hadoop 1.2.1。

scp -rp hadoop-1.2.1 192.168.183.11:/usr/local/src/
scp -rp hadoop-1.2.1 192.168.183.12:/usr/local/src/

8,进入slave1和slave2用cat命令检查一下各个配置文件。如:cat /core-site.xml。查看完成之后slave1和slave2分别执行hostnames slave1和hostname slave1 slave2

9,关闭防火墙。

/etc/init.d/iptables stop
iptables -L
setenforce 0
getenforce //查看防火墙状态
# 关闭iptables 
/etc/init.d/iptables stop 
# 永久关闭 chkconfig iptables off 
# 检查 chkconfig --list iptables

10,关闭selinux
selinux是Linux一个子安全机制,学习环境可以将它禁用。

vim /etc/sysconfig/selinux
SELINUX=disabled

11,设置SSH无密码登录
Hadoop集群中的各个机器间会相互地通过SSH访问,每次访问都输入密码是不现实的,所以要配置各个机器间的SSH是无密码登录的。
在master上生成公钥

ssh-keygen

一路回车,都设置为默认值,然后再当前用户的Home目录下的.ssh目录中会生成公钥文件(id_rsa.pub)和私钥文件(id_rsa)(cd ~/.ssh/ ls)。把id_rsa.pub复制到authorized_keys。在slave1和slave2上也执行相同的操作。然后把三个机制的公钥内容全部复制到master的authorized_keys中。然后再从master复制到slave1和slave2上。

cd ~/.ssh/
cat id_rsa.pub > authorized_keys
cat authorized_keys
scp -rp authorized_keys slave1:~/.ssh/
scp -rp authorized_keys slave2:~/.ssh/
测试ssh免密配置是否成功。

ssh slave1
exit
ssh slave2
exit

12,配置hadoop环境变量

 HADOOP_HOME="/usr/local/src/hadoop-1.2.1"
 export PATH=$HADOOP_HOME/bin:$PATH

13,启动hadoop集群。
进入到hadoop的bin目录下。第一次启动需要先格式化 namenode。启动完成后,用jps命令查看进程,验证HDFS是否可用,并上传一个文件到HDFS。最后不要忘记关闭集群(./stop-all.sh)。

cd bin/        //进入到hadoop的bin目录下
./hadoop namenode -format      //第一次需要格式namenode
./start-all.sh      //启动hadoop集群
jps                //查看master,slave1,slave2机器上的进程
./hadoop fs -ls /                 //验证HDFS是否可用
./hadoop fs -put /etc/passwd/    //上传文件到HDFS
./hadoop fs -cat /passwd        //测试上传文件是否可读
posted @ 2018-06-29 13:53  wangheng1409  阅读(201)  评论(0编辑  收藏  举报