HADOOP 网络搭建设置

设置虚拟机DNS

主机网络配置

vi /etc/sysconfig/network-scripts/ifcfg-ens33

BOOTPROTO=static
IPADDR=192.168.56.110
NETMASK=255.255.255.0
GATEWAY=192.168.56.10
ONBOOT=yes

vi /etc/NetworkManager/NetworkManager.conf

添加一行内容dns=none
然后重启网络管理:
systemctl restart NetworkManager.service
修改域名解析配置文件 vi /etc/resolv.conf 
nameserver 192.168.20.3 #这里是修改DNS
最后重启网络service network restart
ping www.baidu.com可ping通即配置成功。

安装Xshell连接软件

关闭防火墙

systemctl status firewalld.service

查看防火墙状态

systemctl stop firewalld.service

该命令输入和执行后,终端不会有输出。要检查执行是否成功,可以再次使用状态检查命令。

systemctl disable firewalld.service

该命令使防火墙在下次启动计算机的时候取消防火墙服务。

服务器系统设置

设置主机名

vi /etc/sysconfig/network

添加 NETWORKING = yes
HOSTNAME=MJ1

如果只修改 network 文件,下次重启虚拟机时,会发现修改后的名字又回到原来的 localhost 去了。原来上面只修改了瞬态(Transient)主机名,并没有修改静态(Static)主机名。因此,仍然要进行修改,这一次输入

“ vi /etc/hostname”

命令在编辑器中输入如下代码:MJ1,保存并退出,回到终端主窗口。
请重复上述操作方法,将其他虚拟机的主机名也从缺省的 localhost 修改为对应的 slave0 和 slave1。

服务器系统设置

一,集群机器时间同步

安装ntpdate,命令:yum install ntpdate
网络同步时间,命令:ntpdate cn.pool.ntp.org

二,配置IP主机名映射

设置主机名IP映射,命令:vi /etc/hosts
192.168.20.20 MJ1
192.168.20.21 MJ2
192.168.20.22 MJ3

三,复制虚拟机注意虚拟机ip地址

四,配置ssh免密登录(本身机器访问本身也要免密登录,配置机器到自己、其他机器的免密登录)

1、生成免密登录秘钥
命令:ssh-keygen - t rsa (四个回车)
2、秘钥生成之后会产生id_rsa(私钥),id_rsa.pub(公钥),将公钥拷贝到要免密登录的机器上面去。
首先自己免密码登陆:把自己的公钥文件追加到本地认证文件中去
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

JDK环境准备

1、jdk的卸载和安装

安装yum install lrzsz

我们要安装标准的jdk,如果不是标准的jdk,比如openJDK要卸载。

卸载命令:rpm –qa | grep java 查找安装包
rpm –e --nodeps 包名

2、创建文件夹用来放置安装的软件如jdk,zookeeper

命令:mkdir /use/java

3、上传jdk包:rz拖拽

4、安装命令 tar zxvf 包名

5、修改设置全局变量3台机器都要添加:

vi /etc/profile 加入下面内容

export JAVA_HOME=/usr/lcal/java/jdk1.8.0_131
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.😒{JAVA_HOME}/lib:${JRE_HOME}/lib:$CLASSPATH
export JAVA_PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin
export PATH=$PATH:$

6、重新加载profile文件:source /etc/profile

①使用javac命令,不会出现command not found错误

②、使用java -version,出现版本为java version "1.8.0_131"

③、echo $PATH,看看自己刚刚设置的的环境变量配置是否都正确

7,上传完后,在master主机进入/opt/hadoop目录,执行解压缩命令“tar -zxvf hadoop-2.7.5.tar.gz”

配置env文件

修改”/opt/hadoop/hadoop/etc/hadoop/hadoop-env.sh”文件,找到“export JAVA_HOME”这行,配置jdk路径。如图

export JAVA_HOME=/usr/local/java/jdk1.8.0_162/

配置Hadoop 的核心组件文件是 core-site.xml
添加这个临时文件保存目录 首先你得创建这个目录

<property>
	<name>fs.defaultFS</name>
	<value>hdfs://MJ1:9000</value>
</property>

<property>
	<name>hadoop.tmp.dir</name>
	<value>/opt/hadoop/hadoopdata</value>
</property>

配置Hadoop 的文件系统配置文件是 hdfs-site.xml
这里可以配置主机网站端口可以通过浏览器来访问web监控页面
上传和下载文件端口是9000

<property>
	<name>dfs.replication</name>
	<value>1</value>
</property>

配置slaves(配置masters)

拷贝 到 MJ2 MJ3

scp -r hadoop-2.7.6/ root@MJ2:/usr/local/

配置hadoop环境变量

export HADOOP_HOME=/usr/local/hadoop-2.7.6
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

然后把hadoop环境变量传给其余几台

scp /etc/profile root@MJ3:/etc/

重新启动环境变量

source /etc/profile

格式化你的主机不能在奴隶机上用

hdfs namenode -format

启动hdfs

start -dfs.sh

到这里已经装好HDFS了可以输入网址查看 http://192.168.20.20:50070

下面装yarn
重命名为mapred-site.xml.template

mv mapred-site.xml.template mapred-site.xml

修改

mapreduce.framework.name
yarn

修改

yarn-site.xml

添加

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>MJ1:18040</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>MJ1:18030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>MJ1:18025</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>MJ1:18141</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>MJ:18088</value>
</property>

指定mr运行在yarn上,默认是local,本地模仿一个资源环境

把修改过的两个文件分别覆盖自己得奴隶机

启动yarn
ResourceManage:http://192.168.247.11:8088 (Yarn管理界面)查看

posted @ 2018-09-09 14:13  庞柔  阅读(1365)  评论(0编辑  收藏  举报