centos7中Spark集群的安装与配置(Hadoop2.6.5+spark2.3.3)

Hadoop2.6.5+spark2.3.3+jdk1.8.0+Scala2.11.8

 

 配置spark集群之前,要先安装好jdk和Scala

这里只做简要说明(这两个的安装和配置都类似,大概步骤如下):

1、下载对应的压缩包上传至Linux系统;

2、到对应的目录下解压压缩包

3、配置环境变量

4、使用如下命令查看是否安装配置成功

java -version

scala -version

 

spark集群的配置部署

1、spark的获取

下载地址https://archive.apache.org/dist/spark/

 

 

2、上传安装包到虚拟机的/opt/spark/目录下(事先建好的目录)

3、到该目录下解压压缩包

tar -zxvf spark-2.3.3-bin-hadoop2.6.tgz

4、修改/etc/profile配置文件

vim /etc/profile

加入以下的内容

export SPARK_HOME=/opt/spark/spark-2.3.3-bin-hadoop2.6

export PATH=$PATH:$SPARK_HOME/bin

保存后,执行以下命令生效配置

source /etc/profile

5、进入conf目录

将spark-env.sh.template复制一份spark-env.sh,对spark-env.sh进行修改

 

 6、vim spark-env.sh

在该文件中加入以下内容

export JAVA_HOME=/usr/lib/jvm/java #自己的jdk路径
export SPARK_MASTER_IP=master1 #注:这里是当前机器的域名或者IP
export SPARK_MASTER_PORT=7077

7、配置slaves文件

cp slaves.template slaves

vim slaves

在slaves文件中加入从节点的主机名或者IP地址

 

 8、将配置同步至Slave1和Slave2

在Master的/opt/目录下使用如下命令

scp -r ./spark/ root@Slave1:$PWD

scp -r ./spark/ root@Slave2:$PWD

9、启动集群

在Master主机执行命令

cd /opt/spark/spark-2.3.3-bin-hadoop2.6/sbin

./start-all.sh

使用jps查看启动情况 主节点出现Master代表启动成功
我们再看看从节点,里面出现Worker代表启动成功。

关闭防火墙

systemctl stop firewalld.service

 

浏览器访问http://192.168.152.131:8001(默认端口8080,我这里修改过)

 

 启动成功!

2021-02-03 14:11:48

 

posted @ 2021-02-03 14:12  ruishu_0726  阅读(488)  评论(0编辑  收藏  举报