搭建hadoop+spark+hive环境(centos极速安装和配置spark)

总共分为三步:

第一步安装配置hadoop:搭建hadoop+spark+hive环境(centos全远程hadoop极速安装及配置)

第二步安装配置spark:搭建hadoop+spark+hive环境(centos极速安装和配置spark)

第三步安装配置hive:搭建hadoop+spark+hive环境(centos极速安装和配置hive)

I、下载并解压spark

#下载spark
wget --no-cookies --no-check-certificate http://apache.claz.org/spark/spark-2.4.4/spark-2.4.4-bin-hadoop2.7.tgz

#解压spark
tar xzf spark-2.4.4-bin-hadoop2.7.tgz

#移动到hadoop文件夹中
mv spark-2.4.4-bin-hadoop2.7 /usr/local/hadoop/

II、配置系统环境

#编辑配置文件
vim /etc/profile

#添加下面两行
export SPARK_HOME=/usr/local/hadoop/spark-2.4.4-bin-hadoop2.7
export PATH=/data/hadoop/spark/bin:$PATH

III、修改配置文件

#进入conf目录中
cd /usr/local/hadoop/spark-2.4.4-bin-hadoop2.7/conf

#先从提供的模板中复制slaves和spark-env.sh文件
cp slaves.template slaves
cp spark-env.sh.template spark-env.sh

#编辑slaves文件
(删除原有的内容,添加节点)
servera
serverb

#编辑spark-env.sh
vim spark-env.sh

#添加下面内容
export SPARK_HOME=/usr/local/hadoop/spark-2.4.4-bin-hadoop2.7
export JAVA_HOME=/usr/local/java/jdk1.8.0_141
export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_LIBARY_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native
export SPAR_MASTER_PORT=7077
export SPARK_MASTER_HOST=servera

#最后别忘记source一下
source spark-env.sh

将spark及相关复制到其他节点

IV、启动spark

#因为hadoop和spark均有start—all.sh,所以进入spark目录启动
cd /usr/local/hadoop/spark-2.4.4-bin-hadoop2.7/sbin/

#启动spark .
/start-all.sh #使用jps查看一下进程
jps

如果分别出现

 

 

 

 表示spark安装成功

 

posted @ 2019-11-15 16:30  沉默的赌徒  阅读(3101)  评论(0编辑  收藏  举报