hadoop 入门学习系列之八-----spark安装

1.安装 Scala

tar -zxvf scala-2.11.8.tgz

再次修改环境变量sudo vi /etc/profile,添加以下内容:

export SCALA_HOME=/opt/softwares/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin

同样的方法使环境变量生效,并验证 scala 是否安装成功

$ source /etc/profile #生效环境变量
$ scala -version #如果打印出如下版本信息,则说明安装成功
Scala code runner version 2.10.4 -- Copyright 2002-2013, LAMP/EPFL
 

2. 安装spark

tar -zxvf spark-2.1.1-bin-hadoop2.6.tgz
mv spark-2.1.1-bin-hadoop2.6 spark-2.1.1 #原来的文件名太长了,修改下
cd ~/workspace/spark-1.3.0/conf #进入spark配置目录
cp spark-env.sh.template spark-env.sh #从配置模板复制
vi spark-env.sh #添加配置内容
spark-env.sh末尾添加以下内容(这是我的配置,你可以自行修改):

export SCALA_HOME=/opt/softwares/scala-2.11.8
export JAVA_HOME=/opt/softwares/jdk1.7.0_80
export HADOOP_HOME=/opt/app/hadoop-2.6.5
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
SPARK_MASTER_IP=master
SPARK_LOCAL_DIRS=/opt/app/spark-2.1.1
SPARK_DRIVER_MEMORY=1G

vi slaves在slaves文件下填上slave主机名:

slave1

slave2

将配置好的spark-2.1.1文件夹分发给所有slaves

scp -r /opt/app/spark-2.1.1 hadoop01@slave1:/opt/app/

scp -r /opt/app/spark-2.1.1 hadoop01@slave2:/opt/app/

3. 启动Spark

sbin/start-all.sh

4. 验证 Spark 是否安装成功

用jps检查,在 master 上应该有以下几个进程:

$ jps
7949 Jps
7328 SecondaryNameNode
7805 Master
7137 NameNode
7475 ResourceManager
在 slave 上应该有以下几个进程:

$jps
3132 DataNode
3759 Worker
3858 Jps
3231 NodeManager
进入Spark的Web管理页面: http://master:8080

5.运行示例

#本地模式两线程运行
./bin/run-example SparkPi 10 --master local[2]
#Spark Standalone 集群模式运行
bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://master:7077 examples/jars/spark-examples_2.11-2.1.1.jar 100
#Spark on YARN 集群上 yarn-cluster 模式运行
./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn-cluster \ # can also be `yarn-client`
examples/jars/spark-examples*.jar \
10

 

 
 

 

posted @ 2017-08-02 15:04  love fendi  阅读(212)  评论(0编辑  收藏  举报