mac上spark环境配置(离线安装)

mac上spark环境配置(离线安装)

配置环境信息:

  1. MacOS BIG SUR 11.2.1 (20D74)
  2. java-1.8 .0_291
  3. scala-2.12.8
  4. spark-2.4.8
  5. flink-1.12.4

注:采取其他版本不保证能安装成功,可能会出现JDK版本低等问题。

参考链接:

1、https://zhuanlan.zhihu.com/p/125549332

2、https://www.jianshu.com/p/d7c94372020c

一、安装java 1.8

首先从官网(https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html),下载dmg安装包,使用dmg的好处在于,不用自己配置java环境变量,安装完成后即可使用。

安装完成后,输入java -version,出现如下提示代表安装成功。

注:此版本的java不支持scala2.11,安装scala2.11会报错,报错信息如下:

Error occurred during initialization of VM 

java/lang/NoClassDefFoundError: java/lang/Object

二、安装scala 2.12.8

1、brew安装方式的不足

mac上安装scala可以使用brew进行安装,命令如下:

# 搜索scala版本
brew search scala
# 安装
brew install scala@2.12

注:使用brew安装scala,会存在一些问题,本人遇到的问题是:brew安装的scala版本是jdk16版本的,不是jdk8版本的,安装的版本过高,后面安装完spark后,会报错。报错信息如下:

A fatal error has been detected by the Java Runtime Environment
SIGSEGV (0xb) at pc=0x0071902b, pid=7052, tid=3078032240
RE version: 8.0_21-b06
[java] # Java VM: Java HotSpot(TM) Client VM (1760-b16 mixed mode, sharing linux-x86 )

2、离线安装方式

首先从官网(https://www.scala-lang.org/download/scala2.html)下载scala 2.12.8。

进去后是最新版本的scala,需要点击下图中的previous releases

然后选择Scala 2.12.8

进去后,拉到最下面,选择图中标注的版本进行下载。


首先,解压文件,移动到指定目录并重命名。

d ~/Download/
tar -zxvf scala-2.12.8.tgz
mv scala-2.12.8 /usr/local/scala

放置好了后,开始配置bash环境变量

命令行输入:vim ~/.bash_profile进行编辑,增加环境变量:

SCALA_HOME=/usr/local/scala
export PATH=$PATH:$SCALA_HOME/bin

#使环境变量生效,在命令行执行
source  ~/.bash_profile

若安装了zsh,则其环境变量配置方法如下:

命令行输入:vim ~/.zshrc进行编辑,增加环境变量:

SCALA_HOME=/usr/local/scala
export PATH=$PATH:$SCALA_HOME/bin

#使环境变量生效,在命令行执行
source  ~/.zshrc

验证:安装完成后输入Scala命令,出现如下提示代表成功。

三、安装Spark

进入Spark官网(https://spark.apache.org/downloads.html)下载spark2.4.8

解压文件,移动到指定的位置并重命名。

cd ~/Downloads/
# 解压
tar -zvxf spark-3.0.0-preview2-bin-hadoop2.7.tgz
移动到指定的位置并重命名
mv ~/Downloads/spark-3.0.0-preview2-bin-hadoop2.7 /usr/local/spark

上述步骤操作完后,开始进行环境变量配置。

1.对于原生终端,环境变量配置方式如下:

# 打开配置文件
vim ~/.bash_profile
# 在配置文件中添加下面三行代码
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin
export PYSPARK_PYTHON=python3
# 更新配置文件
source ~/.bash_profile

2.对于zsh终端,环境变量配置方式如下:

# 打开配置文件
vim ~/.zshrc
# 在配置文件中添加下面三行代码
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin
export PYSPARK_PYTHON=python3
# 更新配置文件
source ~/.zshrc

验证阶段

首先验证python3版本的spark,输入pyspark,出现如下界面,代表安装成功。

若是使用scala版本的spark,则可以输入spark-shell进行验证出现如下界面代表安装成功。

进入网址(https://archive.apache.org/dist/flink/flink-1.12.4/)下载如图所示的flink版本。

下载完成后进行解压,移动到指定的位置并重命名。

cd ~/Downloads/
# 解压
tar -zvxf flink-1.12.4-bin-scala_2.12.tgz
移动到指定的位置并重命名
mv ~/Downloads/flink-1.12.4 /usr/local/flink

进行环境变量的配置

# 打开配置文件
vim ~/.bash_profile
# 在配置文件中添加下面三行代码
export FLINK=/usr/local/flink
export PATH=$PATH:$FLINK_HOME/bin
# 更新配置文件
source ~/.bash_profile

输入flink —version查看版本号

输入start-cluster.sh启动进程,jps查看进程。

posted @ 2021-06-14 17:01  天花板掉啦a  阅读(661)  评论(0编辑  收藏  举报