【Windows】Spark安装

Spark的安装前提:

  • JDK安装
  • Hadoop安装
  • Scala安装

前面我们已经写过JDK8和Hadoop3.3.1的安装教程。本文我们就安装Scala(2.11.12),Spark(2.4.7)进行讲解。

Scala安装

官网下载地址:https://downloads.lightbend.com/scala/2.11.12/scala-2.11.12.msi

百度网盘:https://pan.baidu.com/s/1Qiy1aEndKn_Xs-zSSLaWIA?pwd=yyds

本地点击msi文件安装,安装目录:D:\softinstall\bigdata\scala

设置环境变量 %SCALA_HOME%

环境变量Path添加条目%SCALA_HOME%\bin

验证Scala是否安装成功

打开一个新的cmd窗口,输入scala:

可以看到Scala安装成功。

安装Spark

官网下载地址:https://archive.apache.org/dist/spark/spark-2.4.7/spark-2.4.7-bin-hadoop2.7.tgz

百度网盘:https://pan.baidu.com/s/1VyVLwnSvdMzSocj37xlErQ?pwd=yyds

本地解压spark文件,目录为 D:\softinstall\bigdata\spark

设置环境变量 %SPARK_HOME%

环境变量Path添加条目%SPARK_HOME%\bin

验证Spark是否安装成功

开启一个新的cmd窗口。

输入:spark-shell

显示上面的正常运行界面,表示本地的spark环境已搭建完成!

 

posted @ 2022-12-14 15:25  残城碎梦  阅读(77)  评论(0编辑  收藏  举报