spark生态体系了解学习(三)

  今天往虚拟机上安装了Scala和spark,下面说一下安装的一些过程和遇到的一些问题。

  首先,根据网上的Hadoop3.2+Scala2.12.1+Spark2.3.3环境搭建教程:https://www.jianshu.com/p/82ad3e15545a

了解基本安装流程,由于之前已经安装好了virtualbox虚拟机,Linux操作系统,并且配置好了Java运行环境,安装好了Hadoop运行环境,所以

我直接从安装Scala开始:

  安装Scala的过程根据教程来挺顺利,并没有遇到什么错误——下载-解压-重命名-添加环境变量-source-检测是否安装成功。

整个过程一气呵成。

  安装spark的过程就没有那么顺利了,按着流程来,首先下载解压没问题,然后添加环境变量依旧没问题,

再然后重点来了,添加配置文件的时候原话是这样“cong下创建配置文件spark-env.sh 配置hadoop+jdk”,根据我的理解是cong应该是conf,

然后那个配置文件spark-env.sh是/usr/local/spark/conf里面的一个配置文件,我的./conf里面的每隔文件都有一个.template后缀,我搜了一下

看了这个文章https://blog.csdn.net/weixin_42186022/article/details/84942998,然后解决了这个问题。

posted @ 2020-02-01 18:39  ZZKZS  阅读(153)  评论(0编辑  收藏  举报
/*鼠标跟随效果*/