寒假学习day2
下载 spark 安装包
选择自己Hadoop对应的版本,不然会不兼容
2.解压
tar -zvxf spark.2.3
3.删除安装包,修改解压后的文件名字
rm -rf 安装包名
mv spark-2.3.4-bin-hadoop2.7 spark
4. 配置文件
进入到spark 目录下
cd conf
(1).修改配置文件名字:
mv spark-env.sh.template spark-env.sh
vim spark-env.sh
(2).并往里添加几行代码:
export SCALA_HOME=/usr/local/scala
export JAVA_HOME=/usr/local/java/jdk
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
SPARK_MASTER_IP=Master11 #这里的Master11是我的主机名
SPARK_LOCAL_DIRS=/usr/local/spark
SPARK_DRIVER_MEMORY=1G
(3).保存并退出:wq
(4).编辑slaves
mv slaves.template slaves
vim slaves
里面的内容改成自己的子节点的名称:
5.远程把spark传给两个节点:
进入到Scala的上一级目录:
scp -r spark/ Master2:/usr/local/
scp -r spark/ Master3:/usr/local/
把Scala也一起传过去
scp -r scala/ Master2:/usr/local/
scp -r scala/ Master3:/usr/local/
6.进入到spark的sbin目录 启动集群
[root@Master11 spark]# cd sbin
[root@Master11 sbin]# ./start-all.sh
jps
主机上:有Master
节点上:有Worker
安装完毕!!
7.启动spark shell
进入spark bin 目录
[root@Master11 bin]# spark-shell
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构