官网
https://spark.apache.org/
# spark版本文档列表
https://spark.apache.org/docs/
# 查看指定版本文档
https://spark.apache.org/docs/2.4.7/
# 配置查看历史日志
https://spark.apache.org/docs/2.3.4/monitoring.html
# 下载安装包
https://spark.apache.org/downloads.html
spark独立集群部署
环境准备
准备4台机器部署spark(node1、node2、node3、node4)(1主3从)
环境具备hadoop(用户保存历史日志,否则可不用)
jdk:1.8.xxx
节点之间免密
配置环境变量
export SPARK_HOME=/bigdata/spark-2.3.4-bin-hadoop2.7
配置从节点$SPARK_HOME/conf/slaves
node2
node3
node4
配置$SPARK_HOME/conf/spark-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
SPARK_MASTER_HOST=node1
SPARK_MASTER_PORT=7077
SPARK_MASTER_WEBUI_PORT=8080
export SPARK_HISTORY_OPTS="
-Dspark.history.ui.port=18080
-Dspark.history.fs.logDirectory=hdfs://node1:9000/sparkStandaloneLogDir
-Dspark.history.retainedApplications=30"
$SPARK_HOME/conf/spark-defaults.conf
spark.eventLog.enabled true
spark.eventLog.dir hdfs://node:9000/sparkStandaloneLogDir
所用节点保持配置相同,在node1主节点启动
sbin/start-all.sh
sbin/stop-all.sh
/sbin/start-history-server.sh
/sbin/stop-history-server.sh
spark命令端访问集群
bin/spark-shell --master spark://node01:7077,node02:7077
scala>sc.textFile("hdfs://mycluster/testdata.txt").flatMap(_.split(" ")).map(Tuple2(_,1)).reduceByKey(_+_).collect().foreach(println)
//方法:collect()会把各个节点的计算数据汇总到这个节点来打印输出
访问
http://node01/9870
http://node01/8088
http://node01/8080
http://node01/4040
http://node01/18080
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本