主要内容
前提
- zookeeper正常使用
- JAVA_HOME环境变量
- HADOOP_HOME环境变量
安装包
微云下载 | tar包目录下
一、环境准备
上传到docker镜像
| docker cp spark-2.4.4-bin-hadoop2.7.tar.gz cluster-master:/root/tar |
解压
| tar xivf spark-2.4.4-bin-hadoop2.7.tar.gz -C /opt/hadoop |
二、配置文件
spark-env.sh
| SPARK_LOCAL_DIRS=/opt/spark/spark-2.4.4-bin-hadoop2.7 |
| HADOOP_CONF_DIR=/opt/hadoop/hadoop-2.7.7/etc/hadoop |
| YARN_CONF_DIR=/opt/hadoop/hadoop-2.7.7/etc/hadoop |
| JAVA_HOME=/opt/jdk/jdk1.8.0_221 |
| export SPARK_MASTER_IP=cluster-master |
| export SPARK_DAEMON_JAVA_OPTS=" |
| -Dspark.deploy.recoveryMode=ZOOKEEPER |
| -Dspark.deploy.zookeeper.url=172.15.0.2:2181 |
| -Dspark.deploy.zookeeper.dir=/sparkmaster" |
slaves
| cluster-slave1 |
| cluster-slave2 |
| cluster-slave3 |
spark-default.conf
| spark.eventLog.enabled true |
| spark.eventLog.dir hdfs://jinbill/spark/eventLog |
| spark.history.fs.logDirectory hdfs://jinbill/spark/eventLog |
| spark.eventLog.compress true |
三、启动
四、UI界面
因为网段不同,所以得加路由才能访问
- 打开cmd,需要管理员权限
- route add 172.15.0.0 mask 255.255.0.0 192.168.11.38 -p
Spark Master 访问地址
Spark Slave1 访问地址
Spark Slave2 访问地址
Spark Slave3 访问地址
Spark 历史任务 访问地址
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律