安装高可用Hadoop生态 (四) 安装Spark
正文
4. 安装Spark
4.1. 准备目录
tar -xf /home/hadoop/install/spark-2.1.0-bin-without-hadoop.tgz -C /opt/cloud/packages/ ln -s /opt/cloud/packages/spark-2.1.0-bin-without-hadoop /opt/cloud/bin/spark ln -s /opt/cloud/packages/spark-2.1.0-bin-without-hadoop/conf /opt/cloud/etc/spark mkdir -p /opt/cloud/logs/spark mkdir -p /opt/cloud/data/spark
4.2. 设置环境变量
vi ~/.bashrc export SPARK_HOME=/opt/cloud/bin/spark export PATH=$SPARK_HOME/bin:$PATH
即刻生效
source ~/.bashrc
4.3. 修改配置文件
4.3.1. spark-env.sh
cd /opt/cloud/etc/spark mv spark-env.sh.template spark-env.sh vi spark-env.sh
export JAVA_HOME=/usr/lib/jvm/java export HADOOP_HOME=/opt/cloud/bin/hadoop export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export SPARK_DIST_CLASSPATH=$(hadoop classpath)[1] export SPARK_LOCAL_DIRS=/opt/cloud/data/spark export SPARK_LOG_DIR=/opt/cloud/logs/spark export SPARK_PID_DIR=/opt/cloud/hdfs/tmp
4.3.2. spark-defaults.conf
mv spark-defaults.conf.template spark-defaults.conf vi spark-defaults.conf
spark.driver.memory 512m
4.4. 测试
通过修改MASTER临时变量,测试yarn模式
export MASTER=yarn ./bin/run-example SparkPi 1000
4.5. 卸载
复原环境变量,删除spark相关行
vi ~/.bashrc
删除临时数据和目录
rm /opt/cloud/bin/spark rm /opt/cloud/etc/spark -rf rm /opt/cloud/packages/spark-2.1.0-bin-without-hadoop/ -rf rm /opt/cloud/data/spark/ -rf rm /opt/cloud/logs/spark/ -rf
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?