Spark 2.2.0 分布式集群环境搭建
集群机器:
1台 装了 ubuntu 14.04的 台式机
1台 装了ubuntu 16.04 的 笔记本 (机器更多时同样适用)
1.需要安装好Hadoop分布式环境
参照:Hadoop分类 -->http://www.cnblogs.com/soyo/p/7868282.html
2.安装Spark2.2.0 到/usr/local2
sudo chmod -R 777 Spark( 此/usr/local2路径下的被解压的spark("spark"名字是自己改的) )
3.配置环境变量
vim ~/.bashrc
添加:
export SPARK_HOME=/usr/local2/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
source ~/.bashrc
4.Spark分布式配置:
在Master节点主机上进行如下操作:
1.配置 slaves:slaves文件设置Worker节点
cd /usr/local2/spark/conf
cp ./slaves.template ./slaves
vim slaves
2.配置 spark-env.sh (刚开始这个文件也是没有的)( cp ./spark-env.sh.template ./spark-env.sh)
这里就加了 export SPARK_MASTER_IP=192.168.1.130 (别的是以前在非分布式情况下使用Spark需要时添加的)
SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;
4.给节点分发Spark配置:
cd /usr/local2
tar -zcf ~/ spark.tar.gz ./spark
cd ~
scp ./spark.tar.gz soyo-slave01:/home/soyo
在soyo-slave01节点上分别执行下面同样的操作:
sudo tar -zxf spark.tar.gz -C /usr/local2
sudo chmod -R 777 spark
4.启动Spark集群:
4.1先启动分布式Hadoop:
在master节点执行:start-all.sh
4.2启动Spark:
启动Master节点:
在master节点执行:start-master.sh (在soyo-VPCCB3S1C节点执行jps:多了Master这个进程)
启动slave节点:
在master节点执行:start-slaves.sh (在soyo-slave01节点执行jps:多了Worker这个进程)
4.3在浏览器上查看Spark独立集群管理器的集群信息
http://soyo-vpccb3s1c:8080/
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 智能桌面机器人:用.NET IoT库控制舵机并多方法播放表情
· Linux glibc自带哈希表的用例及性能测试
· 深入理解 Mybatis 分库分表执行原理
· 如何打造一个高并发系统?
· .NET Core GC压缩(compact_phase)底层原理浅谈
· 新年开篇:在本地部署DeepSeek大模型实现联网增强的AI应用
· DeepSeek火爆全网,官网宕机?本地部署一个随便玩「LLM探索」
· Janus Pro:DeepSeek 开源革新,多模态 AI 的未来
· 互联网不景气了那就玩玩嵌入式吧,用纯.NET开发并制作一个智能桌面机器人(三):用.NET IoT库
· 上周热点回顾(1.20-1.26)