启动spark shell详解

spark-shell是Spark自带的交互式Shell程序,方便用户进行交互式编程,用户可以在该命令行下用scala编写spark程序。

启动spark shell:

/usr/local/spark-2.1.0-bin-hadoop2.6/bin/spark-shell --master spark://L1:7077,L2:7077  --executor-memory 2g  --total-executor-cores 2
  • 1

参数说明:

--master spark://L1:7077,L2:7077     指定Master的地址
--executor-memory 2g 指定每个worker可用内存为2G
--total-executor-cores 2 指定整个集群使用的cup核数为2个
  • 1
  • 2
  • 3

注意

如果启动spark shell时没有指定master地址,但是也可以正常启动spark shell和执行spark shell中的程序,其实是启动了spark的local模式,该模式仅在本机启动一个进程,没有与集群建立联系。

/usr/local/spark-2.1.0-bin-hadoop2.6/bin/spark-shell 
--master spark://L1:7077,L2:7077  
--executor-memory 2g  
--total-executor-cores 2
这样启动spark shell,指定了master的地址,那么就会将任务提交到集群,开始时sparkSubmit(客户端)
要连接Master,并申请计算资源(内存和核数),Master进行资源调度(就是让那些Worker启动Executor),
在准备工作时,这些进程都已经创建好了。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

启动spark shell后,查看UI管理界面,会发现Application ID多了一个正在运行的spark shell进程。

在这里插入图片描述

posted on   ExplorerMan  阅读(1231)  评论(0编辑  收藏  举报

编辑推荐:
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
历史上的今天:
2019-01-21 谨慎安装Python3.7.0,SSL低版本导致Pip无法使用

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示