提交一个spark程序及spark执行器
spark中自带了很多例子,他们存放在examples/jars目录下,今天我们就提交一个蒙特.卡罗拉算法求PI的例子:
向spark集群提交程序的命令是spark-submit,后面我们要制定参数
/usr/local/spark-2.1.0-bin-hadoop2.6/bin/spark-submit --master spark://node1.edu360.cn:7077 --class org.apache.spark.examples.SparkPi --executor-memory 1G --total-executor-cores 2 /usr/local/spark-2.1.0-bin-hadoop2.6/lib/spark-examples-2.1.0-hadoop2.6.0.jar 100
- 1
–master 是指定master的地址
spark:// 是spark RPC通信的协议,后面跟的是master节点的IP和端口,如果有多个master,每两个master之间要用逗号隔开。
–class 是指定要执行程序的main方法的名字
–executor-memory 指定每个进程分配多少内存 //可以不指定
–total-executor-cores 指定一共给进程分配多少核数 //可以不指定
后面跟的是jar包,以及参数,参数表示迭代的次数
附加:
在执行程序时,我们执行jps命令,会发现,在提交任务的Worker节点上多了两个进程,一个是SparkSubmit,一个是CoarseGrainedExecutorBackend。其他Worker节点上多了一个CoarseGrainedExecutorBackend进程。
这个CoarseGrainedExecutorBackend叫做执行器,他是真正执行计算任务的进程。在执行完计算任务后,该进程会被自动停掉,释放资源。
分类:
Hadoop&Spark
posted on 2021-01-21 16:07 ExplorerMan 阅读(162) 评论(0) 编辑 收藏 举报
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
2019-01-21 谨慎安装Python3.7.0,SSL低版本导致Pip无法使用