spark程序如何在不同的安装模式下运行
1. 本地
spark-submit --class org.apache.spark.examples.SparkPi --master local[2] /opt/app/spark-2.3.1/examples/jars/spark-examples_2.11-2.3.1.jar 100
2. standalone
- 必须把spark的自带独立调度器启动了----master worker
spark-submit --class org.apache.spark.examples.SparkPi --master spark://node1:7077 /opt/app/spark-.3.1/examples/jars/spark-examples_2.11-2.3.1.jar 100
3. yarn
- 必须把YARN启动了
spark-submit --class org.apache.spark.example.SparkPi --master yarn --deploy-mode client /opt/app/spark-2.3.1/examples/spark-examples_2.11-2.3.1.jar 100
4. 我们编写好的代码如果做测试使用,一般使用local本地默认运行,如果在真正的运行程序。
上线运行,会选择使用standlone、yarn、mesos运行。
本文来自博客园,作者:jsqup,转载请注明原文链接:https://www.cnblogs.com/jsqup/p/16602550.html
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?