Spark 运行环境

Spark 作为一个数据处理框架和计算引擎,被设计在所有常见的集群环境中运行, 在国
内工作中主流的环境为 Yarn,不过逐渐容器式环境也慢慢流行起来。接下来,我们就分别
看看不同环境下 Spark 的运行
 
 
Local 模式
想啥呢,你之前一直在使用的模式可不是 Local 模式哟。所谓的 Local 模式,就是不需
要其他任何节点资源就可以在本地执行 Spark 代码的环境,一般用于教学,调试,演示等,
之前在 IDEA 中运行代码的环境我们称之为开发环境,不太一样。
posted @ 2022-02-09 22:26  青竹之下  阅读(46)  评论(0编辑  收藏  举报