会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
QZhen
博客园
首页
新随笔
联系
订阅
管理
2020年4月24日
Spark:任务中如何确定spark分区数、task数目、core个数、worker节点个数、excutor数量
摘要: 先上图: 每一个过程的任务数,对应一个inputSplit1, Partition输入可能以多个文件的形式存储在HDFS上,每个File都包含了很多块,称为Block。 当Spark读取这些文件作为输入时,会根据具体数据格式对应的InputFormat进行解析,一般是将若干个Block合并成一个输入
阅读全文
posted @ 2020-04-24 20:20 Q1Zhen
阅读(1336)
评论(1)
推荐(0)
编辑
公告