会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
//
// // //
努力的孔子
2019年12月11日
spark内核篇-task数与并行度
摘要: 每一个 spark job 根据 shuffle 划分 stage,每个 stage 形成一个或者多个 taskSet,了解了每个 stage 需要运行多少个 task,有助于我们优化 spark 运行 task 数 首先需要了解以下概念: RDD,弹性分布式数据集,多个 partition; sp
阅读全文
posted @ 2019-12-11 15:15 努力的孔子
阅读(2001)
评论(0)
推荐(0)
编辑
hadoop-InputFormat-Split-任务并行度
摘要: 首先来看 MapReduce 流程图 一个 map,一个 reduce,中间靠 shuffle 连接,shuffle 左边被划分到 map,右边被划分到 reduce InputFormat input 是个文件,进入 mapper 后变成一行一行,如何实现的呢? 在 hadoop 中实现的方法叫
阅读全文
posted @ 2019-12-11 10:11 努力的孔子
阅读(536)
评论(0)
推荐(0)
编辑
导航
博客园
首页
新随笔
新文章
联系
订阅
管理