会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
大葱拌豆腐
专注于Spark、Flink、Kafka、HBase、大数据、机器学习
博客园
首页
新随笔
联系
订阅
管理
2020年6月4日
spark sql通过jdbc读取mysql时划分分区问题
摘要: 当通过spark读取mysql时,如果数据量比较大,为了加快速度,通常会起多个task并行拉取mysql数据。其中一个api是 def jdbc(url: String, table: String, columnName: String, lowerBound: Long, upperBound:
阅读全文
posted @ 2020-06-04 14:25 大葱拌豆腐
阅读(2111)
评论(0)
推荐(0)
编辑
公告