Pyspark 对DataFrame做随机打乱操作

需求:从hive下拉数据,要合并多个数据(每组数据类别不同),如果要在构造数据集最终阶段随机打乱,可以使用pyspark的orderBy随机打乱

复制代码
from pyspark.sql.functions import rand

sql = "select * from abc.table1 limit 10;"
df1 = spark.sql(sql)
sql = "select * from abc.table2 limit 5;"
df2 = spark.sql(sql)
# 合并两组数据,列名顺序要一致
res = df1.unionAll(df2)
res.show()
# shuffle
data = res.orderBy(rand())
data.show()
复制代码

但是,这将带来巨额消耗,因为其实一个全局shuffle

posted @   今夜无风  阅读(1119)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek “源神”启动!「GitHub 热点速览」
· 我与微信审核的“相爱相杀”看个人小程序副业
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· 如何使用 Uni-app 实现视频聊天(源码,支持安卓、iOS)
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)
点击右上角即可分享
微信分享提示