【大数据】pyspark sql计算场景
2022-04-07 10:04 码上起舞 阅读(84) 评论(0) 编辑 收藏 举报一、目的
本文主要用于记录我在大数据使用过程中的一些沉淀和总结
二、简单计算内容
from pyspark.sql import SparkSession spark = SparkSession.builder.appName("sql").master("local[*]").getOrCreate() sc = spark.sparkContext # # #1.求平均数 # data = [1,5,7,10,23,20,6,5,10,7,10] # sdata = spark.createDataFrame([(x,) for x in data]).toDF("value") # df = sdata.agg({"value":"max"}) # df.show() #3,求TopN #任务:有一批学生信息表格,包括name,age,score, 找出score排名前3的学生, score相同可以任取 students = [("LiLei",18,87),("HanMeiMei",16,77),("DaChui",16,66),("Jim",18,77),("RuHua",18,50)] n = 3 data = spark.createDataFrame(students).toDF("name","age","score") df = data.orderBy("score").limit(n) df.show() #5.二次排序 #任务:有一批学生信息表格,包括name,age,score #首先根据学生的score从大到小排序,如果score相同,根据age从大到小 students = [("LiLei",18,87),("HanMeiMei",16,77),("DaChui",16,66),("Jim",18,77),("RuHua",18,50)] data = spark.createDataFrame(students).toDF("name","age","score") df = data.orderBy(data["score"].desc(),data["age"].desc()) df.show()
待更新。。。
----------------------
认真工作
快乐生活
----------------------
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY