Spark-sql实验5.1
将下列 json 数据复制到你的 ubuntu 系统/usr/local/spark 下,并保存命名为 employee.json。
{ "id":1 ,"name":" Ella","age":36 }
{ "id":2,"name":"Bob","age":29 }
{ "id":3 ,"name":"Jack","age":29 }
{ "id":4 ,"name":"Jim","age":28 }
{ "id":5 ,"name":"Damon" }
{ "id":5 ,"name":"Damon" }
首先为
employee.json 创建 DataFrame,并写出 Scala 语句完成下列操作:
创建 DataFrame
1 2 3 4 | scala> import org.apache.spark.sql.SparkSession scala> val spark = SparkSession.builder().getOrCreate() scala> import spark.implicits. _ scala> val df = spark.read.json( "file:///usr/local/spark/employee.json" ) |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 | ( 1 ) 查询 DataFrame 的所有数据 答案:scala> df.show() ( 2 ) 查询所有数据,并去除重复的数据 答案:scala> df.distinct().show() ( 3 ) 查询所有数据,打印时去除 id 字段 答案:scala> df.drop( "id" ).show() ( 4 ) 筛选 age> 20 的记录 答案:scala> df.filter(df( "age" ) > 30 ).show() ( 5 ) 将数据按 name 分组 答案:scala> df.groupBy( "name" ).count().show() ( 6 ) 将数据按 name 升序排列 答案:scala> df.sort(df( "name" ).asc).show() ( 7 ) 取出前 3 行数据 答案:scala> df.take( 3 ) 或 scala> df.head( 3 ) ( 8 ) 查询所有记录的 name 列,并为其取别名为 username 答案:scala> df.select(df( "name" ).as( "username" )).show() ( 9 ) 查询年龄 age 的平均值 答案:scala> df.agg( "age" -> "avg" ) ( 10 ) 查询年龄 age 的最小值 答案:scala> df.agg( "age" -> "min" ) |
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义