随笔 - 7  文章 - 0  评论 - 0  阅读 - 291

7.Spark SQL

1.请分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。

Spark SQL 的前身是 Shark ,即"Hive on Spark",由 Reynold Xin 主导开发。Shark 项目最初启动于 2011 年,当时 Hive 几乎算是唯一的 SQL-on-Hadoop 选择方案。Hive 将 SQL 语句翻译为 MapReduce ,性能会受限于 MapReduce 计算模型,始终无法满足各种交互式 SQL 分析的需求,因此许多机构仍然依赖传统的企业数据仓库( EDW )。Shark 的提出就是针对这种需求的,目标是既能够达到 EDW 的性能,又能够具有 MapReduce 的水平扩展功能。Shark 建立在 Hive 代码的基础上,只修改了内存管理、物理计划、执行 3 个模块中的部分逻辑。Shark 通过将 Hive 的部分物理执行计划交换出来(“swapping out the physical execution engine part of Hive"),最终将 HiveQL 转换为 Spark 的计算模型,使之能运行在 Spark 引擎上,从而使得 SQL 査询的速度得到 10 ~ 100 倍的提升。此外, Shark 的最大特性是与 Hive 完全兼容,并且支持用户编写机器学习或数据处理函数,对 HiveQL 执行结果进行进一步分析。

2. 简述RDD 和DataFrame的联系与区别?

 

 RDD是分布式的 Java对象的集合,比如,RDD[Person]是以Person为类型参数,但是,Person类的内部结构对于RDD而言却是不可知的。

 DataFrame是一种以RDD为基础的分布式数据集,也就是分布式的Row对象的集合(每个Row对象代表一行记录),提供了详细的结构信息,也就是模式(schema)。

3.DataFrame的创建

spark.read.text(url)

 

 

 

spark.read.json(url) 

 

 

 

spark.read.format("text").load("people.txt")

 

 

 

spark.read.format("json").load("people.json")

 

 

 

描述从不同文件类型生成DataFrame的区别。

  txt生成的没有结构

  json生成的有结构且包含表头

用相同的txt或json文件,同时创建RDD,比较RDD与DataFrame的区别。

 

 

 

 

 4. PySpark-DataFrame各种常用操作

基于df的操作:

打印数据 df.show()默认打印前20条数据

 

 

 

 

 

 (只有3条数据)

打印概要 df.printSchema()

 

 

 

查询总行数 df.count()

 

 

 

df.head(3) #list类型,list中每个元素是Row类

 

 

 

输出全部行 df.collect() #list类型,list中每个元素是Row类

 

 

 

查询概况 df.describe().show()

 

 

 

 

 

 

取列 df[‘name’], df.name, df[1]

 

 

 

选择 df.select() 每个人的年龄+1

 

 

 

筛选 df.filter() 20岁以上的人员信息

 

 

 

 

筛选年龄为空的人员信息

 

 

 

分组df.groupBy() 统计每个年龄的人数

 

 

 

排序df.sortBy() 按年龄进行排序

 

 

 

基于spark.sql的操作:

创建临时表虚拟表 df.registerTempTable('people')

spark.sql执行SQL语句 spark.sql('select name from people').show()

 

 

 

5. Pyspark中DataFrame与pandas中DataFrame

分别从文件创建DataFrame 

 

 

 

pandas中DataFrame转换为Pyspark中DataFrame

 

 

 

Pyspark中DataFrame转换为pandas中DataFrame 

 

 

 

从创建与操作上,比较两者的异同


6.从RDD转换得到DataFrame 

6.1 利用反射机制推断RDD模式

创建RDD sc.textFile(url).map(),读文件,分割数据项

每个RDD元素转换成 Row

由Row-RDD转换到DataFrame

 

 

6.2 使用编程方式定义RDD模式

 

 

#下面生成“表头” 

 

 

#下面生成“表中的记录” 

 

 

#下面把“表头”和“表中的记录”拼装在一起

 

 

 

7. DataFrame的保存

df.write.text(dir)

df.write.json(dri)

df.write.format("text").save(dir)

df.write.format("json").save(dir)

df.write.format("json").save(dir)

 

 

 

 

posted on   敖呜  阅读(41)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· C#/.NET/.NET Core技术前沿周刊 | 第 29 期(2025年3.1-3.9)
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示