Spark之 SparkSql、DataFrame、DataSet介绍

SparkSql

  SparkSql是专门为spark设计的一个大数据仓库工具,就好比hive是专门为hadoop设计的一个大数据仓库工具一样。

特性:

1、易整合
    可以将sql查询与spark应用程序进行无缝混合使用,同时可以使用java、scala、python、R语言开发代码
2、统一的数据源访问
    sparksql可以使用一种相同的方式来对接外部的数据源
    val dataframe=SparkSession.read.格式("该格式文件的路径")
3、兼容hive
    可以通过sparksql来操作hivesql
4、支持标准的数据库连接
    可以通过使用jdbc和odbc来连接上数据库

 

DataFrame

  DataFrame前身叫SchemaRDD,在spark1.3.0之后把schemaRDD改名为DataFrame,DataFrame不在继承RDD,而之前的SchemaRDD它是直接继承自RDD,它是自己实现了RDD的一些方法。

  DataFrame是spark中基于RDD的分布式数据集,类似于传统数据库中的二维表格,表中有对应的字段名称和类型。在DataFrame这些信息就是它schema元信息。

DataFrame和RDD的区别

  DataFrame比RDD多了对数据结构的描述信息,也就是DataFrame中的schema,schema里面有哪些列和列的类型是什么。

DataFrame和RDD的优缺点

RDD
 优点
    1、编译时类型安全
        也就是说后期开发代码的时候会进行类型的检查
    2、具有面向对象编程的风格
        可以通过对象调用方法
 缺点
    1、数据序列化和反序列化性能开销很大。
        数据在进行网络传输的时候,先要进行序列化,后续又需要进行反序列化这些操作都是在内存中进行
    2、频繁的对象的创建会带来GC(jvm内存回收机制:垃圾回收),GC处理的时候,其他进程都会暂停。
DataFrame
 优点
    DataFrame引入了schema和off-heap
    1、schema就是对于DataFrame数据的结构信息进行描述
        在进行数据序列化的时候,就不需要针对于数据的结构进行序列化了,直接把数据本身进行序列化就可以了,减少数据的网络传输。
            解决了RDD在数据进行序列化和反序列化性能开销很大这个缺点。
    2、off-heap不在使用jvm堆中的内存来构建大量的对象,而是直接使用操作系统层面上的内存
        解决了RDD在堆中频繁创建大量的对象造成GC这个缺点。
 缺点
    DataFrame引入了schema和off-heap解决了RDD的缺点,同时也丢失了RDD的优点
    1、编译时不在是类型安全
    2、也不具备面向对象编程这种风格

创建DataFrame的几种方式

读取文本文件

val df=spark.read.text("/person.txt")
df.printSchema
df.show

读取json文件

val df=spark.read.json("/people.json")
df.printSchema
df.show

读取parquet文件

val df=spark.read.parquet("/users.parquet")
df.printSchema
df.show

 

DataSet

  DataSet是分布式的数据集合,Dataset提供了强类型支持,也是在RDD的每行数据加了类型约束。DataSet是在Spark1.6中添加的新的接口。它集中了RDD的优点(强类型和可以用强大lambda函数)以及使用了Spark SQL优化的执行引擎。

DataSet和DataFrame的转换

1、DataFrame转换成DataSet
   val ds=df.as[强类型]
2、DataSet转换成DataFrame
   val df=ds.toDF

创建DataSet的几种方式

通过一个已经存在的scala集合去构建

val ds=spark.createDataset(List(1,2,3,4))
val ds=List(1,2,3,4).toDS

通过一个已经存在的RDD去构建

val ds=spark.createDataset(sc.textFile("/person.txt"))

DataFrame转换成DataSet

val ds=df.as[强类型]

通过一个已经存在DataSet调用对应的方法去生成一个新的DataSet

val ds1=ds.map(x =>"itcast:"+x)

http://spark.apache.org/docs/2.1.3/api/scala/index.html#org.apache.spark.sql.Dataset

 

posted @ 2018-02-15 16:53  青衫仗剑  阅读(423)  评论(0编辑  收藏  举报