38、数据源Parquet之使用编程方式加载数据

一、概述

Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache顶级项目,最新的版本是1.8.0。

列式存储和行式存储相比有哪些优势呢?
1、可以跳过不符合条件的数据,只读取需要的数据,降低IO数据量。 
2、压缩编码可以降低磁盘存储空间。由于同一列的数据类型是一样的,可以使用更高效的压缩编码(例如Run Length Encoding和Delta Encoding)进一步节约存储空间。 
3、只读取需要的列,支持向量运算,能够获取更好的扫描性能。 

这里讲解Parquet数据源的第一个知识点,使用编程的方式加载Parquet文件中的数据。


二、代码

1、java实现

package cn.spark.study.sql;

import java.util.List;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.sql.DataFrame;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SQLContext;

/**
 * Parquet数据源之使用编程方式加载数据
 * @author Administrator
 *
 */
public class ParquetLoadData {

    public static void main(String[] args) {
        SparkConf conf = new SparkConf()
                .setAppName("ParquetLoadData");  
        JavaSparkContext sc = new JavaSparkContext(conf);
        SQLContext sqlContext = new SQLContext(sc);
        
        // 读取Parquet文件中的数据,创建一个DataFrame
        DataFrame usersDF = sqlContext.read().parquet(
                "hdfs://spark1:9000/spark-study/users.parquet");
        
        // 将DataFrame注册为临时表,然后使用SQL查询需要的数据
        usersDF.registerTempTable("users");  
        DataFrame userNamesDF = sqlContext.sql("select name from users");  
        
        // 对查询出来的DataFrame进行transformation操作,处理数据,然后打印出来
        List<String> userNames = userNamesDF.javaRDD().map(new Function<Row, String>() {

            private static final long serialVersionUID = 1L;

            @Override
            public String call(Row row) throws Exception {
                return "Name: " + row.getString(0);
            }
            
        }).collect();
        
        for(String userName : userNames) {
            System.out.println(userName);  
        }
    }
    
}






##打包、上传


##运行脚本
cat parquet_load_data.sh
/usr/local/spark-1.5.1-bin-hadoop2.4/bin/spark-submit \
--class cn.spark.study.sql.ParquetLoadData \
--num-executors 3 \
--driver-memory 100m \
--executor-memory 100m \
--executor-cores 3 \
--files /usr/local/hive/conf/hive-site.xml \
--driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar \
/usr/local/spark-study/java/sql/saprk-study-java-0.0.1-SNAPSHOT-jar-with-dependencies.jar \


2、scala实现

package cn.spark.study.sql

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.sql.SQLContext

object ParquetLoadData {
  def main(args: Array[String]) {
    val conf = new SparkConf().setAppName("ParquetLoadData")
    val sc = new SparkContext(conf)
    val sqlContext = new SQLContext(sc)
    
    // 读取Parquet文件中的数据,创建一个DataFrame
    val usersDF = sqlContext.read.parquet("hdfs://spark1:9000/spark-study/users.parquet")
    
    // 将DataFrame注册为临时表,然后使用SQL查询需要的数据
    usersDF.registerTempTable("users")
    val userNameDF = sqlContext.sql("select * from users")
    
    // 对查询出来的DataFrame进行transformation操作,处理数据,然后打印出来
    userNameDF.rdd.map( row => "Name: " + row(0)).collect()
      .foreach( userName => println(userName))
    
  }
}




##Export-->打jar包-->上传


##运行脚本
[root@spark1 sql]# cat parquet_load_data.sh 
/usr/local/spark-1.5.1-bin-hadoop2.4/bin/spark-submit \
--class cn.spark.study.sql.ParquetLoadData \
--num-executors 3 \
--driver-memory 100m \
--executor-memory 100m \
--executor-cores 3 \
--files /usr/local/hive/conf/hive-site.xml \
--driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar \
/usr/local/spark-study/scala/sql/spark-study-scala.jar \
posted @ 2019-07-31 13:53  米兰的小铁將  阅读(335)  评论(0编辑  收藏  举报