hive基础知识分享(三)

写在前面

今天继续学习hive部分的知识。

Hive中如何实现行列转换

  1. 一行变多行
    可以对表使用 LATERAL VIEW EXPLODE(),也可以直接使用 EXPLAIN() 函数来处理一行数据。

    SELECT name, col1 FROM testarray2 LATERAL VIEW EXPLODE(weight) t1 AS col1;
    
  2. 多行变一行
    使用 GROUP BY + COLLECT_SET/COLLECT_LIST

    • GROUP BY 用于分组,分组后可以使用 COLLECT_SETCOLLECT_LIST 对每组数据进行聚合。
    • 最终会得到 ARRAY 类型的数据,可以使用 CONCAT_WS 转成字符串。
    • COLLECT_SET 会去重,COLLECT_LIST 不会。
    SELECT COLLECT_LIST(col1) FROM table GROUP BY name;
    

Hive中的自定义函数分类及实现方法

Hive 中的自定义函数分为三类:UDF (用户自定义函数)UDAF (用户自定义聚合函数)UDTF (用户自定义表生成函数)

UDF

  • 一进一出
  • 创建 Maven 项目,并加入依赖:
    <dependency>
        <groupId>org.apache.hive</groupId>
        <artifactId>hive-exec</artifactId>
        <version>3.1.3</version>
    </dependency>
    
  • 编写代码,继承 org.apache.hadoop.hive.ql.exec.UDF,实现 evaluate() 方法。
    import org.apache.hadoop.hive.ql.exec.UDF;
    
    public class HiveUDF extends UDF {
        public String evaluate(String col1) {
            return "#" + col1 + "$";
        }
    }
    
  • 将代码打成 JAR 包并上传至 Linux 虚拟机。
  • 使用 ADD JAR 在 Hive 中加载 JAR:
    ADD JAR /path/to/your/jarfile.jar;
    
  • 注册临时函数:
    CREATE TEMPORARY FUNCTION myfunction AS 'com.shujia.HiveUDF';
    
  • 使用函数处理数据:
    SELECT myfunction(name) AS myfunction FROM students LIMIT 10;
    

UDTF

  • 一进多出
案例一:
  • 转换前:

    "key1:value1,key2:value2,key3:value3"
    
  • 转换后:

    key1 value1
    key2 value2
    key3 value3
    
  • 方法一:使用 EXPLODE + SPLIT

    SELECT SPLIT(t.col1, ":")[0], SPLIT(t.col1, ":")[1]
    FROM (SELECT EXPLODE(SPLIT("key1:value1,key2:value2,key3:value3", ",")) AS col1) t;
    
  • 方法二:自定义 UDTF

    import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
    import org.apache.hadoop.hive.ql.metadata.HiveException;
    import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
    import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
    import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
    import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;
    import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;
    
    import java.util.ArrayList;
    
    public class HiveUDTF extends GenericUDTF {
        @Override
        public StructObjectInspector initialize(StructObjectInspector argOIs) throws UDFArgumentException {
            ArrayList<String> fieldNames = new ArrayList<>();
            ArrayList<ObjectInspector> fieldObj = new ArrayList<>();
            fieldNames.add("col1");
            fieldObj.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
            fieldNames.add("col2");
            fieldObj.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
            return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldObj);
        }
    
        public void process(Object[] objects) throws HiveException {
            String col = objects[0].toString();
            String[] splits = col.split(",");
            for (String str : splits) {
                String[] cols = str.split(":");
                forward(cols);
            }
        }
    
        public void close() throws HiveException {}
    }
    
  • 使用 SQL:

    SELECT my_udtf("key1:value1,key2:value2,key3:value3");
    
案例二:
  • 数据表id, col1, col2, col3, ..., col12 共 13 列

  • 数据a, 1, 2, 3, 4, 5, ..., 12

  • 转换结果

    a, 0时, 1
    a, 2时, 2
    a, 4时, 3
    ...
    
  • 自定义 UDTF 示例:

    public class HiveUDTF2 extends GenericUDTF {
        @Override
        public StructObjectInspector initialize(StructObjectInspector argOIs) throws UDFArgumentException {
            ArrayList<String> filedNames = new ArrayList<>();
            ArrayList<ObjectInspector> fieldObj = new ArrayList<>();
            filedNames.add("col1");
            fieldObj.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
            filedNames.add("col2");
            fieldObj.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
            return ObjectInspectorFactory.getStandardStructObjectInspector(filedNames, fieldObj);
        }
    
        public void process(Object[] objects) throws HiveException {
            int hours = 0;
            for (Object obj : objects) {
                hours = hours + 1;
                String col = obj.toString();
                ArrayList<String> cols = new ArrayList<>();
                cols.add(hours + "时");
                cols.add(col);
                forward(cols);
            }
        }
    
        public void close() throws HiveException {}
    }
    
  • 添加 JAR 文件:

    ADD JAR /path/to/HiveUDF2-1.0.jar;
    
  • 注册 UDTF

    CREATE TEMPORARY FUNCTION my_udtf AS 'com.shujia.HiveUDTF2';
    
  • 使用 SQL:

    SELECT id, hours, value 
    FROM udtfData 
    LATERAL VIEW my_udtf(col1, col2, col3, ..., col12) t AS hours, value;
    

UDAF

  • 多进一出
  • GROUP BY 等开窗函数,较少自行编写。collect_set,collect_list

Hive操作方式

  1. Hive CLI (命令行接口)

    Hive 提供命令行界面 (CLI) 执行 HiveQL 查询和管理 Hive 数据库。
    启动命令:

    hive
    
  2. Beeline

    Beeline 是 Hive 的 JDBC 客户端,支持连接 Hive Server 2,推荐用于生产环境中。
    启动 Beeline:

    beeline -u jdbc:hive2://<hive-server>:10000
    
  3. Hive JDBC 接口

    通过 JDBC 连接 Hive,执行 SQL 查询并获取结果。
    示例:

    String url = "jdbc:hive2://<hive-server>:10000/default";
    Connection con = DriverManager.getConnection(url, "username", "password");
    Statement stmt = con.createStatement();
    ResultSet rs = stmt.executeQuery("SELECT * FROM table_name");
    
  4. Apache Spark 与 Hive 集成

    使用 spark-hive 模块,允许使用 Spark SQL 查询 Hive 数据。
    配置:

    --conf spark.sql.warehouse.dir=/user/hive/warehouse \
    --conf spark.sql.catalogImplementation=hive
    

    使用 Spark SQL 查询 Hive 数据:

    val spark = SparkSession.builder()
        .appName("Hive Integration")
        .enableHiveSupport()
        .getOrCreate()
    
    spark.sql("SELECT * FROM table_name").show()
    
  5. Hive命令中的-e/-f参数

    • -e:执行一条 Hive 的 SQL 命令。
    • -f:执行一个 SQL 脚本。
  6. Crontab 中定时策略

crontab 中,定时策略通过指定一组时间字段来设置任务的执行时间。每个字段代表了一个时间单位,组合起来形成一个定时任务的执行规则。

crontab 的基本格式如下:

* * * * * command_to_execute
- - - - -
| | | | |
| | | | +---- 星期几 (0 - 7) (0 和 7 都代表星期天)
| | | +------ 月份 (1 - 12)
| | +-------- 月中的某一天 (1 - 31)
| +---------- 小时 (0 - 23)
+------------ 分钟 (0 - 59)

时间字段含义

  • 分钟(0 - 59):表示任务在每小时的哪一分钟执行。
  • 小时(0 - 23):表示任务在每天的哪个小时执行。
  • 日期(1 - 31):表示任务在每月的哪一天执行。
  • 月份(1 - 12):表示任务在哪个月执行。
  • 星期(0 - 7):表示任务在哪一天的星期执行(07 都代表星期天,1 代表星期一,以此类推)。

特殊字符

  • 星号 *:表示“每”或“任意”。例如 * 在分钟字段中表示每一分钟都执行任务。
  • 逗号 ,:用于指定多个值。例如 5,10,15 表示在第 5、10 和 15 分钟执行。
  • 连字符 -:用于指定范围。例如 1-5 表示从第 1 天到第 5 天。
  • 斜杠 /:表示步进值。例如 */5 表示每 5 个单位执行一次。

详细解释

  1. 每周一到周五的中午 12 点执行

    0 12 * * 1-5 command_to_execute
    
    • 0:在每个小时的第 0 分钟执行(即整点)。
    • 12:在每天的中午 12 点执行。
    • *:每天都执行。
    • 1-5:仅在星期一至星期五执行(星期一为 1,星期五为 5)。
  2. 每个月的 1 号和 15 号凌晨 3 点执行

    0 3 1,15 * * command_to_execute
    
    • 0:在每小时的第 0 分钟执行。
    • 3:在每天的 3 点执行。
    • 1,15:仅在每月的 1 号和 15 号执行。
    • *:每个月都执行。
  3. 每天的 1:30 AM 执行

    30 1 * * * command_to_execute
    
    • 30:在每个小时的第 30 分钟执行。
    • 1:在每天的 1 点执行。
  4. 每 10 分钟执行一次

    */10 * * * * command_to_execute
    
    • */10:表示每隔 10 分钟执行一次任务。
  5. 每个星期天的下午 2 点 30 分执行任务

    30 14 * * 0 command_to_execute
    
    • 30:在每个小时的第 30 分钟执行。
    • 14:在下午 2 点执行。
    • 0:仅在星期天(07)执行。

Hive 建表时注意事项

  1. 分区,分桶
    一般是按照业务日期进行分区,每天的数据放在一个分区里。

  2. 一般使用外部表,避免数据误删
    使用外部表时,数据存储在 HDFS 上,不会因为删除 Hive 表而删除实际数据。

  3. 选择适当的文件储存格式及压缩格式
    选择合适的文件格式,如 Parquet、ORC 等,这些格式支持列式存储并且压缩效率高。

  4. 命名要规范
    避免表名、列名使用空格、特殊字符,遵循统一的命名规范。

  5. 数据分层,表分离,但也不要分的太散
    对数据进行合理的分层设计,避免数据过于分散,影响查询性能。


Hive 优化

1. 处理数据倾斜

数据倾斜原因

  1. Key 分布不均匀
  2. 触发了 Shuffle 操作
    • GROUP BYDISTINCT
    • JOINUNION

数据倾斜的表现

  • 任务进度长时间停滞在 99%(或 100%)。
  • 单一 reduce 处理的数据量远大于其他 reduce。

解决方案

  • 检查数据源头,过滤无效数据。
  • 对重复的 key 值进行拆分或哈希。
  • 避免不必要的 Shuffle 操作。

2. 建表(分区分桶)

  1. 分区,分桶
    一般按业务日期进行分区,每天的数据放在一个分区里。

  2. 使用外部表
    使用外部表避免数据误删。

  3. 选择适当的文件存储格式及压缩格式
    使用 Parquet、ORC 等列式存储格式,适当压缩数据,减少磁盘占用。

  4. 命名要规范
    表名和列名应符合统一命名规范。

  5. 数据分层,表分离
    采用合理的数据分层设计,避免表过多或过少,避免分得过散。


3. SQL 规范

  1. 合理分区分桶
    查询时进行分区裁剪,避免扫描无关数据。

  2. WHERE 过滤
    先进行过滤,再进行 JOIN 或计算。

  3. MapJoin
    在 Hive 1.2 之后,MapJoin 默认启用。如果没有自动启用,可以手动指定:

    SELECT /*+mapjoin(b)*/ a.xx, b.xxx FROM a LEFT OUTER JOIN b ON a.id = b.id;
    

    左连接时,通常大表放在左边,小表放在右边。

  4. 合并小文件
    合并小文件以提升性能。

  5. 适当的子查询
    使用子查询时,确保子查询数量合理,避免嵌套过深影响性能。

  6. 适当的排序方式

    • ORDER BY:全局排序,只能有一个 reduce。
    • SORT BY:每个 reduce 内部排序。
    • DISTRIBUTE BY:对指定字段进行分区。
    • CLUSTER BY:类似于 DISTRIBUTE BY + SORT BY
  7. 适当的执行引擎

    • 使用 MR(MapReduce)、TezSpark 等引擎,根据不同情况选择最合适的执行引擎。

4. 开启相关参数,调整参数

  • set mapred.reduce.tasks;
    设置 Reduce 的数量。

  • set hive.auto.convert.join=true;
    开启 MapJoin,提高 JOIN 性能。

  • set hive.mapjoin.smalltable.filesize=20000000;
    设置小表的文件大小为 20M,默认值为 25M。

  • set hive.groupby.skewindata=true;
    开启数据倾斜优化。

  • set hive.map.aggr = true;
    开启预聚合功能。

  • set hive.exec.parallel=true;
    开启并行执行。

  • set hive.exec.parallel.thread.number=16;
    设置 SQL 允许的最大并行度,默认为 8。


什么是事实表、维度表?

  • 事实表
    事实表用于存储数据仓库中的业务过程量化数据,通常包含数字型数据(如销售额、订单数量、利润等)。事实表与维度表通过外键连接,提供更多上下文信息。

    特点

    • 包含度量值,如销售量、收入、支出等。
    • 每行代表一个具体的业务事件。
    • 外键字段与维度表连接。
  • 维度表
    维度表存储描述事实表中数据的相关信息,通常是文本型数据(如产品名称、客户姓名、商店地址、时间等)。

    特点

    • 包含描述性数据,如客户名称、产品类别、时间等。
    • 主键字段与事实表中的外键关联。
    • 较小的数据量。

星型模型与雪花模型的区别?

image-20241108204818736

  • 星型模型
    事实表在中心,周围是维度表。简洁、易于理解,但会导致数据冗余。

  • 雪花模型
    维度表进一步拆分成子维度表,规范化存储,减少冗余,但复杂度较高,查询性能较差。


数据仓库的分层设计

为什么要设计数据分层?

数据分层有助于数据在流转过程中保持秩序,使数据生命周期清晰、可控。避免层级混乱或复杂依赖结构。

数据分层的好处

  • 清晰数据结构:每一层有明确的职责和作用,便于使用和理解。
  • 减少重复开发:通用数据和中间层可以减少重复计算。
  • 统一数据口径:统一数据出口,确保输出数据的一致性。
  • 复杂问题简单化:将复杂任务分解成多个层次完成。

分层设计

ODS 层(Operational Data Store 数据运营层)

ODS 层接近数据源,通常不做过多的数据清洗,原始数据直接存入该层。主要用于追溯原始数据问题。

DW 层(Data Warehouse 数据仓库层)

DW 层是核心层,数据从 ODS 层抽取后,进行进一步的清洗、聚合,并按主题建立数据模型。DW 层可分为以下几层:

  • DWD 层(Data Warehouse Detail 数据明细层)
    保持与 ODS 层相同的数据粒度,做数据清洗和部分聚合。

  • DWM 层(Data Warehouse Middle 数据中间层)
    对 DWD 层数据进行轻度聚合,生成中间表,提升指标复用性。

  • DWS 层(Data Warehouse Service 数据服务层)

​又称数据集市或宽表。按照业务划分,如流量、订单、用户等,生成字段比较多的宽表,用于提供后续的业务查询,OLAP分析,数据分发等。

​一般来讲,该层的数据表会相对比较少,一张表会涵盖比较多的业务内容,由于其字段较多,因此一般也会称该层的表为宽表。在实际计算中,如果直接从DWD或者ODS计算出宽表的统计指标,会存在计算量太大并且维度太少的问题,因此一般的做法是,在DWM层先计算出多个小的中间表,然后再拼接成一张DWS的宽表。由于宽和窄的界限不易界定,也可以去掉DWM这一层,只留DWS层,将所有的数据在放在DWS亦可。

ADS/APP/DM层(Application Data Store/Application/DataMarket 数据应用层/数据集市)

在这里,主要是提供给数据产品和数据分析使用的数据,一般会存放在 ES、PostgreSql、Redis等系统中供线上系统使用,也可能会存在 Hive 或者 Druid 中供数据分析和数据挖掘使用。比如我们经常说的报表数据,一般就放在这里。

DIM层(Dimension 维表层)

维表层主要包含两部分数据:

  • 高基数维度数据:一般是用户资料表、商品资料表类似的资料表。数据量可能是千万级或者上亿级别。

  • 低基数维度数据:一般是配置表,比如枚举值对应的中文含义,或者日期维表。数据量可能是个位数或者几千几万。

image.png
posted @ 2024-11-08 21:08  ikestu小猪  阅读(30)  评论(0编辑  收藏  举报