【大数据面试】【框架】Hive:架构、计算引擎、比较、内外部表、by、函数、优化、数据倾斜、动静态分区

一、组成

1、架构

源数据原本是存在dubby数据库,存在MySQL可以支持多个客户端

客户端、数据存储(HDFS)、MR计算引擎

2、计算引擎的选择

MR引擎:基于磁盘,计算时间长,但一定能算出结果【一般用于计算周指标、月指标、年指标,一个任务3-5天】

tez引擎:基于内存,计算时间快,如果宕机,数据直接丢掉【一般用于临时调试,但容易出现OOM】

Spark引擎:既基于内存,也会落盘,居中【一般用于每天的定时任务】

二、与MySQL/Hbase的区别

          hive                  MySQL          Hbase

1、数据量大小            大         小

2、速度                    数据量大/快      数据量小/慢

3、擅长      查询     增删改查     擅长插入不擅长查询

三、内部表和外部表的区别【出现频率最高&最简单】

1、最重要-元数据、原始数据

删除数据的时候,内部表会将元数据和原始数据全部删除,外部表只会删除元数据,原始数据不会被删除

2、在公司生产环境下,什么情况创建内部表,什么情况创建外部表

先导入hdfs,再将hdfs与hive表进行关联

绝大多数场景都是创建外部表【多个人共同使用】

只有在自己使用的临时表时,才会创建内部表

四、四个by

1、用法

order by:全局排序,针对自己用的临时表

sort by:排序

distribute by:分区

c:排序和分区字段相同时使用

5、在生产环境下

是否使用order by

不用,全局排序,数据量比较大

京东40-50T内存,都会OOM

s+d用的比较多:主要是在分区内部进行排序,效果最佳

c用的也会比较少

五、函数

1、系统函数

时间相关(日、月、周的处理)

日:date_add date_sub

周:next_day

月:date_format last_day

解析json☆:get_json_object

2、自定义函数

(1)组成

自定义UDF:项目中使用UDF解析公共字段

自定义UDTF:项目中使用UDTF解析具体的事件字段

自定义UDAF(spark)

(2)如果项目中不使用UDAF和UDTF能否对数据解析?

可以用系统函数,get_json_object【不定义】

(3)用系统函数能解决,为什么还要自定义

如果使用系统函数,解析失败只会抛出异常,不会抛出因为什么原因没解析出来

而自定义的方式,可以将每一个过程日志打印出来【更灵活,方便调试】

(4)自定义UDF步骤

定义一个类,继承UDF,重写内部的evaluate方法(实现其业务逻辑)

(5)自定义UDTF的步骤

定义一个类,继承GenericUDTF,重写内部的初始化、process、stop

(5)使用步骤

打包 =》上传到集群 =》在hive里面创建永久函数

3、窗口函数☆

rank

over

需要手写topn☆(使用开窗的方式)

六、Hive的优化

1、mapjoin

默认是打开的,不要关闭

2、行列过滤

出题形式,join where==》优化后先where后join

能提前过滤就提前过滤,再进行join操作

3、创建分区表

分桶【少】:对数据不太清楚时(不同key数据量不同,将key打散,对数据分组采样,)【分区表的优化手段】

分区表更常见

4、小文件处理

combinInputformat减少切片,进而减少map task,从而减少内存分配

开启JVM重用

采用merge的方式:

针对maponly的任务,默认打开-执行完任务后,会将小于16M的文件合并到256M(hive的块大小)

针对MapReduce任务,需要打开merge功能

5、合理设置map个数和reduce个数

map个数怎么设置:切片的大小-规则为max(0, min(块大小, Long的最大值))

128M数据对应1G内存

6、压缩

好处:减少磁盘所占的空间,减少网络传输

坏处:增加了解压缩计算

7、采用列式存储ORC/parquet

好处:提高查询效率,提高压缩比例 100G==> 10G ==》5-6G

如:

id         name       age

1       zhangsan     15

2           lisi             18

行存:1       zhangsan     15,2           lisi             18

select age from user,属于随机存储

列式存储:1  2    zhangsan lisi   15 18

select age from user,直接取 15 18,属于顺序读写

8、在reduce端开启combiner

要求不能影响最终的业务逻辑

七、数据倾斜

1、数据倾斜的表现

hql发生在reduce聚合时

 

 

 2、什么情况下会产生数据倾斜

不同数据类型关联产生数据倾斜(用户表中的id为int类型,log表中定义的用户id是string类型,两张表进行join操作时,数据不匹配,所有数据进入同一个reduce,其他都为空)

解决方式:

 

 

 3、如何解决数据倾斜

(1)group by由于distinct group by

(2)在map端对数据进行join

(3)开启数据倾斜时负载均衡

 

 

 

 数据倾斜时,对reduce任务拆分,加随机数把数据打散,拆成多个reduce

 

 将多个执行的reduce重新聚合,按照groupby,将同一个key的聚合为一个reduce

 

 (4)控制数据分布,避免数据倾斜【类型不一致/空值】

默认值为空数据的值很大,可以在后面加随机数

将空值的分配一个特殊的值

八、hql练习

1、用的是动态分区吗,动态分区的底层原理

静态分区

insert  overwrite table1 patition(dt=2021-12-14)

select age, name from user

动态分区

insert  overwrite table1 patition(dt)

select age, name,dt from user

select age, name,'2021-12-14' from user

2、各自特点

静态是编译期时用户传递过来的

动态分区是执行SQL语句的时候才会决定(动态添加的值)

3、hive的字段分隔符

默认分隔符是\001,即^A

咱们使用的是\t

能否采用\abc作为分隔符

能,按照规范,前面不要出现这些字段,

如果出现,会产生什么后果

抛异常、类型不匹配(转换异常)

出现了,要对其进行转义,转义为普通的字符

posted @ 2021-12-14 22:27  哥们要飞  阅读(249)  评论(0编辑  收藏  举报