Hive-文件存储格式

Hive-文件格式

TEXTFILE

描述

TEXTFILE是普通的文本型文件,是Hadoop里最常用的输入输出格式,也是Hive的默认文件格式。

输入输出包

org.apache.hadoop.mapred.TextInputFormat

org.apache.hadoop.mapred.TextOutputFormat

SEQUENCEFILE

描述

Sequence文件是由二进制键值对组成的平面文件。Hive将查询转换成MapReduce作业时,决定一个给定记录的哪些键/值对被使用,Sequence文件是可分割的二进制格式,主要的用途是联合多个小文件

Hadoop处理少量大文件比大量小文件的性能要好。如果文件小于Hadoop定义的块大小(Hadoop 2.x默认是128MB),可以认为是小文件。元数据的增长将转化为NameNode的开销。如果有大量小文件,NameNode会成为性能瓶颈。为了解决这个问题,Hadoop引入了Sequence文件,将Sequence作为存储小文件的容器

输入输出包

org.apache.hadoop.mapred.SequenceFileInputFormat

org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat

RCFILE

描述

RCFILE指的是Record Columnar File,是一种高压缩率的二进制文件格式,被用于在一个时间点操作多行的场景。RCFILE是由二进制键/值对组成的平面文件,这点与SEQUENCEFILE非常相似。

RCFILE以记录的形式存储表中的列,即列式存储。它先分割行做水平分区,然后分割列做垂直分区。RCFILE把一行的元数据作为键,把行数据作为值。这种面向列的存储在执行数据分析时更高效

输入输出包

org.apache.hadoop.hive.ql.io.RCFileInputFormat

org.apache.hadoop.hive.ql.io.RCFileOutputFormat

ORCFILE

描述

ORC指的是Optimized Record Columnar,相对于其他文件格式,它以更优化的方式存储数据。ORC能将原始数据的大小所见75%。从而提升了数据处理的速度。

ORCTextSequenceRC文件格式有更好的性能,而且ORC是目前Hive中唯一支持事务的文件格式。

输入输出包

org.apache.hadoop.hive.ql.io.orc

 

文件格式选取

如果数据有参数化的分隔符,可以选择TEXTFILE格式

如果数据所在文件比块尺寸小,可以选择SEQUENCEFILE格式

如果像执行数据分析,并高效的存储数据,可以选择RCFILE

如果希望减小数据所需的存储空间并提升性能,可以选择ORCFILE格式

posted on   嘣嘣嚓  阅读(229)  评论(0编辑  收藏  举报

编辑推荐:
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 记一次.NET内存居高不下排查解决与启示

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示