Apache kylin原理

Apache kylin原理

2018年02月06日 19:08:26 zhangxiaomei1952 阅读数 907

本文主要介绍了Apache Kylin是如何将Hive表中的数据转化为HBase的KV结构,并简单介绍了Kylin的SQL查询是如何转化为HBase的Scan操作。

Apache Kylin 是什么

Apache Kylin是一个开源的、基于Hadoop生态系统的OLAP查询引擎,能够通过SQL接口对十亿、甚至百亿行的超大数据集实现秒级的多维分析查询。

OLAP 是什么

即联机分析处理:以复杂的分析型查询为主,需要扫描,聚合大量数据。

 

Kylin如何实现超大数据集的秒级多维分析查询

预计算

对于超大数据集的复杂查询,既然现场计算需要花费较长时间,那么根据空间换时间的原理,我们就可以提前将所有可能的计算结果计算并存储下来,从而实现超大数据集的秒级多维分析查询。

 

Kylin的预计算是如何实现的

将数据源Hive表中的数据按照指定的维度和指标 由计算引擎MapReduce离线计算出所有可能的查询结果(即Cube)存储到HBase中。

Kylin 架构

 

Cube 和 Cuboid是什么

简单地说,一个cube就是一个Hive表的数据按照指定维度与指标计算出的所有组合结果。

其中每一种维度组合称为cuboid,一个cuboid包含一种具体维度组合下所有指标的值。

如下图,整个立方体称为1个cube,立方体中每个网格点称为1个cuboid,图中(A,B,C,D)和(A,D)都是cuboid,特别的,(A,B,C,D)称为Base cuboid。cube的计算过程是逐层计算的,首先计算Base cuboid,然后计算维度数依次减少,逐层向下计算每层的cuboid。

图1

Cuboid 的维度和指标如何转换为HBase的KV结构

简单的说Cuboid的维度会映射为HBase的Rowkey,Cuboid的指标会映射为HBase的Value。如下图所示: 图2

如上图原始表所示:Hive表有两个维度列yearcity,有一个指标列price

如上图预聚合表所示:我们具体要计算的是yearcity这两个维度所有维度组合(即4个cuboid)下的sum(priece)指标,这个指标的具体计算过程就是由MapReduce完成的。

如上图字典编码所示:为了节省存储资源,Kylin对维度值进行了字典编码。图中将beijingshanghai依次编码为0和1。

如上图HBase KV存储所示:在计算cuboid过程中,会将Hive表的数据转化为HBase的KV形式。Rowkey的具体格式是cuboid id + 具体的维度值(最新的Rowkey中为了并发查询还加入了ShardKey),以预聚合表内容的第2行为例,其维度组合是(year,city),所以cuboid id就是00000011,cuboid是8位,具体维度值是1994和shanghai,所以编码后的维度值对应上图的字典编码也是11,所以HBase的Rowkey就是0000001111,对应的HBase Value就是sum(priece)的具体值。

所有的cuboid计算完成后,会将cuboid转化为HBase的KeyValue格式生成HBase的HFile,最后将HFile load进cube对应的HBase表中。

Cube 构建过程

 

1 从Hive表生成Base Cuboid

在实际的cube构建过程中,会首先根据cube的Hive事实表和维表生成一张大宽表,然后计算大宽表列的基数,建立维度字典,估算cuboid的大小,建立cube对应的HBase表,再计算base cuboid。

计算base cuboid就是一个MapReduce作业,其输入是上面提到的Hive大宽表,输出是的key是各种维度组合,value是Hive大宽表中指标的值。


 
  1. org.apache.kylin.engine.mr.steps.BaseCuboidJob

  2.  
  3. map 阶段生成key-value的代码如下:

  4.  
  5. protected void outputKV(Context context) throws IOException, InterruptedException {

  6. intermediateTableDesc.sanityCheck(bytesSplitter);

  7.  
  8. byte[] rowKey = buildKey(bytesSplitter.getSplitBuffers());

  9. outputKey.set(rowKey, 0, rowKey.length);

  10.  
  11. ByteBuffer valueBuf = buildValue(bytesSplitter.getSplitBuffers());

  12. outputValue.set(valueBuf.array(), 0, valueBuf.position());

  13. context.write(outputKey, outputValue);

  14. }

  15.  
  16. 所有计算cuboid的reduce阶段代码都一样,见下面。

2 从Base Cuboid 逐层计算 Cuboid。

从base cuboid 逐层计算每层的cuboid,也是MapReduce作业,map阶段每层维度数依次减少,reduce阶段对指标进行聚合。


 
  1. org.apache.kylin.engine.mr.steps.CuboidReducer public void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException {

  2. aggs.reset(); //MeasureAggregators 根据每种指标的不同类型对指标进行聚合

  3.  
  4. for (Text value : values) {

  5. codec.decode(ByteBuffer.wrap(value.getBytes(), 0, value.getLength()), input);

  6. if (cuboidLevel > 0) { // Base Cuboid 的 cuboidLevel 是0

  7. aggs.aggregate(input, needAggr); //指标进行进一步聚合

  8. } else {

  9. aggs.aggregate(input);

  10. }

  11. }

  12. aggs.collectStates(result);

  13.  
  14. ByteBuffer valueBuf = codec.encode(result);

  15.  
  16. outputValue.set(valueBuf.array(), 0, valueBuf.position());

  17. context.write(key, outputValue);

3 Cuboid 转化为HBase的HFile。

主要就是数据格式的转化。详情请参考: Hive 数据 bulkload 导入 HBase

 

不同类型的指标是如何进行聚合的

每种不同的指标都会有对应的聚合算法,所有指标聚合的基类是org.apache.kylin.measure.MeasureAggregator。其核心方法如下:


 
  1. abstract public void reset();

  2. //不同类型的指标算法会实现该方法

  3. abstract public void aggregate(V value);

  4.  
  5. abstract public V getState();

以最简单的long类型的sum指标为例:


 
  1. public class LongSumAggregator extends MeasureAggregator<LongMutable> {

  2.  
  3. LongMutable sum = new LongMutable();

  4.  
  5. @Override

  6. public void reset() {

  7. sum.set(0);

  8. }

  9.  
  10. @Override

  11. public void aggregate(LongMutable value) {

  12. sum.set(sum.get() + value.get());

  13. }

  14.  
  15. @Override

  16. public LongMutable getState() {

  17. return sum;

  18. }

  19. }

SQL查询是如何转化为HBase的Scan操作的

还是以图2举例,假设查询SQL如下:


 
  1. select year, sum(price)

  2. from table

  3. where city = "beijing"

  4. group by year

这个SQL涉及维度yearcity,所以其对应的cuboid是00000011,又因为city的值是确定的beijing,所以在Scan HBase时就会Scan Rowkey以00000011开头且city的值是beijing的行,取到对应指标sum(price)的值,返回给用户。

总结

本文主要介绍了Apache Kylin是如何将Hive表中的数据转化为HBase的KV结构,并简单介绍了Kylin的SQL查询是如何转化为HBase的Scan操作。希望对大家有所帮助。

posted @ 2019-08-22 16:06  grj001  阅读(96)  评论(0编辑  收藏  举报