Vertica数据查询优化

vertica是惠普公司推出的列式分布式数据库,在OLAP领域有其独到的地方,目前社区版免费,但是只能存放1T的数据。我在工作中维护的bi系统后端就是使用的vertica数据库,平时也经常需要对于数据库的查询进行一些优化。所以写下这篇博客记录一下。

  1. 定位问题
    所谓的数据库调优、程序优化之类的工作,实际上是一个解决问题的过程,而解决问题,第一部就是需要定位问题。找到问题的手段多种多样,可以通过分析程序、监控生产上服务器的性能、定期生成数据库的负载报告等手段,而最不应该的就是通过生产上用户的反馈来反映问题了,因为到了那个时候,一切都已经晚了。具体到vertica来说,通过QUERY_PROFILES这个数据库本身提供的视图,可以找到耗时和执行的多的sql语句。以下三条sql语句,分别统计出执行次数top10,单次执行耗时top10,执行总耗时top10的sql语句。
    SELECT
        query,
        count(*) as times
    FROM
        QUERY_PROFILES
    WHERE
        query_type = 'QUERY'
        and  query_start>='2015-02-13'
        group by query
    ORDER BY
        times DESC limit 10;
    SELECT
        query,
       avg(query_duration_us) as avg_cost
    FROM
        QUERY_PROFILES
    WHERE
        query_type = 'QUERY'
        and  query_start>='2015-02-13'
        group by query
    ORDER BY
       avg_cost DESC limit 10;
    SELECT
        query,
       sum(query_duration_us) as total_cost
    FROM
        QUERY_PROFILES
    WHERE
        query_type = 'QUERY'
        and  query_start>='2015-02-13'
        group by query
    ORDER BY
       total_cost desc  limit 10;
    

      

  2. 分析问题
    数据库调优,其实非常依赖于数据库本身提供的各种性能分析工具,例如执行计划解释器,跟着profile工具。在vertica中,可以通过profile,分析一条具体的sql语句。我们分析一条第一步中获取到的sql语句:

    获取到这个语句的transcation_idstatement_id 以后,可以通过查询系统表 query_plan_profiles获得语句实际的执行计划和各个阶段的执行时间,这个不同于执行计划,这是真实的执行过程。如图:

    sql的执行是从下往上的,在这个表里面列出了PATH ID,我们可以从PATH ID从大到小一步一步分析,每一步的执行耗时。注意PATH ID:4这一步,查询了一张事实表,cost是2K,处理了4M的数据。这一步就是我们分析的重点,因为它排在执行步骤的较前面并且处理了较多的数据。

  3. 解决问题
    通过运行analyze_wordload,可以得到对某个表具体的优化建议。我们对,PATH ID:4的这个步骤查询的事实表,进行分析,可以得到如下优化建议:

    其中第一条指的是,运行vertica提供的database designer工具,对这个事实表建立映射,此方法代价比较大,而且只能对特定的查询优化,这里进行第二条操作,对于此事实表进行分析,得到它的统计信息。

    这条命令,只会访问此表10%的数据,返回0表示成功。进行了统计信息之后,重新执行第1步和第2步,得到新的计划如下:

    可以观察到,执行步骤被调整了,原来PATH ID:4的步骤比较耗时,现在被提前到PATH ID:5了,而且执行的成本和消耗资源也不一样,以下是详细对比:

    优化之前:

    | | | +-- Outer -> STORAGE ACCESS for T330143 [Cost: 2K, Rows: 4M (NO STATISTICS)] (PATH ID: 4)

    优化之后:

    | | | +-- Outer -> STORAGE ACCESS for T330143 [Cost: 94, Rows: 18K] (PATH ID: 5)。

    可见,对于事实表的dt自动进行分析以后,通过dt字段获取数据,扫描行数从4M减少到了18k,cost从2k减少了94,整个sql的执行时间也从0.34秒降低到了0.17秒。至此,此次优化得到了目的(执行时间减少了50%)。

  4. 分析背后的机制

    为什么Vertica数据库获取了统计信息以后,就可以优化查询?因为这张事实表是按照dt字段进行分区,但是在没有统计信息的时候,即使查询条件带上了分区字段,仍然没有利用分区信息,通过查询v_monitor.query_events视图可以看到sql执行过程中发生的事件。优化之前:

    优化之后:

    其中PARTITIONS_ELIMINATED的描述Some storage containers will not be processed because they contain no relevant data说明分区信息起作用了。

  5. 总结
    简单的vertica优化,一步的步骤如下:
    1. 收集sql统计信息,找出执行次数很多或者执行时间久的sql语句。
    2. 对要优化是sql进行profile,拿到此次执行profile的transaction_id和statement_id
    3. 利用vertica本身提供的工具和系统表,例如Datab Designer、Workload Analyzer、query_plan_profiles、v_monitor.query_events得到sql的执行计划和具体的优化建议。

    对于查询的优化,从简单到复杂依次为:更新统计信息,运行database designer自动在表上建立projection(类似于物理视图)、手工建立projection 。

  6. 可以研究的地方
    同样是分区表, 为什么在oracle中如果查询条件带上了分区健,就能正确的利用分区信息进行优化,而且vertica确不行呢?我猜可能有以下几点可能
    1. 建表方式不对,所谓的分区并没有起到作用。(类似于vertica中的主键约束)
    2. vertica本身不支持,需要利用额外的统计信息去做优化。
    3. 因为应用是OLAP场景,每天导入的数据量过大,所以统计信息很快失效。
posted @ 2015-07-24 10:26  JavaNerd  阅读(7133)  评论(2编辑  收藏  举报