impala入门

一、概述

Impala 是参照google 的新三篇论文Dremel(大批量数据查询工具)的开源实现,功能类似shark(依赖于hive)和Drill(apache),impala 是clouder 公司主导开发并开源,基于
hive并使用内存进行计算,兼顾数据仓库,具有实时,批处理,多并发等优点。是使用cdh 的首选PB 级大数据实时查询分析引擎。(也可以单独安装使用,但一般都是和CDH一起使用;)

参考:
https://www.cloudera.com/products/open-source/apache-hadoop/impala.html

http://impala.apache.org/


Impala可以直接在存储在HDFS,HBase或Amazon Simple Storage Service(S3)中的Apache Hadoop数据上提供快速,交互式的SQL查询。 除了使用相同的统一存储平台,
Impala和Apache Hive一样还使用相同的元数据,SQL语法(Hive SQL),ODBC驱动程序和用户界面(Hue中的Impala查询UI)。

Impala是用于查询大数据的工具的补充。 Impala不会替代基于MapReduce的批处理框架,如Hive。 基于MapReduce的Hive和其他框架最适用于长时间运行的批处理作业,
例如涉及批处理Extract,Transform和Load(ETL)类型作业的工作。


二、impala架构

image


Impala属于无主模型,没有再使用缓慢的 Hive+MapReduce批处理,而是通过使用与商用并行关系数据库中类似的分布式查询引擎(由Query Planner、Query Coordinator和
Query Exec Engine三部分组成),可以直接从HDFS或HBase中用SELECT、JOIN和统计函数查询数据,从而大大降低了延迟。

由于impala是基于hive的,impala表的元数据信息依然存储在Hive Metastore中;


Statestore Daemon

该进程负责搜集集群中Impalad进程节点的健康状况,它通过创建多个线程来处理Impalad的注册订阅,并与各节点保持心跳连接,不断地将健康状况的结果转发给所有的
Impalad进程节点。一个Impala集群只需一个statestored进程节点,当某一节点不可用时,该进程负责将这一信息传递给所有的Impalad进程节点,再有新的查询时不会把请
求发送到不可用的Impalad节点上。

statestored也是允许挂掉的,不会影响集群运行,因为impalad节点之间也会保持通信,但是当statestored和某一部分impalad都挂掉了,就会出问题,因为没有了statestored,
而impalad节点之间并不能识别出是否有某些impalad挂了,依然会与挂掉的impalad通信,此时就会出问题;


Catalog Daemon

把impala表的metadata分发到各个impalad 中,说他是基于hive 的,所以就需要metadata数据分到impalad 中,以前没有此进程,就是手动来进行同步的。虽然之后加入了,
但是也没有那么智能,并不是保证所有的数据都能同步,比如你插入一些数据,他可以把数据发到其他节点,但是比如创建表ddl 语句,建议去手动做一下。接收来自
statestore 的所有请求,当impala deamon节点插入或者查询数据时候(数据改变的时候),他把自己的操作结果汇报给state deamon,然后state store 请求catelog deamon,告知重
新更新元数据信息给impalad 中,所以catalog deamon 与statedeamon 放到一台机器上,而且不建议在此机器上再去安装impala deamon 进程,避免造成提供查询造成集群管
理出问题;


Impala Daemon

与DataNode运行在同一节点上,是Impala的核心组件,在每个节点上这个进程的名称为Impalad。该进程负责读写数据文件;接受来自Impala-shell、Hue、JDBC、ODBC等客
户端的查询请求(接收查询请求的Impalad为Coordinator),Coordinator通过JNI调用java前端解释SQL查询语句,生成查询计划树,再通过调度器把执行计划分发给具有相应
数据的其它节点分布式并行执行,并将各节点的查询结果返回给中心协调者节点Coordinator,再由该节点返回给客户端。同时Impalad会与State Store保持通信,以了解其
他节点的健康状况和负载。


Impalad 里面的三个组件

impalad:
impala statestore 和catalog server两个角色,就具备集群调节的功能;
真正的工作就是在impalad节点上,客户端执行查询的时候可以选一个impalad节点来执行,此时这个节点的内存要配置大一些,因为最后要汇总查询结果;
当选定impalad节点后,此节点上的Query coordinato进程会进行协调,找到与此查询相关的数据块在哪些机器节点上,然后由每个节点的Query executor进程负责查询;
也可以写一个轮询或者权重算法,当有查询任务时,负载到一批impalad节点上,解决高并发问题;


Query planner(查询解析器):
接收来自SQL APP和ODBC等的查询,然后将查询转换为许多子查询(执行计划),相当于一个代理;

Query coordinator(中心协调节点):
将这些子查询分发到各个节点上

Query executor(查询执行器):
真正负责子查询的执行,然后返回子查询的结果,这些中间结果经过聚集之后最终返回给用户。


三、impala安装

安装就不说了,对于熟悉CDH的朋友来说,是很简单的,完全图形化操作;

一般有两种方式:

1、cloudermanager安装(建议)

方便、快捷

2、手动安装(不建议)

没试过,估计有坑


四、impala shell

外部shell:

外部shell也就是在Linux命令行里配合"impala-shell"命令使用的;

-h (--help) 帮助
-v (--version) 查询版本信息-V(--verbose) 启用详细输出
--quiet 关闭详细输出
-p 显示执行计划
-i hostname(--impalad=hostname) 指定连接主机 格式hostname:port 默认端口21000
-r(--refresh_after_connect)刷新所有元数据,全量刷新,不太建议使用,当数据量大的时候很慢,还可能导致某些节点出问题。
-q query(--query=query) 从命令行执行查询,不进入impala-shell
-d default_db(--database=default_db) 指定数据库
-B(--delimited)去格式化输出
    --output_delimiter=character 指定分隔符
    --print_header 打印列名
-f query_file(--query_file=query_file)执行查询文件,也就是执行SQL文件,文件内容以分号分隔
-o filename(--output_file filename) 结果输出到指定文件
-c 查询执行失败时继续执行,也就是跳过失败的sql语句
-k(--kerberos) 使用kerberos安全加密方式运行impala-shell
-l 启用LDAP认证
-u 启用LDAP时,指定用户名Impala Shell


内部shell:

内部sell,也就是使用“impala-shell”命令连接进impala后使用的;

help 帮助选项
connect <hostname:port> 连接到某个impalad 实例,默认端口21000 
refresh <tablename> 增量刷新元数据库 
invalidate metadata 全量刷新元数据库,性能消耗较大
explain <sql> 显示查询执行计划、步骤信息
set explain_level 设置显示级别( 0,1,2,3),越高信息越详细
shell <shell> 不退出impala-shell执行Linux命令
    impala>shell ls /home
profile (查询完成后执行) 查询最近一次查询的底层信息


五、web监控

impala提供了StateStore和Catalog进程的web监控页面;

StateStore:

http://ip:25020


Catalog:

http://ip:25010
posted @ 2019-12-04 11:17  米兰的小铁將  阅读(2458)  评论(0编辑  收藏  举报