HIVE的Shell操作

1、Hive支持的一些命令

退出使用quit或exit离开交互式外壳。

set key = value使用它来设置特定配置变量的值。 这里要注意的一件事是,如果您对变量名拼写错误,cli将不会显示错误。

set这将打印由用户或配置单元覆盖的配置变量列表。

set -v这将打印所有hadoop和hive配置变量。

添加文件[文件] [文件] *将文件添加到资源列表

添加jar jarname

list FILE列出所有添加到分布式缓存的文件

list FILE [file] *检查给定资源是否已经添加到分布式缓存中

! [cmd]从配置单元外壳执行外壳命令

dfs [dfs cmd]从配置单元外壳执行dfs命令

2、语法结构

1、-i 从文件初始化 HQL

2、-e 从命令行执行指定的 HQL

3、-f 执行 HQL 脚本

4、-v 输出执行的 HQL 语句到控制台

5、-p connect to Hive Server on port number

6、-hiveconf x=y(Use this to set hive/hadoop configuration variables)

7、-S:表示以不打印日志的形式执行命名操作

linux命令行下直接运行HQL:hive -e "select * from cookie.cookie1;"

linux命令行下调用写好的HQL文件:hive -f hive.sql

linux命令行下调用写好的Conf文件配置参数  hive -i initive.conf

二、Hive的参数配置方式

1、Hive的参数配置大全

https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties

2、Hive的参数设置方式

开发 Hive 应用时,不可避免地需要设定 Hive 的参数。设定 Hive 的参数可以调优 HQL 代码 的执行效率,或帮助定位问题。然而实践中经常遇到的一个问题是,为什么设定的参数没有 起作用?这通常是错误的设定方式导致的

对于一般参数,有以下三种设定方式

1、配置文件 (全局有效)

Hive 的配置文件包括:

  A. 用户自定义配置文件:$HIVE_CONF_DIR/hive-site.xml

  B. 默认配置文件:$HIVE_CONF_DIR/hive-default.xml

用户自定义配置会覆盖默认配置。

另外,Hive 也会读入 Hadoop 的配置,因为 Hive 是作为 Hadoop 的客户端启动的,Hive 的配 置会覆盖 Hadoop 的配置。

配置文件的设定对本机启动的所有 Hive 进程都有效。

2、命令行参数(对 hive 启动实例有效)

启动 Hive(客户端或 Server 方式)时,可以在命令行添加-hiveconf param=value 来设定参数,例如:

hive    -hiveconf   hiveroot.logger=INFO,console

这一设定对本次启动的 session(对于 server 方式启动,则是所有请求的 session)有效。

3、参数声明 (对 hive 的连接 session 有效)

 

 

这一设定的作用域也是 session 级的。

set hive.exec.reducers.bytes.per.reducer= 每个 reduce task 的平均负载数据量 Hive 会估算总数据量,然后用该值除以上述参数值,就能得出需要运行的 reduceTask 数

set hive.exec.reducers.max= 设置 reduce task 数量的上限

set mapreduce.job.reduces= 指定固定的 reduce task 数量

但是,这个参数在必要时<业务逻辑决定只能用一个 reduce task> hive 会忽略,比如在设置 了 set mapreduce.job.reduces = 3,但是 HQL 语句当中使用了 order by 的话,那么就会忽略该参数的设置。

上述三种设定方式的优先级依次递增。即参数声明覆盖命令行参数,命令行参数覆盖配置 文件设定。注意某些系统级的参数,例如 log4j 相关的设定,必须用前两种方式设定,因为 那些参数的读取在 session 建立以前已经完成了。









posted @ 2019-12-24 20:53  一只竹节虫  阅读(1117)  评论(0编辑  收藏  举报