work hard work smart

专注于Java后端开发。 不断总结,举一反三。
  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

大数据数据仓库Hive基本使用

Posted on 2021-02-02 23:12  work hard work smart  阅读(166)  评论(0编辑  收藏  举报

1、创建表

create table hive_wordcount(context string);

 

 

2、查看表

show tables;

 

 

3、查询表数据

 

 

4、查看刚才创建的Mysql数据库sparksql的表TBLS,可以发现已经有1条记录了,TBL_NAME 为hive_wordcount

 

 

从COLUMNS_V2表查看刚才创建的hive_wordcount表的字段。

 

5、加载数据到Hive表里

数据准备,就是前面用到的数据。 /home/data/hello.txt文件

 

 

load data local inpath  '/home/data/hello.txt'  into table hive_wordcount;

 

 

查看数据

 

 可以发现,已经有两行数据了。

 

6、查询统计单词个数功能

select word,count(1) from hive_wordcount lateral view explode(split(context,' ')) wc as word group by word
lateral view explode(): 该函数是把每行记录按照指定分隔符进行拆解。 split(context,' ')空格分隔。

 

 统计结果hello 2个,welcome 2个 world 1个

 

 

 然后访问8088端口

 

 总结: hive ql 提交执行后会生成mr作业,并在yarn上运行。对比MapReduce实现更简单,只需要使用HQL语句就行。