大数据之路week07--day05 (Hive的搭建部署)

在之前博客中我有记录安装JDK和Hadoop和Mysql的过程,如果还没有安装,请先进行安装配置好,对应的随笔我也提供了百度云下载连接。

安装JDK:   https://www.cnblogs.com/wyh-study/p/12014368.html

安装Hadoop   https://www.cnblogs.com/wyh-study/p/12043948.html

安装Mysql     https://www.cnblogs.com/wyh-study/p/12044652.html

(注意:安装mysql的时候一定要确保已经执行  :

7.2  查看用户权限表: select user,host from user

7.3 update user set host = '%' where user = 'root' (提示报错不用管,忽略)

7.4 刷新权限:flush privileges

 

这里提供本次需要的资料百度云  hive压缩包和mysql的加载驱动包

链接:https://pan.baidu.com/s/1RwpHXHJlMEf7KcxgtR8T9g
提取码:5cd1

(以上准备工作已经做好后=========================)

下面开始安装Hive 

 

开始:  先启动Hadoop

 

将两个包使用Xftp拖至soft目录下

 

1、解压hive安装包

 

tar -zxvf apache-hive-1.2.1-bin.tar.gz

 

修改下目录名称

 

mv apache-hive-1.2.1-bin hive-1.2.1

 

2、备份配置文件

cp hive-env.sh.template hive-env.sh

cp hive-default.xml.template hive-site.xml

 

3、修改配置hive的配置文件(在conf目录下)

3.1 修改hive-env,sh

 

加入三行内容(大家根据自己的情况来添加,每个人安装路径可能有所不同

 

HADOOP_HOME=/usr/local/soft/hadoop-2.6.0

 

JAVA_HOME=/usr/local/soft/jdk1.8.0_171

 

HIVE_HOME=/usr/local/soft/hive-1.2.1

3.2 修改hive-site.xml (找到对应的键对值进行修改,注意!!!是修改,而不是全部直接复制粘贴)

 

(注意:修改自己安装mysql的主机地址)

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://192.168.1.80:3306/hive?createDatabaseIfNotExist=true</value>

</property>

 

(固定)

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

</property>

 

(mysql的用户名)

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>root</value>

</property>

 

(mysql的用户密码)

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>123456</value>

</property>

 

(你的hive安装目录的tmp目录)

<property>

<name>hive.querylog.location</name>

<value>/usr/local/soft/hive-1.2.1/tmp</value>

</property>

 

(同上)

<property>

<name>hive.exec.local.scratchdir</name>

<value>/usr/local/soft/hive-1.2.1/tmp</value>

</property>

 

(同上)

<property>

<name>hive.downloaded.resources.dir</name>

<value>/usr/local/soft/hive-1.2.1/tmp</value>

</property>

 

4、

拷贝mysql驱动到$HIVE_HOME/lib目录下

cp /usr/local/soft/mysql-connector-java-5.1.17.jar ../lib/

 

 

 

5、

hadoopjline-0.9.94.jarjar替换成hive的版本。

 

hivejline-2.12.jar 位置在 /usr/local/soft/hive-1.2.1/lib/jline-2.12.jar

 

Hadoop的删除

 

rm -rf   /usr/local/soft/hadoop-2.6.0/share/hadoop/yarn/lib/jline-0.9.94.jar

 

然后将hivejar拷过去hadoop下:

 

命令:

 

cp/usr/local/soft/hive-1.2.1/lib/jline-2.12.jar /usr/local/soft/hadoop-2.6.0/share/hadoop/yarn/lib/

 

6、将hive的bin目录配置到环境变量中去

 

 

 

再用source命令生效

 

 最后启动Hive

 命令: hive

posted @ 2019-12-20 20:20  Xiaohu_BigData  阅读(714)  评论(0编辑  收藏  举报