Hive-0.13安装
Hive只需在使用节点安装即可。
1.上传tar包、解压
tar -zxvf apache-hive-0.13.0-bin.tar.gz -C /hadoop/
配置HIVE_HOME环境变量
/etc/profile
2.安装mysql
rpm -qa | grep mysql
rpm -e mysql-libs-5.1.66-2.el6_3.i686 --nodeps
rpm -ivh MySQL-server-5.1.73-1.glibc23.i386.rpm
rpm -ivh MySQL-client-5.1.73-1.glibc23.i386.rpm
初始化mysql
/usr/bin/mysql_secure_installation
注意:删除匿名用户,允许用户远程连接
登陆mysql
mysql -u root -p
3.配置hive
新建一个hive-site.xml文件,添加如下内容:
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop01:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123</value>
<description>password to use against metastore database</description>
</property>
</configuration>
4.安装完hive和mysql后,将mysql的连接jar包 "mysql-connector-java-5.1.10.jar" 拷贝到 $HIVE_HOME/lib 目录下。如果出现权限问题,在mysql授权(在安装mysql的机器上执行)
4.1.登录mysql:mysql -uroot -p
4.2.执行下面的语句 *.*:所有库下的所有表 %:任何IP地址或主机都可以连接
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123' WITH GRANT OPTION; FLUSH PRIVILEGES;
5.启动hive
使用命令:$HIVE_HOME/bin/hive
6.Hive常用的配置
1).hive在hdfs上的位置属性:hive-site.xml 的 hive.metastore.warehouse.dir
2).hive的log存储位置及日志文件名:hive-log4g.properties 的 hive.log.dir 和 hive.log.file
3).在命令行显示当前操作的DataBase:命令行执行 set hive.cli.print.current.db=true; 或者将此命令写入$HIVE_HOME/bin/.hiverc 文件
4).在命令行显示Column Name:set hive.cli.print.header=true; 或者将此命令写入$HIVE_HOME/bin/.hiverc 文件
5).四种配置属性的方式:① hive-site.xml ② $HIVE_HOME/bin/.hiverc 中配置 set key=value; ③ 命令行set key=value; ④ hive --hiveconf key=value .【前两个范围级别高,后两个只在本Session中有效】
6.hive的历史命令:保存在当前用户的 $HOME/.hivehistory 文件中 cd ~,more .hivehistory
maven编译hive
1.必须安装maven
2.进入hive-src所在目录,执行编译命令
mvn clean install -Phadoop-2,dist -DskipTests -Dhadoop-23.version=2.2.0 -Dspark.version=1.4.1 //-D传递参数,skipTests跳过测试用例. -P传递profile,参数dist编译成二进制的安装包
3.编译完成后,会在当前目录下的 packaging/target 产生hive安装包