Hive安装和部署

在root的用户下搭建的

构建hive之前必须要先搭建好hadoop才可以。

hive定义了一种类似SQL查询语言--HQL

类似SQL ,但是不完全相同

Hive是一个数据仓库,它部署在Hadoop集群上,它的数据是存储在HDFS上的,Hive所建的表在HDFS上对应的是一个文件夹,表的内容对应的是一个文件。

1):前提 安装Hadoop 2.x版本 

2):先安装mysql 

      命令: apt-get install mysql-server

3):下载hive 命令:wget  https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-2.3.0/apache-hive-2.3.0-bin.tar.gz

 4):配置hive的环境变量

   命令:cd /etc/profile.d/hive-en.sh

export HIVE_HOME=/usr/local/hive
export HCAT_HOME=$HIVE_HOME/hcatalog
export HIVE_CONF=$HIVE_HOME/conf
export PATH=$PATH:$HIVE_HOME/bin
View Code

       保存退出,使用source配置生效

       命令: source /etc/profile.d/hive-en.sh             

 5):解压并且重命令为hive,放到/usr/local/路径下

          ①:再配置hive-site.xml之前查看是否存在 mysql-connector-java-5.1.38-bin.jar ,版本根据实际情况下载

        进入hive文件的lib下查看 ,使用

                     命令: ls -l    mysql-connector-java-5.1.38-bin.jar

              

         ②: 进入hive里面的conf文件下

         查看是否存在hive-site.xml这个文件 

          不存在就拷贝一个

命令 :cp hive-default.xml.template  hive-site.xml

      ③:配置hive-site.xml

      命令 :vim  hive-site.xml

    1:  把 ,value>mine</value> 改成 刚刚mysql设置密码

     

 

      2:    把<value>jdbc:derby:;databaseName=metastore_db;create=true</value>
           改成
         <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true
         </value>

         

      3:    /javax.jdo.option.ConnectionDriverName
             改<value>org.apache.derby.jdbc.EmbeddedDriver</value>为
               <value>com.mysql.jdbc.Driver</value>

                    

       4:/hive.metastore.schema.verification 

              把true改为false

       

      5:

    

      6:再添加内容  

<property>       
         <name>datanucleus.schema.autoCreateSchema</name>
         <value>true</value>
    </property>
    <property>
         <name>datanucleus.schema.autoCreateSchema</name>
         <value>true</value>
    </property>

    <property>
        <name>datanucleus.schema.autoCreateTables</name>
        <value>true</value>
    </property>

    <property>
        <name>datanucleus.schema.autoCreateColumns</name>
        <value>true</value>
    </property>
View Code

 

 

 

 7:把所有的${system:java.io.tmpdir}改为==》tmp 

      把所有的${system:user.name}改为==》root

  

 ==》

 

 保存退出

 6):先要启动hadoop 先 再启动 hive

  启动hadoop命令 : start-dfs.sh

启动hive命令:hive

 

 

posted @ 2017-10-12 17:09  Xiao_野猪  阅读(1023)  评论(0编辑  收藏  举报