hbase安装

1.前期准备

  hadoop集群(3节点或5节点)

  zookeeper集群

2.hbase安装步骤

  • 1、下载安装包

  • 2、规划安装目录

    • /opt/bigdata

  • 3、上传安装包到服务器

  • 4、解压安装包到指定的规划目录

    • tar -zxvf hbase-1.2.1-bin.tar.gz -C /opt/bigdata

  • 5、重命名解压目录

    • mv hbase-1.2.1 hbase

  • 6、修改配置文件

    • 1、需要把hadoop中的配置core-site.xml 、hdfs-site.xml拷贝到hbase安装目录下的conf文件夹中

    • 2、修改conf目录下配置文件

      • 修改 hbase-env.sh

      #添加java环境变量
      export JAVA_HOME=/opt/bigdata/jdk
      #指定使用外部的zk集群
      export HBASE_MANAGES_ZK=FALSE
      • 修改 hbase-site.xml

      <configuration>
                <!-- 指定hbase在HDFS上存储的路径 -->
              <property>
                      <name>hbase.rootdir</name>
                      <value>hdfs://node1:9000/hbase</value>
              </property>
                      <!-- 指定hbase是分布式的 -->
              <property>
                      <name>hbase.cluster.distributed</name>
                      <value>true</value>
              </property>
                      <!-- 指定zk的地址,多个用“,”分割 -->
              <property>
                      <name>hbase.zookeeper.quorum</name>
                      <value>node1:2181,node2:2181,node3:2181</value>
              </property>
      </configuration> 
      • 修改regionservers

      #指定regionserver节点
      node2
      node3
      • 修改backup-masters

      node2
  • 7、配置hbase的环境变量

    export HBASE_HOME=/opt/bigdata/hbase
    export PATH=$PATH:$HBASE_HOME/bin

      修改hive安装目录的所属用户和组为hadoop:hadoop
      [root@node1 bigdata]# chown -R hadoop:hadoop hbase/
      修改hive安装目录的读写权限
      [root@node1 bigdata]# chmod -R 755 hbase/

  • 8、分发hbase目录和环境变量到其他节点

    scp -r hbase node2:/opt/bigdata
    scp -r hbase node3:/opt/bigdata
    scp /etc/profile node2:/etc
    scp /etc/profile nod3:/etc
  • 9、让所有节点的hbase环境变量生效

    • 在所有节点执行

      • source /etc/profile

2、hbase集群的启动和停止

2.1 启动
  • 前提条件:先启动hadoop和zk集群

    start-dfs.sh

    单独运行zk:(每个节点都执行下)

  • zkServer.sh start
  • 写Shell脚本快速启动ZooKeeper集群

    /home/hadoop/script/

    批量运行zk启动:

sh start_zk.sh

   停止成都:

sh stop_zk.sh
  文件start_zk.sh和stop_zk.sh内容如下:
#start_zk.sh
#!/bin/bash
for host in node1 node2 node3
do
  ssh $host "source /home/hadoop/.bash_profile; nohup zkServer.sh start >/dev/null 2>&1 &"
  echo "$host zk is running..."
done
​
​

#stop_zk.sh
#!/bin/bash
for host in node1 node2 node3
do
  ssh $host "source /home/hadoop/.bash_profile; nohup zkServer.sh stop >/dev/null 2>&1 &"
  echo "$host zk is stopping..."
done

 

  • 启动hbase

    • start-hbase.sh

      启动后,只有node3节点不出现HRegionserver原因:node3与其他节点同步时间不一致。需要重新设置,同步即可。

2.2 停止
  • 停止hbase

    • stop-hbase.sh

3、hbase集群的web管理界面

启动好hbase集群之后,可以访问地址:HMaster的主机名:16010
​
例如:
    http://node1:16010
​
可以看到整个hbase集群的相关信息.
 
posted @ 2019-09-01 18:38  小码农成长记  阅读(160)  评论(0编辑  收藏  举报