W
e
l
c
o
m
e
: )

HBase安装

hbase安装

1.前期准备

hadoop集群(3节点或5节点)

zookeeper集群

2.hbase安装步骤

  • 1、下载安装包

  • 2、规划安装目录

    • /opt/bigdata
  • 3、上传安装包到服务器

  • 4、解压安装包到指定的规划目录

    • tar -zxvf hbase-1.2.1-bin.tar.gz -C /opt/bigdata
  • 5、重命名解压目录

    • mv hbase-1.2.1 hbase
  • 6、修改配置文件

    • 1、需要把hadoop中的配置core-site.xml 、hdfs-site.xml拷贝到hbase安装目录下的conf文件夹中

    • 2、修改conf目录下配置文件

      • 修改 hbase-env.sh
      #添加java环境变量
      export JAVA_HOME=/opt/bigdata/jdk
      #指定使用外部的zk集群
      export HBASE_MANAGES_ZK=FALSE
      
      • 修改 hbase-site.xml
      <configuration>
                <!-- 指定hbase在HDFS上存储的路径 -->
              <property>
                      <name>hbase.rootdir</name>
                      <value>hdfs://node1:9000/hbase</value>
              </property>
                      <!-- 指定hbase是分布式的 -->
              <property>
                      <name>hbase.cluster.distributed</name>
                      <value>true</value>
              </property>
                      <!-- 指定zk的地址,多个用“,”分割 -->
              <property>
                      <name>hbase.zookeeper.quorum</name>
                      <value>node1:2181,node2:2181,node3:2181</value>
              </property>
      </configuration>       
      
      • 修改regionservers
      #指定regionserver节点
      node2
      node3
      
      • 修改backup-masters
      • 该文件不存在需要自行创建:vi backup-masters
      node2
      
  • 7、配置hbase的环境变量

    export HBASE_HOME=/opt/bigdata/hbase
    export PATH=$PATH:$HBASE_HOME/bin
    
  • 8、分发hbase目录和环境变量到其他节点

    scp -r hbase node2:/opt/bigdata
    scp -r hbase node3:/opt/bigdata
    scp /etc/profile node2:/etc
    scp /etc/profile nod3:/etc
    
  • 9、让所有节点的hbase环境变量生效

    • 在所有节点执行
      • source /etc/profile

hbase集群的启动和停止

5.1 启动
  • 前提条件:先启动hadoop和zk集群
  • 启动hbase
    • start-hbase.sh

启动之后node1,node2上面出现Hmaster进程,node2,node3上面出现HRegionServer进程

5.2 停止
  • 停止hbase
    • stop-hbase.sh
posted @ 2020-05-27 23:04  水一RAR  阅读(64)  评论(0编辑  收藏  举报