02_HBase集群部署

HBase集群部署 

HBase是分布式数据库,本身也需要借助zookeeper进行集群节点间的协调(Master, RegionServer), 可以使用HBase自带的zookeeper,也可以使用外部独立部署的zookeeper, 从练习的角度讲,可以使用HBase内部自带的zookeeper

在开始部署HBase前,要先检查下Hadoop集群上的java和HBase的配套关系

 

 

1)上传安装包到待部署节点,解压并得到安装目录

以我的为例,安装包上传到3个待部署节点的/usr/local/src/目录,解压后得到HBase安装目录,同时修改安装目录名为hbase-0.98.24

[/usr/local/src] chmod 755 hbase-0.98.24-hadoop1-bin.tar.gz
[/usr/local/src] tar -xzvf hbase-0.98.24-hadoop1-bin.tar.gz
[/usr/local/src] mv hbase-0.98.24-hadoop1   hbase-0.98.24

 

2) HBase配置文件修改

任选1个节点,修改HBase配置文件目录conf下的 hbase-site.xml, regionservers, hbase-env.sh

hbase-site.xml

 配置参数说明

*hbase.tmp.dir本地目录上存放的hbase临时数据

*hbase.rootdir:   HDFS上HBase真正存储数据的根路径(用户表的表结构,用户表对应的各个HFile,  各个RegionServer自己维护的Hlog)

*hbase.cluster.distributed: HBase是否以集群模式运行

*hbase.zookeeper.quorum: HBase依赖的zookeeper集群在哪些节点上,填入节点主机名即可

*hbase.zookeeper.property.dataDir: 本地目录上存储的zookeeper快照

23 <configuration>

 24         <property>
 25                 <name>hbase.tmp.dir</name>
 26                 <value>/usr/local/src/hbase-0.98.24/tmp</value>
 27         </property>
 28         <property>
 29                 <name>hbase.rootdir</name>
 30                 <value>hdfs://master:9000/hbase</value>
 31         </property>
 32         <property>
 33                 <name>hbase.cluster.distributed</name>
 34                 <value>true</value>
 35         </property>
 36         <property>
 37                 <name>hbase.zookeeper.quorum</name>
 38                 <value>master,slave1,slave2</value>
 39         </property>
 40         <property>
 41                 <name>hbase.zookeeper.property.dataDir</name>
 42                 <value>/usr/local/src/hbase-0.98.24/zookeeper</value>
 43         </property>
 44 </configuration>

hbase-env.sh

# The java implementation to use.  Java 1.6 required.
export JAVA_HOME=/usr/local/src/jdk1.6
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib


# Tell HBase whether it should manage it's own instance of Zookeeper or not.
# 使用HBase自带的zookeeper,  生产环境设置为False,使用外部zk集群
export HBASE_MANAGES_ZK=true

regionservers

哪些节点将作为regionserver, 写入主机名即可,每行一个

Master也作为了1个regionserver, 即Hbase的主节点,同时也作为Regionserver

master
slave1
slave2

 

3) HBase配置文件分发到其他待部署HBase的各个节点

# scp –rp hbase-site.xml root@slave1:/usr/local/src/hbase-0.98.24/conf
# scp –rp hbase-env.sh root@slave1:/usr/local/src/hbase-0.98.24/conf
# scp –rp regionservers root@slave1:/usr/local/src/hbase-0.98.24/conf

# scp –rp hbase-site.xml root@slave2:/usr/local/src/hbase-0.98.24/conf
# scp –rp hbase-env.sh root@slave2:/usr/local/src/hbase-0.98.24/conf
# scp –rp regionservers root@slave2:/usr/local/src/hbase-0.98.24/conf

 

4)配置所有待部署HBase的各个节点的环境变量

/etc/profile文件增加如下内容

export HBASE_HOME=/usr/local/src/hbase-0.98.24/
export HBASE_CLASSPATH=$HBASE_HOME/conf
export HBASE_LOG_DIR=$HBASE_HOME/logs
export PATH=$PATH:$HBASE_HOME/bin

通过source命令,让环境变量生效

# source /etc/profile

 

5)检查待部署Hbase的各个节点,HDFS是否正常启动,zk是否关闭

HBase的数据存储,依赖于HDFS,因此要先保证各个节点上的HDFS进程已经正常启动, JPS命令在各个节点上进行查询即可

由于配置是使用HBase自带的zk集群,因此先通过zkServer.sh stop将各个节点上的zookeeper进行关闭

 

6)只需要在主节点Master上启动HBase,从节点RegionServer自动被拉起

进入HBase安装目录下的bin目录,执行start-hbase.sh启动整个集群, 执行stop-hbase.sh停止整个集群

# ./start-hbase.sh
# ./stop-hbase.sh

 

7)集群启动后检查各个节点的HBase进程,部署完成

主节点:同时具有Master和RegionServer角色,并且启动了HBase自带zk

 

 

从节点:具RegionServer角色,并且启动了HBase自带zk

 

 

 

posted @ 2017-11-13 00:21  shayzhang  阅读(229)  评论(0编辑  收藏  举报