HBase安装
hbase安装
1.前期准备
hadoop集群(3节点或5节点)
zookeeper集群
2.hbase安装步骤
-
1、下载安装包
- http://archive.apache.org/dist/hbase/1.2.1/hbase-1.2.1-bin.tar.gz
- hbase-1.2.1-bin.tar.gz
-
2、规划安装目录
- /opt/bigdata
-
3、上传安装包到服务器
-
4、解压安装包到指定的规划目录
- tar -zxvf hbase-1.2.1-bin.tar.gz -C /opt/bigdata
-
5、重命名解压目录
- mv hbase-1.2.1 hbase
-
6、修改配置文件
-
1、需要把hadoop中的配置core-site.xml 、hdfs-site.xml拷贝到hbase安装目录下的conf文件夹中
-
2、修改conf目录下配置文件
- 修改 hbase-env.sh
#添加java环境变量 export JAVA_HOME=/opt/bigdata/jdk #指定使用外部的zk集群 export HBASE_MANAGES_ZK=FALSE
- 修改 hbase-site.xml
<configuration> <!-- 指定hbase在HDFS上存储的路径 --> <property> <name>hbase.rootdir</name> <value>hdfs://node1:9000/hbase</value> </property> <!-- 指定hbase是分布式的 --> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <!-- 指定zk的地址,多个用“,”分割 --> <property> <name>hbase.zookeeper.quorum</name> <value>node1:2181,node2:2181,node3:2181</value> </property> </configuration>
- 修改regionservers
#指定regionserver节点 node2 node3
- 修改backup-masters
- 该文件不存在需要自行创建:
vi backup-masters
node2
-
-
7、配置hbase的环境变量
export HBASE_HOME=/opt/bigdata/hbase export PATH=$PATH:$HBASE_HOME/bin
-
8、分发hbase目录和环境变量到其他节点
scp -r hbase node2:/opt/bigdata scp -r hbase node3:/opt/bigdata scp /etc/profile node2:/etc scp /etc/profile nod3:/etc
-
9、让所有节点的hbase环境变量生效
- 在所有节点执行
- source /etc/profile
- 在所有节点执行
hbase集群的启动和停止
5.1 启动
- 前提条件:先启动hadoop和zk集群
- 启动hbase
- start-hbase.sh
启动之后node1,node2上面出现Hmaster进程,node2,node3上面出现HRegionServer进程
5.2 停止
- 停止hbase
- stop-hbase.sh