hbase集群安装文档
1. 搭建hbase集群的前提条件是:
(1) 需要有一个可用的hdfs分布式文件系统(2) 需要有一个可用的zookeeper或者集群 (3)搭建机器需要有jdk 的环境
2. 上传
用root用户和其他用户来安装都是可行的。
这个用 root用户,用工具将hbase安装包hbase-0.99.2-bin.tar.gz上传到/home/hadoop下,确保hbase-0.99.2-bin.tar.gz的用户是root,如果不是,执行chown命令,见上文
3. 解压
su – hadoop
tar –zxvf hbase-0.99.2-bin.tar.gz
mv hbase-0.99.2 hbase
4. 修改环境变量
(1)、 在master机器上执行下面命令:
vi /etc/profile #新增hbase相关命令的环境变量
添加内容:
export HBASE_HOME=/home/hadoop/hbase #hbase的安装路径 export PATH=$PATH:$HBASE_HOME/bin
执行命令:
source /etc/profile #使修改配置文件生效
(2)、在其他机器上执行上述操作
5. 修改/home/hadoop/hbase/conf文件夹的配置文件
修改hbase/conf下的hbase-env.sh文件#修改hbase/conf 下hbase-env.sh文件,新增以下内容
export JAVA_HOME=/usr/jdk //jdk安装目录最好jdk1.7以上 export JAVA_CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export HBASE_OPTS="-XX:+UseConcMarkSweepGC" export HBASE_MANAGES_ZK=false #如果使用独立安装的zookeeper这个地方就是false,如果用hbase自带的zookeeper这里就填写true
修改hbase/conf下的hbase-site.xml#hbase-site.xml
<configuration> <property> <name>hbase.master</name> #hbasemaster的主机和端口 <value>master:60000</value> </property> <property> <name>hbase.master.maxclockskew</name> #时间同步允许的时间差(毫秒),本地测试环境尽量配大一点,不然集群机器间的时间差大于这个值后会出现报错 <value>180000</value> </property> <property> <name>hbase.rootdir</name> <value>hdfs:// hdfs-cluster1:9000/hbase</value> #(1)如果使用hdfs作为hbase文件系统,hdfs路径如果不填写端口号,那么默认端口号是8020,另外不需要在hdfs上新建一个名叫hbase的路径。hbase启动中会自动在hdfs上建立hbase的路径 <!--<value>file:///home/testuser/hbase<value> ---> #(2)如果使用本地文件系统,可以用到hbase单机上,集群情况还没有测试 </property> <property> <name>hbase.cluster.distributed</name> #是否分布式运行,false即为单机 <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name>#zookeeper地址 <value>master, slave1, slave2</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name>#zookeeper配置信息快照的位置,不用新建目录,hbase能帮我们生成以下路径 <value>/home/hadoop/hbase/tmp/zookeeper</value> </property> </configuration>
修改hbase/conf下的regionservers,这里填写的是hbase从节点的主机名,主节点主机名不用填写
#Regionservers //是从机器的域名 slave1 slave2
6. 把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下
cp /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml /home/hadoop/hbase/conf
cp /home/hadoop/hadoop/etc/hadoop/core-site.xml /home/hadoop/hbase/conf
7. 把配置文件发送到其他机器
scp –r hbase root@192.168.183.112:/root/apps/
scp –r /home/hadoop/hbase root@slave1:/home/hadoop
scp –r /home/hadoop/hbase root@slave2:/home/hadoop
8. 启动
sh start-hbase.sh
9. 查看
进程:jps
进入hbase的shell:hbase shell
退出hbase的shell:quit
hbase web访问页面:http://master:60010/