关于Hbase集群需要使用DNS域名解析的体会

从yum安装hbase集群的时候,有时候主机和节点不能启动Hmaster和Hregionserver。日志提示不能正确解析从节点主机名称,主机从官网上查看,得知
yum安装的hbase需要用DNS服器进行解析:
于是就在主节点上设置dns服务器;(我开始是用yum安装的,最后在公司服务器部署的时候用的是rpm包安装的,区别是安装后的配置文件保存的路径不一样,yum安装会比较简单,因为不需要考虑安装包之间的依赖关系)
安装包如下:
bind-devel-9.3.6-16.P1.el5.i386.rpm                             
bind-libbind-devel-9.3.6-16.P1.el5.i386.rpm              
bind-libs-9.3.6-16.P1.el5.i386.rpm
bind-9.3.6-16.P1.el5.i386.rpm              
(注意:因为安装前有依赖关系,先安装上面三个安装包,最后安装bind-9.3.6-16.P1.el5.i386.rpm 包) 

编辑named.conf文件,设置正向解析区域文件,如下:

[root@www.linuxidc.com-Hadoop ~]# vi  /etc/named.conf 
-bash: cd: /etc/named.conf: Not a directory
[root@www.linuxidc.com-hadoop ~]# cat /etc/named.conf 
options { 
notify-source 10.0.0.2; 
pid-file "/var/run/named/named.pid"; 
}; 
zone "hdfs" { (我们设置的域名为hdfs,也可以设置成hdfs.com,根据自己的需要)
type master; 
file "/var/named/hdfs.zone"; 
};

编辑正向解析区域文件,如下:

[root@www.linuxidc.com-hadoop ~]# vi /var/named/hdfs.zone

$TTL    86400
@ IN SOA hdfs. root(
        200101111
        14400
        3600
        604800
        86400)
master-hadoop IN A 192.168.5.249
slave1-hadoop IN A 192.168.5.201
slave2-hadoop IN A 192.168.5.202
slave3-hadoop IN A 192.168.5.91
slave4-hadoop IN A 192.168.5.71
slave5-hadoop IN A 192.168.5.70
slave6-hadoop IN A 192.168.5.113

@ IN NS ns.hdfs.

保存退出

启动named服务

/etc/rc.d/init.d/named start

修改所有节点的DNS配置文件,如下:

[root@www.linuxidc.com-hadoop ~]# vim /etc/resolv.conf (注意:DNS服务器dns设置要指向本机,并且使用实际IP,不要使用127.0.0.1)
search hdfs
domain hdfs
nameserver 192.168.5.113
nameserver 202.106.0.20

测试dns域名是否生效:

ping slave6-hadoop.hdfs

至此dns服务器配置完毕(注意:在以后添加节点的时候中需要添加在hdfs.zone中添加节点的主机A记录,以便主机对新加节点进行解析)

posted @ 2013-01-30 23:57  季石磊  阅读(1681)  评论(0编辑  收藏  举报