Hadoop运维操作
1. 处理hadoop的namenode宕机
处理措施:
进入hadoop的bin目录,重启namenode服务
操作命令:
cd path/to/hadoop/bin
./hadoop-daemon.sh start namenode
2. 处理hadoop的jobtacker宕机
处理措施:
进入hadoop的bin目录,重启jobtacker服务
操作命令:
cd path/to/hadoop/bin
./hadoop-daemon.sh start jobtracker
3. 处理hadoop的datanode宕机
处理措施:
进入hadoop的bin目录,重启datanode服务
操作命令:
cd path/to/hadoop/bin
./hadoop-daemon.sh start datanode
4. 处理hadoop的tasktracker宕机
处理措施:
进入hadoop的bin目录,重启tasktacker服务
操作命令:
cd path/to/hadoop/bin
./hadoop-daemon.sh start tasktracker
5. 启动Hadoop集群
处理措施:
进入hadoop的bin目录,执行start-all.sh脚本
操作命令:
cd path/to/hadoop/bin
./start-all.sh
注意事项:
NameNode在启动的时候首先进入安全模式,如果datanode丢失的block达到一定的比例(1- dfs.safemode.threshold.pct),则系统会一直处于安全模式状态即只读状态。 dfs.safemode.threshold.pct(缺省值0.999f)表示HDFS启动的时候,如果DataNode上报的block个数达到了 元数据记录的block个数的0.999倍才可以离开安全模式,否则一直是这种只读模式。如果设为1则HDFS永远是处于SafeMode。
有两个方法离开这种安全模式
(1)修改dfs.safemode.threshold.pct为一个比较小的值,缺省是0.999。
(2)hadoop dfsadmin -safemode leave命令强制离开
用户可以通过dfsadmin -safemode $value来操作安全模式,参数$value的说明如下:
- enter – 进入安全模式
- leave – 强制NameNode离开安全模式
- get – 返回安全模式是否开启的信息
- wait – 等待,一直到安全模式结束。
6. 关闭Hadoop机器
处理措施:
进入hadoop的bin目录,执行stop-all.sh脚本
操作命令:
cd path/to/hadoop/bin
./ stop-all.sh
7. 从Hadoop移除机器
处理措施:
把需要移除的机器增加到exclueds文件中,强制刷新datanode列表,等待Decommission 状态正常后,即可停机下架,如有必要在namenode执行balancer操作。
操作命令:
在master的conf/hdfs-site.xml中加入
<property>
<name>dfs.hosts.exclude</name>
<value>excludes</value>
</property>
在$HADOOP_HOME下创建exclueds文件
文件内容增加你想删除的节点的机器名,一行一个
/bin/hadoop dfsadmin -refreshNodes命令刷新datanode例表
/bin/hadoop dfsadmin -report查看结果
Datanodes available: 1 (1 total, 0 dead)
Name: 192.168.200.118:50010
Decommission Status : Decommission in progress
Configured Capacity: 211370565632 (196.85 GB)
DFS Used: 11459694592 (10.67 GB)
Non DFS Used: 187135799296 (174.28 GB)
DFS Remaining: 12775071744(11.9 GB)
DFS Used%: 5.42%
DFS Remaining%: 6.04%
Last contact: Wed Feb 22 23:51:48 PST 2012
在Decommission Status : Decommission in progress变为 Decommission Status : Decommission normal前mapreduce会异常增加节点
8. 向Hadoop添加机器
处理措施:
把新机器的增加到conf/slaves文件中,重启datanode和jobtracker进程,当新添加的机器向namenode发送心跳信息后,namenode会自动感知新加入的机器,如果有必要可以做balancer操作。
操作命令:
1.把新机器的增加到conf/slaves文件中(datanode或者tasktracker crash则可跳过)
2.在新机器上进入Hadoop安装目录
$bin/Hadoop-daemon.sh start datanode
$bin/Hadoop-daemon.sh start tasktracker
3.在namenode上
$bin/Hadoop balancer
9. 杀死正在运行的JOB
操作命令:
bin/hadoop job –kill {job-id}
10.处理hbase的master宕机
操作命令:
./hbase-daemon.sh start master
./hbase-daemon.sh start zookeeper//可选
11.处理hbase的regionserver宕机
操作命令:
./hbase-daemon.sh start regionserver
./hbase-deamon.sh start zookeeper//可选
12.Hbase集群间数据迁移方法总结
一、需要在hbase集群停掉的情况下迁移
步骤:
(1)执行hadoop distcp -f filelist "hdfs://new cluster ip:9000/hbasetest"
(2)在new cluster执行./hbase org.jruby.Main add_table.rb /hbase/table20111222,将拷贝来的表加入到.MEAT.中(会出现region的数目不一致的问题,这个需要重启hase才能解决)
说明:(1)filelist为hdfs上的列表文件,内容如下:
/hbase/table20111222
/hbase/table20120131
(2)如果两个集群的hadoop版本不一致,需要在new cluster上执行hadoop distcp,否则会出现读写异常;
二、在集群运行的时候进行数据迁移
1、Replication:这个是动态的备份(可以理解为实时备份)
步骤:(1)在old cluster将需要迁移的表属性进行修改:
disable 'your_table'
alter 'your_table', {NAME => 'family_name', REPLICATION_SCOPE => '1'}
enable 'your_table'
(2)打开new cluster集群的replication,修改hbase-site.xml
<property>
<name>hbase.replication</name>
<value>true</value>
</property>
(3)添加peer,在new cluster的hbase shell中执行:add_peer '1','old cluster ip:2181:/hbase',启动replication,执行start_replication
说明:需要两个集群的hadoop版本一致,否则出现读写错误
2、CopyTable:可以在本集群中拷贝一张表,也可以将表拷贝到其他的集群中。
命令:./hbase org.apache.hadoop.hbase.mapreduce.CopyTable --peer.adr=new cluster ip:2181:/hbase zy_test
说明:(1)拷贝完成,不需要重启机器,在new cluster中就可以看到该表;
(2)稳定性还需要考虑,测试过程中遇到一个问题,拷贝过程中始终都停留在这里Lookedup root region location, 查看日志没有什么错误和相关的信息。
3、Export and Import
步骤:(1)在old cluster上执行:./hbase org.apache.hadoop.hbase.mapreduce.Export test hdfs://new cluster ip:9000/zhuangyang/test
(2)在new cluster上执行:./hbase org.apache.hadoop.hbase.mapreduce.Import test hdfs://new cluster ip:9000/zhuangyang/test
说明:(1)一定要写全路径,不能写相对路劲;
(2)在import前,需要将表事先在new cluster中创建好.
以上都是在old cluster和new cluster网络相通的情况下实现数据迁移的办法。
如果两个集群网络不通,只能先将old cluster中的数据都下载到本地或者其他的地方,然后在人工的转移到new cluster上了
13.不重启namenode可以使配置文件生效
hadoop dfsadmin -refreshNodes