Hbase 永久 Region-In-Transition 的查错记录

状态:
部分 region 的状态为 FAILED_CLOSE,且一直停留在 RIT,不可服务。

1. 首先,到 hbase region 上查日志(/var/log/hbase/),看到是 hdfs 文件的问题(参考 https://www.cnblogs.com/cenliang/p/8485011.html)
于是通过 HADOOP_USER_NAME=hdfs hdfs fsck /apps/hbase,发现部分文件缺少备份,运行以下命令设置备份,但始终不能完成所有文件的备份。

HADOOP_USER_NAME=hdfs hadoop fs -setrep -R 3 /apps/hbase

且 RIT 一直没有变化。

 

2. 继续研究日志,注意到另外一个高频的错误

2019-03-21 03:19:42,153 INFO  [Thread-17726] hdfs.DFSClient: Exception in createBlockOutputStream
java.io.IOException: Got error, status message , ack with firstBadLink as 10.10.243.116:50010
        at org.apache.hadoop.hdfs.protocol.datatransfer.DataTransferProtoUtil.checkBlockOpStatus(DataTransferProtoUtil.java:142)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1484)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1386)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:564)

 

3. 跳到 10.10.243.116 机器上看日志,发现以下错误持续存在

2019-03-20 08:11:28,060 ERROR datanode.DataNode (DataXceiver.java:run(278)) - ip-10-10-243-116.ec2.internal:50010:DataXceiver error processing WRITE_BLOCK operation  src: /10.10.240.145:52666 dst: /10.10.243.116:50010
org.apache.hadoop.util.DiskChecker$DiskOutOfSpaceException: No more available volumes
        at org.apache.hadoop.hdfs.server.datanode.fsdataset.RoundRobinVolumeChoosingPolicy.chooseVolume(RoundRobinVolumeChoosingPolicy.java:57)
        at org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsVolumeList.chooseVolume(FsVolumeList.java:80)
        at org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsVolumeList.getNextVolume(FsVolumeList.java:107)
        at org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl.createTemporary(FsDatasetImpl.java:1580)
        at org.apache.hadoop.hdfs.server.datanode.BlockReceiver.<init>(BlockReceiver.java:205)
        at org.apache.hadoop.hdfs.server.datanode.DataXceiver.writeBlock(DataXceiver.java:687)
        at org.apache.hadoop.hdfs.protocol.datatransfer.Receiver.opWriteBlock(Receiver.java:137)
        at org.apache.hadoop.hdfs.protocol.datatransfer.Receiver.processOp(Receiver.java:74)
        at org.apache.hadoop.hdfs.server.datanode.DataXceiver.run(DataXceiver.java:251)
        at java.lang.Thread.run(Thread.java:748)

  

这个错误是没有找到硬盘,但通过 df -lh 看到,放数据的硬盘存在,应该是启动时的未知异常

Filesystem Size Used Avail Use% Mounted on
devtmpfs 16G 56K 16G 1% /dev
tmpfs 16G 24K 16G 1% /dev/shm
/dev/nvme0n1p1 50G 16G 34G 33% /
/dev/nvme1n1 2.9T 1.9T 893G 69% /hadoopfs/fs1

 

4. region server状态如下

3台region server是最近重启的,没有 region 在上面,并且时间与 DiskOutOfSpaceException 出现的时间吻合,于是做以下推测。

===========================================================================================

 

1. 2019-03-20 08:11:28,060左右,先后重启了 data node 和 region server
2. 因为关闭了3台 region server,所有的 region 都迁移到活着的3台中(参见上图)
3. data node 启动了,但 10.10.243.116 状态不正常
4. region server 启动成功了,集群重新调整 region 的分布,即 unassign 部分 region server 上的region,assign 到刚启动的机器上
5. 此过程中,由于 data node 异常,这些 region 停留在 RIT,状态为 FAILED_CLOSE

注:region的状态机说明(http://hbasefly.com/2016/09/08/hbase-rit/)

解决方案:重启 data node

 

参考:

 https://www.cnblogs.com/cenliang/p/8485011.html   HBase 永久RIT(Region-In-Transition)问题

 http://hbasefly.com/2016/09/08/hbase-rit/   region的状态机说明

posted @ 2019-03-21 12:11  徐软件  阅读(687)  评论(0编辑  收藏  举报