Hbase负载均衡流程以及源码

hmater负责把region均匀到各个region server 。hmaster中有一个线程任务是专门处理负责均衡的,默认每隔5分钟执行一次。

 

每次负载均衡操作可以分为两步:

  • 生成负载均衡计划表
  • Assignment Manager 类执行计划表

 

负载均衡方法入口

 

以下代码的Hbase版本为0.96.2

在org.apache.hadoop.hbase.master.balancer.BalancerChore中

public BalancerChore(HMaster master) {

    super(master.getServerName() + "-BalancerChore",

        master.getConfiguration().getInt("hbase.balancer.period", 300000),

        master);//hbase.balancer.period 为负载均衡方法执行的周期,毫秒为单位,hbaser-site.xml中可以设置

    this.master = master;

  }
 
  @Override

  protected void chore() {
    try {

      master.balance();//执行负载均衡方法

    } catch (IOException e) {

      LOG.error("Failed to balance.", e);

    }
  }


//执行负载均衡的入口。

  public void run() {
    try {
      boolean initialChoreComplete = false;
      while (!this.stopper.isStopped()) {//stopper是Hmaster service,这里判断Hmaster是否是正常状态。
        long startTime = System.currentTimeMillis();
        try {
          if (!initialChoreComplete) {
            initialChoreComplete = initialChore();//在循环开始前,执行初始化方法,这里默认返回true;
          } else {
            chore();//执行负载均衡方法
          }
        } catch (Exception e) {
          if (this.stopper.isStopped()) {
            continue;
          }
        }
        this.sleeper.sleep(startTime);
      }
  ...
  }

 

负载均衡代码:

 

org.apache.hadoop.hbase.master.HMaster

 public boolean balance() throws IOException {
    // 如果master没有被初始化,则不执行初始化操作
    if (!this.initialized) {
      LOG.debug("Master has not been initialized, don't run balancer.");
      return false;
    }

   //只能同时跑一个负载均衡方法
      if (!this.loadBalancerTracker.isBalancerOn()) return false;
    // Do this call outside of synchronized block.
    int maximumBalanceTime = getBalancerCutoffTime();
    synchronized (this.balancer) {
    //如果有region处于splitting状态,则不跑负载均衡方法。
      if (this.assignmentManager.getRegionStates().isRegionsInTransition()) {
        Map<String, RegionState> regionsInTransition =
          this.assignmentManager.getRegionStates().getRegionsInTransition();
    ...
        return false;
      }

      if (this.serverManager.areDeadServersInProgress()) {//如果有挂掉的region server则不执行负载均衡。
        LOG.debug("Not running balancer because processing dead regionserver(s): " +
          this.serverManager.getDeadServers());
        return false;
      }
...
      Map<TableName, Map<ServerName, List<HRegionInfo>>> assignmentsByTable =
        this.assignmentManager.getRegionStates().getAssignmentsByTable();//获取table下面的region server 和region。
      List<RegionPlan> plans = new ArrayList<RegionPlan>();
      //Give the balancer the current cluster state.
      this.balancer.setClusterStatus(getClusterStatus());//设置当前集群的状态
      for (Map<ServerName, List<HRegionInfo>> assignments : assignmentsByTable.values()) {//可以看到,负载均衡方法是以每个table作为负载均衡的依据的。
        List<RegionPlan> partialPlans = this.balancer.balanceCluster(assignments);//获取负载均衡计划表
        if (partialPlans != null) plans.addAll(partialPlans);
      }
...

      if (plans != null && !plans.isEmpty()) {
        for (RegionPlan plan: plans) {
        ...
          this.assignmentManager.balance(plan);//根据执行计划表的迁移内容。
         ...
        }
    }
    }

    // If LoadBalancer did not generate any plans, it means the cluster is already balanced.
    // Return true indicating a success.
    return true;
  }

 

 从代码可以看到负载均衡是根据每个table来的

 

在以下几种状态下,负载平衡方法不会执行:

  • 如果master没有被初始化 
  • 当前已经有负载均衡方法在跑了
  • 当前有region处于splitting状态
  • 当前集群中有挂掉的region server 

 

生成RegionPlan表:

 org.apache.hadoop.hbase.master.balancer.StochasticLoadBalancer

生成regionPlan表用的StochasticLoadBalancer. balanceCluster(Map<ServerName, List<HRegionInfo>> clusterState)这个方法,这个方法比较特别也比较有意思,首先,StochasticLoadBalancer 有一套计算某一table下cluster load(集群负载)评分的算法,得出的值越低表明负载越合理。这套算法是根据以下几个维度来计算得出的:

  • Region Load //每个regin server 的region 数目
  • Table Load 
  • Data Locality //数据本地性
  • Memstore Sizes //memstore大小
  • Storefile Sizes 

首先对单个region server 根据上面5个维度计算得出评分x(0<=x<=1),然后把同一table下所有region server评分加起来,就是当前table的cluster load评分。这个评分越低表明越合理。

 

然后它还有三种调节cluster load 的方法:

  • RandomRegionPicker 
  • LoadPicker
  • LocalityPicker 

RandomRegionPicker 随机交换策略。在虚拟cluster中(虚拟cluster只作为记录用,不会涉及实际的region 迁移操作。cluster包含某个table下所有的region server的相关信息,以及region server下的regions.)随机选出两个region server ,然后分别在region server 中在 随机获取一个region,然后这两个region server下的region交换一下,然后再计算评分,如果得出的评分较低的话,表明这两个region 交换是有利于集群的负载均衡的,保留这个改变。否则,还原到之前的状态,两个region再交换下region server 。其中拥有比较少regions的region server 可能随机出一个空,实际情况,就是变成了迁移region,不再是交换region。

 

LoadPicker ,region数目均衡策略。在虚拟cluster中,首先获取region数目最多和最少的两个region server ,这样能使两个region server 最终的region数目更加的平均。后面的流程和上面的一样。

 

LocalityPicker ,本地性最强的均衡策略。本地性的意思是,Hbase底层的数据其实是存放在HDFS上面的,如果某个region的数据文件存放在某个region server 的比例比其他的region server 都要高,那么称这个region server是该region的最高本地性region server 。在该策略中,首先随机出一个region server 以及其下面的region 。然后找到这个region本地性最高的region server 。本地性最高的region server再随机出一个region server。这两个region server 后面的流程和上面的一样。

 

具体流程如下:

 负载均衡流程图

0. 是否需要进行负载均衡,是根据当前region server拥有的region数目来判断的

  

protected boolean needsBalance(ClusterLoadState cs) {
    ...
    float average = cs.getLoadAverage(); // for logging 获取cluster中region server平均拥有的region数目
    int floor = (int) Math.floor(average * (1 - slop));//slop默认是0.2,可接受范围的最低值
    int ceiling = (int) Math.ceil(average * (1 + slop));//最高值
    if (!(cs.getMaxLoad() > ceiling || cs.getMinLoad() < floor)) {//如果cluster的最多和最少region的region server不在范围内,返回false表明需要进行负载均衡算法。
       ...
      return false;
    }
    return true;
}

 

 

1.计算当前cluster的分数。简单来说是这样的,在每一个维度中,计算region server 的cost值,最终根据 (权重*cost值) 加起来的就是总得分,这得分越小表示越均衡,每个region server之间的差异越小。这个cost值是由cluster的(最大差值/(当前差值-最小差值))得出的。

/* 计算cluster的总得分*/

  protected double computeCost(Cluster cluster, double previousCost) {
    double total = 0;for (CostFunction c:costFunctions) {//CostFunction 根据某个维度计算分数 ,costFunctions的实现见下面代码。
      if (c.getMultiplier() <= 0) {//multiplier是权重。
        continue;
      }
      total += c.getMultiplier() * c.cost(cluster);//权重*当前维度的评分
      if (total > previousCost) {
        return total;
      }
    }
    return total;
  }

//costFunctions 初始化
    regionLoadFunctions = new CostFromRegionLoadFunction[] {
      new ReadRequestCostFunction(conf),//读请求维度评分
      new WriteRequestCostFunction(conf),//写请求维度评分
      new MemstoreSizeCostFunction(conf),//memstore 大小维度评分
      new StoreFileCostFunction(conf)//StoreFile 维度评分
    };

    costFunctions = new CostFunction[]{
      new RegionCountSkewCostFunction(conf),//region 数目 维度评分
      new MoveCostFunction(conf),//迁移region 维度评分
      localityCost,//本地相关 维度评分
      new TableSkewCostFunction(conf), //表 维度评分
      regionLoadFunctions[0],
      regionLoadFunctions[1],
      regionLoadFunctions[2],
      regionLoadFunctions[3],
    };

 

取其中RegionCountSkewCostFunction 作为例子:

public static class RegionCountSkewCostFunction extends CostFunction {
    private static final String REGION_COUNT_SKEW_COST_KEY =
        "hbase.master.balancer.stochastic.regionCountCost";
    private static final float DEFAULT_REGION_COUNT_SKEW_COST = 500;//默认权重为500
    private double[] stats = null;
    RegionCountSkewCostFunction(Configuration conf) {
      super(conf);
      // Load multiplier should be the greatest as it is the most general way to balance data.
      this.setMultiplier(conf.getFloat(REGION_COUNT_SKEW_COST_KEY, DEFAULT_REGION_COUNT_SKEW_COST));//设置权重
    }
@Override
double cost(Cluster cluster) { if (stats == null || stats.length != cluster.numServers) { stats = new double[cluster.numServers]; } for (int i =0; i < cluster.numServers; i++) { stats[i] = cluster.regionsPerServer[i].length;//当前维度是根据每个region server 的region数目作为评分标准。 } return costFromArray(stats); } } protected double costFromArray(double[] stats) {//根据某一维度,每个region server计算出来的评分 double totalCost = 0; double total = getSum(stats);//计算总分 double mean = total/((double)stats.length);//获取每个region server的平均评分 double count = stats.length;//region server的总数 // Compute max as if all region servers had 0 and one had the sum of all costs. This must be // a zero sum cost for this to make sense. //这里假设最坏的情况为(count-1)的region server的评分为0,剩下的一个region server 占有了所有的分数,也就是负载非常不均衡,全部压力都压到同一台region server上面了。计算出最大的差值max。 double max = ((count - 1) * mean) + (total - mean); for (double n : stats) {//计算当前的差值 double diff = Math.abs(mean - n); totalCost += diff; } double scaled = scale(0, max, totalCost);//(最大差值/(当前差值-最小差值)) return scaled; }

 

2.设置循环的次数和cluster的region server 的总数和region总数有关。最大值mapSteps为1000000。

  long computedMaxSteps = Math.min(this.maxSteps, ((long)cluster.numRegions * (long)this.stepsPerRegion * (long)cluster.numServers)); 

 

3,4,5,6随机出一个策略,就是上面讲到的 RandomRegionPicker,LoadPicker,LocalityPicker 交换或迁移一次region再计算评分。如果评分比之前要低保留,否则还原。

 

7,8,9循环进行直到结束,产出List<RegionPlan>。交给assignment manager实际执行迁移region的操作。regionPlan的格式是这样子的:

RegionPlan rp = new RegionPlan(region, initialServer, newServer); //initialServer的region需要迁移到newServer

 

到此,负载均衡算法结束。在Hbase 0.94的版本里面,默认的负载均衡算法是使用SimpleLoadBalancer类,balanceCluster主要思路上,平均每个region server的region数目,维度相对来说比较单一,在StochasticLoadBalancer 中考虑的维度比较多,在0.96版本里面StochasticLoadBalancer作为了默认的负载均衡的算法的实现。https://issues.apache.org/jira/browse/HBASE-5959 这个patch的评论能看到StochasticLoadBalancer的提交的过程。

posted @ 2014-12-31 17:00  albeter  阅读(2602)  评论(0编辑  收藏  举报