JAVA8 ConcurrentHashMap 源码分析

参考文章:

http://www.cnblogs.com/huaizuo/archive/2016/04/20/5413069.html

https://www.cnblogs.com/leesf456/p/5453341.html

https://www.toutiao.com/a6644172932811588103/?tt_from=weixin&utm_campaign=client_share&wxshare_count=1&timestamp=1547007547&app=news_article&utm_source=weixin&iid=53279278403&utm_medium=toutiao_ios&group_id=6644172932811588103

ConcurrentHashMap

由ConcurrentHashMap的结构图可以看出,Node<K,V>[] table是主表(hash桶),是所有链表和树的根节点集合。

ConcurrentHashMap的get,clear,iterator 都是弱一致性的。比如当前线程iterator迭代遍历过程中,其他线程可以更改ConcurrentHashMap。当前线程不会失败可以继续遍历。但是被修改的值可能会体现在本次遍历中,也可能本次遍历仍是旧值。get同理。

 

图 1 

图 2

重要变量 

/**
 * races. Updated via CAS.
 * 记录容器的容量大小,通过CAS更新
 */
private transient volatile long baseCount;

/**
 * 这个sizeCtl是volatile的,那么他是线程可见的,一个思考:它是所有修改都在CAS中进行,但是sizeCtl为什么不设计成LongAdder(jdk8出现的)类型呢?
 * 或者设计成AtomicLong(在高并发的情况下比LongAdder低效),这样就能减少自己操作CAS了。
 *
 * 来看下注释,当sizeCtl小于0说明有多个线程正则等待扩容结果,参考transfer函数
 *
默认为0,用来控制table的初始化和扩容操作
-1 代表table正在初始化 
-N 表示有N-1个线程正在进行扩容操作 
其余情况: 
1、如果table未初始化,表示table需要初始化的大小。 
2、如果table初始化完成,表示table的容量,默认是table大小的0.75倍,居然用这个公式算0.75(n - (n >>> 2))
 */
private transient volatile int sizeCtl;

/**
 *  自旋锁 (锁定通过 CAS) 在调整大小和/或创建 CounterCells 时使用。 在CounterCell类更新value中会使用,功能类似显示锁和内置锁,性能更好
 *  在Striped64类也有应用
 */
private transient volatile int cellsBusy;


//默认为null,扩容时新生成的数组,其大小为原数组的两倍
private transient volatile Node<K,V>[] nextTable;

 

问题:负载因子loadFactor会影响HashMap性能

首先回忆HashMap的数据结构,我们都知道有序数组存储数据,对数据的索引效率都很高,但是插入和删除就会有性能瓶颈(回忆ArrayList),链表存储数据,要一次比较元素来检索出数据,所以索引效率低,但是插入和删除效率高(回忆LinkedList),两者取长补短就产生了哈希散列这种存储方式,也就是HashMap的存储逻辑.

负载因子表示一个散列表的空间的使用程度,有这样一个公式:initailCapacity*loadFactor=HashMap的容量。(initailCapacity为构造器参数)

所以负载因子越大则散列表的装填程度越高,也就是能容纳更多的元素,元素多了,链表大了,所以此时索引效率就会降低。

反之,负载因子越小则链表中的数据量就越稀疏,此时会对空间造成烂费,但是此时索引效率高。

问题:HashMap 既然有hash进行排位还需要equals()

从源码中可以看到HashMap.Node中保存了节点KEY的hash值,通过KEY.hash值方便快速定位节点。但是还是最终调用了KEY.equals()来判断节点KEY是否相等。其原因是java中两个对象equals,则hashCode必然相等,反之不是。

问题:扩容时是乘以2

个人理解是,为了让原Table中每个槽(桶)都能有对应的扩容位置。

例如:原table[0-15]长度16,扩容后nexttable[0-31]长度32。原table[i]在扩容后,将一部分自身节点放入nexttable[i+16]位置上。

 

转移节点形态

当有resize扩容操作在进行中的时候,已经转移到新数组的bin节点在原来的位置被放进一个ForwardingNode结点。这保证了有resize操作正在进行中的时候,不会阻塞对ConcurrentHashMap的读操作。例如,如果有一个调用get操作的线程,它的key的hash码映射到了一个ForwardingNode,那么它会从这个ForwadingNode结点中的nextTable字段找到新数组的引用,然后再找到新数组nextTable的对应bin节点。ForwadingNode表示当前槽已经成功转移到新table,但是整个table还没有全部转移成功。

另外,数组table除了可以存放Node, TreeBin和ForwadingNode之外,还可以存放一种特殊类型的结点ReservationNode,它主要是用来帮助实现Java 8的新增API ConcurrentHashMap.comptuteIfAbsent的。

图 3

Node节点

val和next引用变量都是volatile,保证了高可见性

static class Node<K,V> implements Map.Entry<K,V> {
        final int hash; //key的hash值
        final K key;
        volatile V val;
        volatile Node<K,V> next;

        Node(int hash, K key, V val, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.val = val;
            this.next = next;
        }

        public final K getKey()       { return key; }
        public final V getValue()     { return val; }
        public final int hashCode()   { return key.hashCode() ^ val.hashCode(); }
        public final String toString(){ return key + "=" + val; }
        public final V setValue(V value) {
            throw new UnsupportedOperationException();
        }

        public final boolean equals(Object o) {
            Object k, v, u; Map.Entry<?,?> e;
            return ((o instanceof Map.Entry) &&
                    (k = (e = (Map.Entry<?,?>)o).getKey()) != null &&
                    (v = e.getValue()) != null &&
                    (k == key || k.equals(key)) &&
                    (v == (u = val) || v.equals(u)));
        }

        /**
         * Virtualized support for map.get(); overridden in subclasses.
         */
        Node<K,V> find(int h, Object k) {
            Node<K,V> e = this;
            if (k != null) {
                do {
                    K ek;
                    if (e.hash == h &&
                        ((ek = e.key) == k || (ek != null && k.equals(ek))))
                        return e;
                } while ((e = e.next) != null);
            }
            return null;
        }
    }

putVal方法

通过CAS+volatile+synchronized(table[i]) 实现线程安全

put操作过程要注意,只有在执行到break之后才会跳出循环,没有遇到break则会重试。JDK代码的重试功能几乎全部是用死循环来实现的。采用CAS+synchronized实现并发插入或更新操作。

执行思路:

for(取得table变量)( //下边内容无限循环重试,中间有任何条件失败,不尝试挽救直接重新循环,直到break

  1. 如果table==null,CAS初始化table。
  2. 如果table对应位置table[i]上是空的(null),那么用CAS赋值来保证线程安全性,若成功break
  3. 如果table[i]这个位置是ForwardingNode(正在扩容),则当前线程协助执行一部分transfer工作,然后再在新table中重试。
  4. 如果table[i]这个位置已有节点且是单链表或红黑树,那么才进行分段锁synchronized(table[i]),如果有hash碰撞更新原节点的val,否则加入链表尾部或红黑树,若成功break 

最后判断是否需要转红黑树

源码:

--onlyIfAbsent只有不存在时put

final V putVal(K key, V value, boolean onlyIfAbsent) {
        if (key == null || value == null) throw new NullPointerException(); // 键或值为空,抛出异常
        // 键的hash值经过计算获得hash值
        int hash = spread(key.hashCode());
        int binCount = 0;
        for (Node<K,V>[] tab = table;;) { // 无限自循环 初次循环初始重新取得table
            //此table为最外层Node[],其中各节点为首节点,也是分段锁节点
            Node<K,V> f; int n, i, fh;
            if (tab == null || (n = tab.length) == 0) //table为空或者表的长度为0
                // CAS table初始化
                tab = initTable();
            //i= (n - 1) & hash 相当于 (hash mod tab.length-1) 通过取模找到hash对应根节点位置
            else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) { //CAS tabAt()找到table中i位置根节点
                // table不为空并且table的长度大于0,并且新Node计算对应位置==null
                // CAS原子比较并且交换值,如tab的第i项为空则用新生成的node替换
                if (casTabAt(tab, i, null,new Node<K,V>(hash, key, value, null))) //CAS
                    break; //成功后退出for自旋,否则继续for自旋                  
            }
            else if ((fh = f.hash) == MOVED) // 该根结点的hash值为MOVED(-1)
                // 此根节点在扩容的过程中,当前线程协助扩容
                tab = helpTransfer(tab, f);
            else {
                V oldVal = null;
               //synchronized锁住了f,因为f是指定特定的tab[i]的,
               //所以就锁住了整行链表,这个设计跟分段锁有异曲同工之妙,只是其他读取操作需要用cas来保证
                synchronized (f) { //取得当前f的内置锁
                    //二次检查  如果当前i位置根节点还是f没变,则继续
                    if (tabAt(tab, i) == f) { 
                        if (fh >= 0) { // f的hash值大于0(链表)
                            // binCount赋值为1
                            binCount = 1;
                            for (Node<K,V> e = f;; ++binCount) { // 循环遍历链表  binCount统计链表长度
                                K ek;
                                if (e.hash == hash &&
                                    ((ek = e.key) == key ||
                                     (ek != null && key.equals(ek)))) { 
                                    //hash碰撞,结点的hash值相等并且key也相等,只需更新原节点的val值
                                    //保存该结点的原值
                                    oldVal = e.val;
                                    if (!onlyIfAbsent) // 进行判断 是否为 没有才put
                                        // 更新节点的val值
                                        e.val = value;

                                    // 退出子循环
                                    break;
                                }
                                // 保存当前结点
                                Node<K,V> pred = e;
                                //e = e.next 更新e 为下次子循环准备
                                if ((e = e.next) == null) { 
                                    // 当前结点的下一个结点为空,即为最后一个结点
                                    // 新生一个结点并且赋值给next域
                                    pred.next = new Node<K,V>(hash, key,
                                                              value, null);
                                    // 退出子循环
                                    break;
                                }
                            }
                        }
                        else if (f instanceof TreeBin) { // 结点为红黑树结点类型
                            Node<K,V> p;
                            // binCount赋值为2
                            binCount = 2;
                            if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                           value)) != null) { // 将hash、key、value放入红黑树
                                // 保存结点的val
                                oldVal = p.val;
                                if (!onlyIfAbsent) // 判断
                                    // 赋值结点value值
                                    p.val = value;
                            }
                        }
                    }
                }
                //synchronized结束
                if (binCount != 0) { // binCount不为0
                    if (binCount >= TREEIFY_THRESHOLD) // 如果binCount大于等于转化为红黑树的阈值
                        // 进行转化
                        treeifyBin(tab, i);
                    if (oldVal != null) // 旧值不为空
                        // 返回旧值
                        return oldVal;
                    break;
                }
            }
        }
        // 增加binCount的数量
        addCount(1L, binCount);
        return null;
    }

伪代码流程 :

initTable 初始化 主table

volatile int sizeCtl:-1 代表table正在初始化 ,-N 表示有N-1个线程正在进行扩容操作 

双重检查CAS锁 机制 保证只有第一个通过CAS锁的线程能够创建table

private final Node<K,V>[] initTable() {
        Node<K,V>[] tab; int sc;
        while ((tab = table) == null || tab.length == 0) { // 无限循环
            if ((sc = sizeCtl) < 0) // sizeCtl小于0,已有线程初始化,则当前线程让出cpu
                Thread.yield(); // lost initialization race; just spin
            else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) { // 比较sizeCtl的值与sc是否相等,相等则用-1替换
                //这里 CAS SIZECTL=-1 相当于上锁
                try {
                    /** 
                        CAS锁通过后二次检查table,这步必须有。否则可能重复创建table

                        原因:可能线程2运行到CAS时,放弃CPU时间片
                        这时线程1 CAS通过创建table后将CAS锁复原。
                        线程2此时取得cpu时间片继续运行,CAS可以通过
                        若进入CAS锁后没有二次检查,那么线程2将重复创建table
                    */
                    if ((tab = table) == null || tab.length == 0) { 
                        // sc的值是否大于0,若是,则n为sc,否则,n为默认初始容量
                        int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                        @SuppressWarnings("unchecked")
                        // 新生结点数组
                        Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                        // 赋值给table
                        table = tab = nt;
                        // sc为n * 3/4
                        sc = n - (n >>> 2);
                    }
                } finally {
                    // 设置sizeCtl的值
                    sizeCtl = sc;
                }
                break;
            }
        }
        // 返回table表
        return tab;
    }

casTabAt更新table中的值

底层使用unsafe实现CAS更新,与AtomicReferenceArray一样

static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i,
                                        Node<K,V> c, Node<K,V> v) {
        return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);
    }

helpTransfer 协助扩容

此函数用于在扩容时将table表中的结点转移到nextTable中(图3)。如果线程进入到这边说明已经有其他线程正在做扩容操作,这个是一个辅助方法。

final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
        Node<K,V>[] nextTab; int sc;
        //table表不为空,并且结点类型使ForwardingNode类型,并且结点的nextTable不为空(图 3)
        if (tab != null && (f instanceof ForwardingNode) &&(nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) { 
            int rs = resizeStamp(tab.length);
            //当前全局nextTable与此节点相同 + 当前全局table与入参tab相同 + 全局sizeCtl<0
            while (nextTab == nextTable && table == tab &&(sc = sizeCtl) < 0) { 
                //满足条件就循环 直到break
                if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                    sc == rs + MAX_RESIZERS || transferIndex <= 0) // 
                    break;
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) { // 比较并交换
                    // 将table的结点转移到nextTab中
                    transfer(tab, nextTab);
                    break;
                }
            }
            return nextTab;
        }
        return table;
    }

get方法

无锁化操作,因相关变量都加上了volatile修饰(Node的val和next),保证了高可见性。所以get操作自身几乎无需考虑线程安全性和变量可见性,只需要注意原子性。这里的原子性指的是,get操作中的被多个线程共享的table变量及节点属性等可能也在被其他线程修改,所以需要一开始就把它们保存到局部变量,然后再使用,这样就不必担心有其他线程修改了。

执行思路:

  1. 如果table不为空,且查找key.hash能在table中找到对应根节点,则继续。
  2. 如果根节点key的hash完全等于查找key.hash,return 根节点.val。
  3. 根节点hash<0,查找ForwadingNode or 红黑树
  4. 根节点hash>=0,查找链表

源码:

public V get(Object key) {
        Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
        //e是key.hash对应的table根节点

        // 计算key的hash值
        int h = spread(key.hashCode()); 
        if ((tab = table) != null && (n = tab.length) > 0 &&(e = tabAt(tab, (n - 1) & h)) != null) { 
            // 表不为空并且表的长度大于0并且key所在的根节点不为空

            if ((eh = e.hash) == h) { // 表中的根节点的hash值与key的hash值相等
                // 与根节点key相等
                if ((ek = e.key) == key || (ek != null && key.equals(ek))) 
                    // 返回根节点
                    return e.val;
            }
            else if (eh < 0) // 当前根结点hash值小于0  红黑树/ForwadingNode(扩容中)
                return (p = e.find(h, key)) != null ? p.val : null;
                /** 
                    eh==-1 根节点是ForwadingNode,数据迁移中。通过ForwadingNode.find找到nextTable中节点。
                    eh==-2 根节点是TreeBin。TreeBin.find遍历红黑树。因为红黑树可能正在平衡调整,所以find中有读写锁控制。                 
                */               
               
            //   eh>=0  链表 根结点hash值大于0的情况
            while ((e = e.next) != null) { 
                if (e.hash == h &&
                    ((ek = e.key) == key || (ek != null && key.equals(ek))))
                    return e.val;
            }
        }
        return null;
    }

伪代码流程 :

 

table 扩容

https://www.jianshu.com/p/2829fe36a8dd

当table的元素数量达到容量阈值,需要对table进行扩容: 
- 构建一个nextTable,大小为table两倍
- 把table的数据复制到nextTable中。 (图3)
在扩容过程中,依然支持并发读写操作。 

该方法的执行逻辑如下:

  1. 通过计算 CPU 核心数和 Map 数组的长度得到每个线程(CPU)要帮助处理多少个桶,并且这里每个线程处理都是平均的。默认每个线程处理 16 个桶。因此,如果长度是 16 的时候,扩容的时候只会有一个线程扩容。

  2. 初始化临时变量 nextTable。将其在原有基础上扩容两倍。

  3. 死循环开始转移。多线程并发转移就是在这个死循环中,根据一个 finishing 变量来判断,该变量为 true 表示扩容结束,否则继续扩容。

    3.1 进入一个 while 循环,分配数组中一个桶的区间给线程,默认是 16. 从大到小进行分配。当拿到分配值后,进行 i-- 递减。这个 i 就是数组下标。(其中有一个 bound 参数,这个参数指的是该线程此次可以处理的区间的最小下标,超过这个下标,就需要重新领取区间或者结束扩容,还有一个 advance 参数,该参数指的是是否继续递减转移下一个桶,如果为 true,表示可以继续向后推进,反之,说明还没有处理好当前桶,不能推进)
    3.2 出 while 循环,进 if 判断,判断扩容是否结束,如果扩容结束,清空临时变量,更新 table 变量,更新库容阈值。如果没完成,但已经无法领取区间(没了),该线程退出该方法,并将 sizeCtl 减一,表示扩容的线程少一个了。如果减完这个数以后,sizeCtl 回归了初始状态,表示没有线程再扩容了,该方法所有的线程扩容结束了。(这里主要是判断扩容任务是否结束,如果结束了就让线程退出该方法,并更新相关变量)。然后检查所有的桶,防止遗漏。
    3.3 如果没有完成任务,且 i 对应的槽位是空,尝试 CAS 插入占位符,让 putVal 方法的线程感知。
    3.4 如果 i 对应的槽位不是空,且有了占位符,那么该线程跳过这个槽位,处理下一个槽位。
    3.5 如果以上都是不是,说明这个槽位有一个实际的值。开始同步处理这个桶。
    3.6 到这里,都还没有对桶内数据进行转移,只是计算了下标和处理区间,然后一些完成状态判断。同时,如果对应下标内没有数据或已经被占位了,就跳过了。

  4. 处理每个桶的行为都是同步的(synchronized )。防止 putVal 的时候向链表插入数据,也防止其他线程再来调整此桶。整个Map扩容过程支持并发写入,但是当要写入的桶(槽)正在扩容调整时,是阻塞写入的。
    4.1 如果这个桶是链表,那么就将这个链表根据 length 取余拆成两份,取余结果是 0 的放在新表的低位,取余结果是 1 放在新表的高位。
    4.2 如果这个桶是红黑数,那么也拆成 2 份,方式和链表的方式一样,然后,判断拆分过的树的节点数量,如果数量小于等于 6,改造成链表。反之,继续使用红黑树结构。
    4.3 到这里,就完成了一个桶从旧表转移到新表的过程。

好,以上,就是 transfer 方法的总体逻辑。还是挺复杂的。再进行精简,分成 3 步骤:

  1. 计算每个线程可以处理的桶区间。默认 16.
  2. 初始化临时变量 nextTable,扩容 2 倍。
  3. 死循环,计算下标。完成总体判断。
  4. 1 如果桶内有数据,同步转移数据。通常会像链表拆成 2 份。
/**
 * Moves and/or copies the nodes in each bin to new table. See
 * above for explanation.
 * 
 * transferIndex 表示转移时的下标,初始为扩容前的 length。
 * 
 * 我们假设长度是 32
 */
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
    int n = tab.length, stride;
    // 将 length / 8 然后除以 CPU核心数。如果得到的结果小于 16,那么就使用 16。
    // 这里的目的是让每个 CPU 处理的桶一样多,避免出现转移任务不均匀的现象,如果桶较少的话,默认一个 CPU(一个线程)处理 16 个桶
    if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
        stride = MIN_TRANSFER_STRIDE; // subdivide range 细分范围 stridea:TODO
    // 新的 table 尚未初始化
    if (nextTab == null) {            // initiating
        try {
            // 扩容  2 倍
            Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
            // 更新
            nextTab = nt;
        } catch (Throwable ex) {      // try to cope with OOME
            // 扩容失败, sizeCtl 使用 int 最大值。
            sizeCtl = Integer.MAX_VALUE;
            return;// 结束
        }
        // 更新成员变量
        nextTable = nextTab;
        // 更新转移下标,就是 老的 tab 的 length
        transferIndex = n;
    }
    // 新 tab 的 length
    int nextn = nextTab.length;
    // 创建一个 fwd 节点,用于占位。当别的线程发现这个槽位中是 fwd 类型的节点,则跳过这个节点。
    ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
    // 首次推进为 true,如果等于 true,说明需要再次推进一个下标(i--),反之,如果是 false,那么就不能推进下标,需要将当前的下标处理完毕才能继续推进
    boolean advance = true;
    // 完成状态,如果是 true,就结束此方法。
    boolean finishing = false; // to ensure sweep before committing nextTab
    // 死循环,通过for自循环处理每个槽位中的链表元素,默认advace为真,通过CAS设置transferIndex属性值,并初始化i和bound值,i指当前线程处理的槽位序号,bound指需要处理的槽位边界,先处理槽位15的节点;
    for (int i = 0, bound = 0;;) {
        Node<K,V> f; int fh;
        // 如果当前线程可以向后推进;这个循环就是控制 i 递减。同时,每个线程都会进入这里取得自己需要转移的桶的区间
        while (advance) {//线程获取任务
            int nextIndex, nextBound;
            // 对 i 减一,判断是否大于等于 bound (正常情况下,如果大于 bound 不成立,说明该线程上次领取的任务已经完成了。那么,需要在下面继续领取任务)
            // 如果对 i 减一大于等于 bound(还需要继续做任务),或者完成了,修改推进状态为 false,不能推进了。任务成功后修改推进状态为 true。
            // 通常,第一次进入循环,i-- 这个判断会无法通过,从而走下面的 nextIndex 赋值操作(获取最新的转移下标)。其余情况都是:如果可以推进,将 i 减一,然后修改成不可推进。如果 i 对应的桶处理成功了,改成可以推进。
            if (--i >= bound || finishing)
                advance = false;// 这里设置 false,是为了防止在没有成功处理一个桶的情况下却进行了推进
            // 这里的目的是:1. 当一个线程进入时,会选取最新的转移下标。2. 当一个线程处理完自己的区间时,如果还有剩余区间的没有别的线程处理。再次获取区间。
            else if ((nextIndex = transferIndex) <= 0) {
                // 如果小于等于0,说明没有区间了 ,i 改成 -1,推进状态变成 false,不再推进,表示,扩容结束了,当前线程可以退出了
                // 这个 -1 会在下面的 if 块里判断,从而进入完成状态判断
                i = -1;
                advance = false;// 这里设置 false,是为了防止在没有成功处理一个桶的情况下却进行了推进
            }// CAS 修改 transferIndex,即 length - 区间值,留下剩余的区间值供后面的线程使用
            else if (U.compareAndSwapInt
                     (this, TRANSFERINDEX, nextIndex,
                      nextBound = (nextIndex > stride ?
                                   nextIndex - stride : 0))) {
                //当前线程取得任务,i指当前线程处理的槽位序号,bound指需要处理的槽位边界
                bound = nextBound;// 这个值就是当前线程可以处理的最小当前区间最小下标
                i = nextIndex - 1; // 初次对i 赋值,这个就是当前线程可以处理的当前区间的最大下标
                advance = false; // 这里设置 false,是为了防止在没有成功处理一个桶的情况下却进行了推进,这样对导致漏掉某个桶。下面的 if (tabAt(tab, i) == f) 判断会出现这样的情况。
            }
        }// 如果 i 小于0 (不在 tab 下标内,按照上面的判断,领取最后一段区间的线程扩容结束)
        //  如果 i >= tab.length(不知道为什么这么判断)
        //  如果 i + tab.length >= nextTable.length  (不知道为什么这么判断)
        if (i < 0 || i >= n || i + n >= nextn) {
            int sc;
            if (finishing) { // 如果完成了扩容
                nextTable = null;// 删除成员变量
                table = nextTab;// 更新 table
                sizeCtl = (n << 1) - (n >>> 1); // 更新阈值
                return;// 结束方法。
            }// 如果没完成
            if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {// 尝试将 sc -1. 表示这个线程结束帮助扩容了,将 sc 的低 16 位减一。
                if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)// 如果 sc - 2 不等于标识符左移 16 位。如果他们相等了,说明没有线程在帮助他们扩容了。也就是说,扩容结束了。
                    return;// 不相等,说明没结束,当前线程结束方法。
                finishing = advance = true;// 如果相等,扩容结束了,更新 finising 变量
                i = n; // 再次循环检查一下整张表
            }
        }
        else if ((f = tabAt(tab, i)) == null) 
        // 获取老 tab[i]下标位置的变量,如果是 null,就使用 fwd 占位。用于告诉其它线程该槽位已经处理过了;
            advance = casTabAt(tab, i, null, fwd);// 如果成功写入 fwd 占位,再次推进一个下标
        else if ((fh = f.hash) == MOVED)// 如果不是 null 且 hash 值是 MOVED。
            advance = true; // already processed //[i]槽 说明别的线程已经处理过了,再次推进一个下标
        else {// 到这里,说明这个位置有实际值了,且不是占位符。对这个节点上锁。为什么上锁,防止 putVal 的时候向链表插入数据
            synchronized (f) {
                // 判断 i 下标处的桶节点是否和 f 相同
                if (tabAt(tab, i) == f) {
                    Node<K,V> ln, hn;// low, height 高位桶,低位桶
                    // 如果 f 的 hash 值大于 0 。TreeBin 的 hash 是 -2
                    if (fh >= 0) {
                        // 对老长度进行与运算(第一个操作数的的第n位于第二个操作数的第n位如果都是1,那么结果的第n为也为1,否则为0)
                        // 由于 Map 的长度都是 2 的次方(000001000 这类的数字),那么取于 length 只有 2 种结果,一种是 0,一种是1
                        //  如果是结果是0 ,Doug Lea 将其放在低位,反之放在高位,目的是将链表重新 hash,放到对应的位置上,让新的取于算法能够击中他。
                        int runBit = fh & n;
                        Node<K,V> lastRun = f; // 尾节点,且和头节点的 hash 值取于不相等
                        // 遍历这个桶
                        for (Node<K,V> p = f.next; p != null; p = p.next) {
                            // 取于桶中每个节点的 hash 值
                            int b = p.hash & n;
                            // 如果节点的 hash 值和首节点的 hash 值取于结果不同
                            if (b != runBit) {
                                runBit = b; // 更新 runBit,用于下面判断 lastRun 该赋值给 ln 还是 hn。
                                lastRun = p; // 这个 lastRun 保证后面的节点与自己的取于值相同,避免后面没有必要的循环
                            }
                        }
                        if (runBit == 0) {// 如果最后更新的 runBit 是 0 ,设置低位节点
                            ln = lastRun;
                            hn = null;
                        }
                        else {
                            hn = lastRun; // 如果最后更新的 runBit 是 1, 设置高位节点
                            ln = null;
                        }// 再次循环,生成两个链表,lastRun 作为停止条件,这样就是避免无谓的循环(lastRun 后面都是相同的取于结果)
                        for (Node<K,V> p = f; p != lastRun; p = p.next) {
                            int ph = p.hash; K pk = p.key; V pv = p.val;
                            // 如果与运算结果是 0,那么就还在低位
                            if ((ph & n) == 0) // 如果是0 ,那么创建低位节点
                                ln = new Node<K,V>(ph, pk, pv, ln);
                            else // 1 则创建高位
                                hn = new Node<K,V>(ph, pk, pv, hn);
                        }
                        // 其实这里类似 hashMap 
                        // 设置低位链表放在新链表的 i
                        setTabAt(nextTab, i, ln);
                        // 设置高位链表,在原有长度上加 n
                        setTabAt(nextTab, i + n, hn);
                        // 将旧的链表设置成占位符,用于告诉其它线程该槽位已经处理过了
                        setTabAt(tab, i, fwd);
                        // 继续向后推进
                        advance = true;
                    }// 如果是红黑树
                    else if (f instanceof TreeBin) {
                        TreeBin<K,V> t = (TreeBin<K,V>)f;
                        TreeNode<K,V> lo = null, loTail = null;
                        TreeNode<K,V> hi = null, hiTail = null;
                        int lc = 0, hc = 0;
                        // 遍历
                        for (Node<K,V> e = t.first; e != null; e = e.next) {
                            int h = e.hash;
                            TreeNode<K,V> p = new TreeNode<K,V>
                                (h, e.key, e.val, null, null);
                            // 和链表相同的判断,与运算 == 0 的放在低位
                            if ((h & n) == 0) {
                                if ((p.prev = loTail) == null)
                                    lo = p;
                                else
                                    loTail.next = p;
                                loTail = p;
                                ++lc;
                            } // 不是 0 的放在高位
                            else {
                                if ((p.prev = hiTail) == null)
                                    hi = p;
                                else
                                    hiTail.next = p;
                                hiTail = p;
                                ++hc;
                            }
                        }
                        // 如果树的节点数小于等于 6,那么转成链表,反之,创建一个新的树
                        ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
                            (hc != 0) ? new TreeBin<K,V>(lo) : t;
                        hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
                            (lc != 0) ? new TreeBin<K,V>(hi) : t;
                        // 低位树
                        setTabAt(nextTab, i, ln);
                        // 高位数
                        setTabAt(nextTab, i + n, hn);
                        // 旧的设置成占位符 用于告诉其它线程该槽位已经处理过了
                        setTabAt(tab, i, fwd);
                        // 继续向后推进
                        advance = true;
                    }
                }
            }
        }
    }
}

然后,说说精华的部分。

  1. Cmap 支持并发扩容,实现方式是,将表拆分,让每个线程处理自己的区间。如下图:

假设总长度是 64 ,每个线程可以分到 16 个桶,各自处理,不会互相影响。一个桶只会被一个线程扩容。

  1. 而每个线程在处理自己桶中的数据的时候,是下图这样的:

 扩容前的状态。当对 4 号桶或者 10 号桶进行转移的时候,会将链表拆成两份,规则是根据节点的 hash 值取于 length,如果结果是 0,放在低位,否则放在高位。

因此,10 号桶的数据,黑色节点会放在新表的 10 号位置(低位10 号),白色节点会放在新桶的 26 号位置(高位10 号)。

因为扩容为原来的两倍,老table为0-15.。所以新table为[0-15 ]+[16-31]。26号位置是后半段的第10号位置。

下图是循环处理桶中数据的逻辑:

 

处理完之后,新桶的数据是这样的:



 

posted @ 2019-01-09 14:13  sw008  阅读(416)  评论(0编辑  收藏  举报