【❂Java集合】ConcurrentHashMap源码及底层数据结构分析

ConcurrentHashMap概览

jdk1.7中是采用Segment + HashEntry + ReentrantLock的方式进行实现的,而1.8中放弃了Segment的设计,取而代之的是采用Node + CAS + Synchronized来保证并发安全进行实现。

  • JDK1.8的实现降低锁的粒度,JDK1.7版本锁的粒度是基于Segment的,包含多个HashEntry,而JDK1.8锁的粒度就是HashEntry(首节点)
  • JDK1.8版本的数据结构变得更加简单,使得操作也更加清晰流畅,因为已经使用synchronized来进行同步,所以不需要分段锁的概念,也就不需要Segment这种数据结构了,由于粒度的降低,实现的复杂度也增加了
  • JDK1.8使用红黑树来优化链表,基于长度很长的链表的遍历是一个很漫长的过程,而红黑树的遍历效率是很快的,代替一定阈值的链表。

JDK 1.7 数据结构图

JDK1.8 数据结构图

先了解一下Unsafe

Unsafe类相当于是一个java语言中的后门类,提供了硬件级别的原子操作,所以在一些并发编程中被大量使用。jdk已经作出说明,该类对程序员而言不是一个安全操作,实际项目中请谨慎使用。

这里并不系统讲解Unsafe的所有功能,只介绍和接下来内容相关的操作:

1)arrayBaseOffset:获取数组的基础偏移量

2)arrayIndexScale:获取数组中元素的偏移间隔,要获取对应索引的元素,将索引号和该值相乘,获得数组中指定角标元素的偏移量

3)getObjectVolatile:获取对象上的属性值或者数组中的元素

4)getObject:获取对象上的属性值或者数组中的元素,已过时

5)putOrderedObject:设置对象的属性值或者数组中某个角标的元素,更高效

6)putObjectVolatile:设置对象的属性值或者数组中某个角标的元素

7)putObject:设置对象的属性值或者数组中某个角标的元素,已过时

代码演示:

public class Test02 {

    public static void main(String[] args) throws Exception {
        Integer[] arr = {2,5,1,8,10};

        //获取Unsafe对象
        Unsafe unsafe = getUnsafe();
        //获取Integer[]的基础偏移量
        int baseOffset = unsafe.arrayBaseOffset(Integer[].class);
        //获取Integer[]中元素的偏移间隔
        int indexScale = unsafe.arrayIndexScale(Integer[].class);

        //获取数组中索引为2的元素对象
        Object o = unsafe.getObjectVolatile(arr, (2 * indexScale) + baseOffset);
        System.out.println(o); //1

        //设置数组中索引为2的元素值为100
        unsafe.putOrderedObject(arr,(2 * indexScale) + baseOffset,100);

        System.out.println(Arrays.toString(arr));//[2, 5, 100, 8, 10]
    }

    //反射获取Unsafe对象
    public static Unsafe getUnsafe() throws Exception {
        Field theUnsafe = Unsafe.class.getDeclaredField("theUnsafe");
        theUnsafe.setAccessible(true);
        return (Unsafe) theUnsafe.get(null);
    }
}

图解说明:

ConcurrentHashMap源码分析(JDK 1.7版)

在JDK1.7版本中,ConcurrentHashMap的数据结构是由一个Segment数组和多个HashEntry组成,如下图所示:

Segment数组的意义就是将一个大的table分割成多个小的table来进行加锁,也就是锁分离技术,而每一个Segment元素存储的是HashEntry数组+链表,这个和HashMap的数据存储结构一样。

Java 7 的ConcurrentHashMap由很多个 Segment 组合,而每一个 Segment 是一个类似于 HashMap 的结构,所以每一个 HashMap 的内部可以进行扩容。但是 Segment 的个数一旦初始化就不能改变,默认 Segment 的个数是 16 个,你也可以认为 ConcurrentHashMap 默认支持最多 16 个线程并发

ConcurrentHashMap中保存了一个默认长度为16的Segment[],每个Segment元素中保存了一个默认长度为2的HashEntry[],我们添加的元素,是存入对应的Segment中的HashEntry[]中。所以ConcurrentHashMap中默认元素的长度是32个,而不是16个。

源码如下:

public class ConcurrentHashMap<K, V> extends AbstractMap<K, V>
        implements ConcurrentMap<K, V>, Serializable {
    private static final long serialVersionUID = 7249069246763182397L;

    /**
     * table 的默认初始化容量
     */
    static final int DEFAULT_INITIAL_CAPACITY = 16;

    /**
     * 默认负载因子
     */
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    /**
     * 默认并发级别,即Segment[]数组的大小
     */
    static final int DEFAULT_CONCURRENCY_LEVEL = 16;

    /**
     * 每个Segment内HashEntry数组的最大长度
     */
    static final int MAXIMUM_CAPACITY = 1 << 30;

    /**
     * 每个segment内HashEntry数组的最小长度
     */
    static final int MIN_SEGMENT_TABLE_CAPACITY = 2;

    /**
     * Segment数组的最大长度
     */
    static final int MAX_SEGMENTS = 1 << 16;

    /**
     * 尝试次数
     * ConcurrentHashMap 在执行 size() 操作时先尝试不加锁,如果连续两次不加锁操作得到的结果一致,那么可以认为这个结果是正确的。
     * retries 初始值为 -1,因此尝试次数为 3。
     * 如果尝试的次数超过 3 次,就需要对每个 Segment 加锁。
     */
    static final int RETRIES_BEFORE_LOCK = 2;


    private static class Holder {

        static final boolean ALTERNATIVE_HASHING;

        static {
            // Use the "threshold" system property even though our threshold
            // behaviour is "ON" or "OFF".
            String altThreshold = java.security.AccessController.doPrivileged(
                    new sun.security.action.GetPropertyAction(
                            "jdk.map.althashing.threshold"));

            int threshold;
            try {
                threshold = (null != altThreshold)
                        ? Integer.parseInt(altThreshold)
                        : Integer.MAX_VALUE;

                // disable alternative hashing if -1
                if (threshold == -1) {
                    threshold = Integer.MAX_VALUE;
                }

                if (threshold < 0) {
                    throw new IllegalArgumentException("value must be positive integer.");
                }
            } catch (IllegalArgumentException failed) {
                throw new Error("Illegal value for 'jdk.map.althashing.threshold'", failed);
            }
            ALTERNATIVE_HASHING = threshold <= MAXIMUM_CAPACITY;
        }
    }

    private transient final int hashSeed = randomHashSeed(this);

    private static int randomHashSeed(ConcurrentHashMap instance) {
        if (sun.misc.VM.isBooted() && Holder.ALTERNATIVE_HASHING) {
            return sun.misc.Hashing.randomHashSeed(instance);
        }

        return 0;
    }

    // segmentShift & segmentMask 的作用与 HashMap 中的 hash & (length-1) 方法类似,用于定位具体的 Segment[i],
    // 具体使用如下:(h >>> segmentShift) & segmentMask。
    /**
     * 用来计算索引的掩码值
     */
    final int segmentMask;

    /**
     * 用来计算segments数组索引的位移量
     */
    final int segmentShift;

    /**
     * segments数组
     */
    final Segment<K, V>[] segments;

    transient Set<K> keySet;
    transient Set<Map.Entry<K, V>> entrySet;
    transient Collection<V> values;

    /**
     * Segment分段的数组元素类型
     * 与HashMap的Entry作用一致,只是使用了Unsafe来提高读写速度
     */
    static final class HashEntry<K, V> {
        final int hash;
        final K key;
        volatile V value;
        volatile HashEntry<K, V> next;

        HashEntry(int hash, K key, V value, HashEntry<K, V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }

        // 在本对象的next成员的偏移地址处放入n
        final void setNext(HashEntry<K, V> n) {
            UNSAFE.putOrderedObject(this, nextOffset, n);
        }

        static final sun.misc.Unsafe UNSAFE;
        // next成员的偏移地址
        static final long nextOffset;

        static {
            try {
                UNSAFE = sun.misc.Unsafe.getUnsafe();
                Class k = HashEntry.class;
                // 得到next成员在对象中的偏移量,用来进行链接操作
                // 利用UnSafe类可以通过直接操作内存来提高速度
                nextOffset = UNSAFE.objectFieldOffset
                        (k.getDeclaredField("next"));
            } catch (Exception e) {
                throw new Error(e);
            }
        }
    }

    static final <K, V> HashEntry<K, V> entryAt(HashEntry<K, V>[] tab, int i) {
        return (tab == null) ? null :
                (HashEntry<K, V>) UNSAFE.getObjectVolatile
                        (tab, ((long) i << TSHIFT) + TBASE);
    }

    //使用UNSAFE直接操作内存,将HashEntry对象添加到HashEntry[]中。
    static final <K, V> void setEntryAt(HashEntry<K, V>[] tab, int i,
                                        HashEntry<K, V> e) {
        // 内存操作
        UNSAFE.putOrderedObject(tab, ((long) i << TSHIFT) + TBASE, e);
    }

    private int hash(Object k) {
        int h = hashSeed;

        if ((0 != h) && (k instanceof String)) {
            return sun.misc.Hashing.stringHash32((String) k);
        }

        h ^= k.hashCode();

        // Spread bits to regularize both segment and index locations,
        // using variant of single-word Wang/Jenkins hash.
        h += (h << 15) ^ 0xffffcd7d;
        h ^= (h >>> 10);
        h += (h << 3);
        h ^= (h >>> 6);
        h += (h << 2) + (h << 14);
        return h ^ (h >>> 16);
    }

    /**
     * Segment 定义
     * 继承了ReentrantLock类,ReentrantLock和synchronized都是可重入的独占锁,
     * 只允许线程互斥的访问临界区,这意味着每个Segment都可以当做一个锁,
     * 每把锁只锁住整个容器中的部分数据,这样不影响线程访问其他的数据,当然如果是对全局改变时会锁定所有的Segment段。
     */
    static final class Segment<K, V> extends ReentrantLock implements Serializable {

        private static final long serialVersionUID = 2249069246763182397L;

        //最大尝试次数达到限制进入加锁等待状态(对最大尝试次数,目前的实现单核次数为1,多核为64)
        static final int MAX_SCAN_RETRIES =
                Runtime.getRuntime().availableProcessors() > 1 ? 64 : 1;

        //segment内部的哈希表,访问HashEntry,通过具有volatile的entryAt、setEntryAt方法
        transient volatile HashEntry<K, V>[] table;

        //Segment的哈希表中的HashEntry的数量
        transient int count;

        //修改次数
        transient int modCount;

        //哈希表中的扩容阈值
        transient int threshold;

        //哈希表中的负载因子,所有的Segments中的这个值相等,这么做是为了避免需要连接到外部Object
        final float loadFactor;

        Segment(float lf, int threshold, HashEntry<K, V>[] tab) {
            this.loadFactor = lf;
            this.threshold = threshold;
            this.table = tab;
        }

        //segment对象中其实还是数组+链表的组合,新的元素最终还是要放到HashEntry
        //只是当前需要保证只有一个线程去做put操作
        final V put(K key, int hash, V value, boolean onlyIfAbsent) {
            //tryLock() 尝试获取锁 会立即返回true或false,不阻塞  lock阻塞
            //在往该 segment 写入前,需要先获取该 segment 的独占锁
            HashEntry<K, V> node = tryLock() ? null :
                    scanAndLockForPut(key, hash, value); //加锁
            V oldValue;
            try {
                // 这个是 segment 内部的数组
                HashEntry<K, V>[] tab = table;
                // 再利用 hash 值,求应该放置的数组下标
                int index = (tab.length - 1) & hash;
                // 获取数组该位置处的链表的表头赋值给first
                HashEntry<K, V> first = entryAt(tab, index);
                // 下面这串 for 循环虽然很长,不过也很好理解,想想该位置没有任何元素和已经存在一个链表这两种情况
                for (HashEntry<K, V> e = first; ; ) {
                    //匹配到key对应的HashEntry,更新HashEntry.value的值。
                    if (e != null) {
                        K k;
                        //判断hash值和key是否和结点的相等
                        if ((k = e.key) == key ||
                                (e.hash == hash && key.equals(k))) {
                            //存旧值
                            oldValue = e.value;
                            if (!onlyIfAbsent) {
                                //覆盖旧值
                                e.value = value;
                                ++modCount;
                            }
                            //跳出循环
                            break;
                        }
                        // 继续顺着链表走
                        e = e.next;
                    } else { //没有匹配到对应的HashEntry
                        // 将新增的节点与first做关联(头插法)。
                        // 将scanAndLockForPut()方法返回的node节点与first做关联,作用相当于创建HashEntry对象时传入next值。
                        if (node != null)
                            node.setNext(first);
                        else
                            //此处是获取到锁的逻辑,直接创建HashEntry对象,包装key、value。
                            node = new HashEntry<K, V>(hash, key, value, first);
                        int c = count + 1;
                        // 判断是否扩容(Segment[]初始化完后不能扩容,Segment内的HashEntry[]可以扩容)。
                        if (c > threshold && tab.length < MAXIMUM_CAPACITY)
                            rehash(node); //扩容+数据迁移,传入的新增node会在最后采用头插法添加进HashEntry[]中。
                        else
                            //没有达到阈值,将 node 放到数组 tab 的 index 位置,
                            //其实就是将新的节点设置成原链表的表头
                            setEntryAt(tab, index, node); //头插法
                        ++modCount;
                        count = c;
                        oldValue = null;
                        break;
                    }
                }
            } finally {
                // 解锁
                unlock();
            }
            return oldValue;
        }

        //老的链表中的节点适用到新数组中,为了优化效率,可以对已有链表进行遍历,对于老的oldTable中的每个HashEntry,
        // 从头结点开始遍历,找到第一个后续所有节点在新table中index保持不变的节点fv,
        // 假设这个节点新的index为newIndex,那么直接newTable[newIndex]=fv,
        // 即可以直接将这个节点以及它后续的链表中内容全部直接复用copy到newTable中,
        // 这样最好的情况是所有oldTable中对应头结点后跟随的节点在newTable中的新的index均和头结点一致,
        // 那么就不需要创建新节点,直接复用即可。
        // 最坏情况当然就是所有节点的新的index全部发生了变化,那么就全部需要重新依据k,v创建新对象插入到newTable中
        private void rehash(HashEntry<K, V> node) { // 方法参数上的 node 是这次扩容后,需要添加到新的数组中的数据
            HashEntry<K, V>[] oldTable = table; //旧表指针oldTable
            int oldCapacity = oldTable.length; //保存旧容量
            int newCapacity = oldCapacity << 1; //扩容为旧数组的2倍
            threshold = (int) (newCapacity * loadFactor); //新的阈值
            HashEntry<K, V>[] newTable =
                    (HashEntry<K, V>[]) new HashEntry[newCapacity]; // 创建新数组
            // 新的掩码,如从 16 扩容到 32,那么 sizeMask 为 31,对应二进制 ‘000...00011111’
            int sizeMask = newCapacity - 1;
            for (int i = 0; i < oldCapacity; i++) { //遍历老链表
                // e 是链表的第一个元素
                HashEntry<K, V> e = oldTable[i];
                if (e != null) {
                    HashEntry<K, V> next = e.next; //辅助指针
                    // 计算应该放置在新数组中的位置,
                    //新位置为 原下标或者原下标+旧容量
                    int idx = e.hash & sizeMask;
                    if (next == null)
                        // 该链表处只有一个元素,那比较好办
                        //直接在新表的对应位置放入结点
                        newTable[idx] = e;
                    else {
                        HashEntry<K, V> lastRun = e; // e 是链表表头 赋值给lastRun
                        // idx 是当前链表的头结点 e 的新位置
                        int lastIdx = idx;
                        // 下面这个 for 循环会找到一个 lastRun 节点,这个节点之后的所有元素是将要放到一起的
                        //遍历后续链表(头表的下一个结点)
                        for (HashEntry<K, V> last = next;
                             last != null;
                             last = last.next) {
                            //计算新位置
                            int k = last.hash & sizeMask;
                            if (k != lastIdx) {
                                lastIdx = k;
                                lastRun = last;
                            }
                        }
                        // 将 lastRun 及其之后的所有节点组成的这个链表放到 lastIdx 这个位置
                        newTable[lastIdx] = lastRun;
                        // 下面的操作是处理 lastRun 之前的节点,
                        //这些节点可能分配在另一个链表中,也可能分配到上面的那个链表中
                        for (HashEntry<K, V> p = e; p != lastRun; p = p.next) {
                            V v = p.value;
                            int h = p.hash;
                            int k = h & sizeMask;
                            HashEntry<K, V> n = newTable[k];
                            newTable[k] = new HashEntry<K, V>(h, p.key, v, n);
                        }
                    }
                }
            }
            // 将新来的 node 放到新数组中刚刚的 两个链表之一 的 头部
            int nodeIndex = node.hash & sizeMask;
            node.setNext(newTable[nodeIndex]);
            newTable[nodeIndex] = node;
            table = newTable;
        }

        //获取写入锁: scanAndLockForPut
        //其中的核心思想就是通过MAX_SCAN_RETRIES控制自旋次数,防止无限制的重复自旋浪费资源。
        //这个方法很显然见名知意,它的作用就是遍历获取锁然后进行数据插入,
        //自旋锁是指尝试获取的线程不会立即阻塞,而是采用循环的方式去尝试获取锁,这样的好处是减少线程上下文切换的消耗,缺点是会消耗CPU性能
        private HashEntry<K, V> scanAndLockForPut(K key, int hash, V value) {
            // 根据key的hash值查找头节点,头结点可能为null。
            HashEntry<K, V> first = entryForHash(this, hash);
            HashEntry<K, V> e = first;
            HashEntry<K, V> node = null;
            int retries = -1;
            //如果尝试加锁失败,那么就对segment[hash]对应的链表进行遍历找到需要put的这个entry所在的链表中的位置,
            //这里之所以进行一次遍历找到坑位,主要是为了通过遍历过程将遍历过的entry全部放到CPU高速缓存中,
            //这样在获取到锁了之后,再次进行定位的时候速度会十分快,这是在线程无法获取到锁前并等待的过程中的一种预热方式。
            while (!tryLock()) {
                HashEntry<K, V> f; // to recheck first below
                //获取锁失败,初始时retries=-1必然开始先进入第一个if
                if (retries < 0) {
                    //e=null代表两种意思,
                    //第一种就是遍历链表到了最后,仍然没有发现指定key的entry;
                    //第二种情况是刚开始时entryForHash(通过hash找到的table中对应位置链表的结点)找到的HashEntry就是空的
                    if (e == null) {
                        //当然这里之所以还需要对node==null进行判断,是因为有可能在第一次给node赋值完毕后,
                        // 然后预热准备工作已经搞定,然后进行循环尝试获取锁,在循环次数还未达到<2>64次以前,
                        // 某一次在条件<3>判断时发现有其它线程对这个segment进行了修改,那么retries被重置为-1,
                        // 从而再一次进入到<1>条件内,此时如果再次遍历到链表最后时,因为上一次遍历时已经给node赋值过了,
                        // 所以这里判断node是否为空,从而避免第二次创建对象给node重复赋值。
                        if (node == null)
                            node = new HashEntry<K, V>(hash, key, value, null); //第一次会new一个HashEntry
                        retries = 0;
                    } else if (key.equals(e.key)) //遍历过程发现链表中找到了我们需要的key的坑位
                        retries = 0; //有key相等的直接切换到其它else
                    else //当前位置对应的key不是我们需要的,遍历下一个
                        e = e.next; //赋值链表下一元素
                } else if (++retries > MAX_SCAN_RETRIES) { //重试次数,跟cpu有关系 MAX_SCAN_RETRIES为64
                    // 尝试获取锁次数超过设置的最大值,直接进入阻塞等待,这就是所谓的有限制的自旋获取锁,
                    //之所以这样是因为如果持有锁的线程要过很久才释放锁,这期间如果一直无限制的自旋其实是对cpu性能有消耗的,
                    //这样无限制的自旋是不利的,所以加入最大自旋次数,超过这个次数则进入阻塞状态等待对方释放锁并获取锁。
                    lock();
                    break;
                    // 遍历过程中,有可能其它线程改变了遍历的链表,这时就需要重新进行遍历了。
                    //判断是否初始化了结点 并且 判断链表头结点是否改变(1.7使用头插法)
                } else if ((retries & 1) == 0 &&
                        (f = entryForHash(this, hash)) != first) {
                    e = first = f; // re-traverse if entry changed
                    retries = -1;
                }
            }
            return node;
        }

        private void scanAndLock(Object key, int hash) {
            // similar to but simpler than scanAndLockForPut
            HashEntry<K, V> first = entryForHash(this, hash);
            HashEntry<K, V> e = first;
            int retries = -1;
            while (!tryLock()) {
                HashEntry<K, V> f;
                if (retries < 0) {
                    if (e == null || key.equals(e.key))
                        retries = 0;
                    else
                        e = e.next;
                } else if (++retries > MAX_SCAN_RETRIES) {
                    lock();
                    break;
                } else if ((retries & 1) == 0 &&
                        (f = entryForHash(this, hash)) != first) {
                    e = first = f;
                    retries = -1;
                }
            }
        }

        final V remove(Object key, int hash, Object value) {
            if (!tryLock())
                scanAndLock(key, hash);
            V oldValue = null;
            try {
                HashEntry<K, V>[] tab = table;
                int index = (tab.length - 1) & hash;
                HashEntry<K, V> e = entryAt(tab, index);
                HashEntry<K, V> pred = null;
                while (e != null) {
                    K k;
                    HashEntry<K, V> next = e.next;
                    if ((k = e.key) == key ||
                            (e.hash == hash && key.equals(k))) {
                        V v = e.value;
                        if (value == null || value == v || value.equals(v)) {
                            if (pred == null)
                                setEntryAt(tab, index, next);
                            else
                                pred.setNext(next);
                            ++modCount;
                            --count;
                            oldValue = v;
                        }
                        break;
                    }
                    pred = e;
                    e = next;
                }
            } finally {
                unlock();
            }
            return oldValue;
        }

        final boolean replace(K key, int hash, V oldValue, V newValue) {
            if (!tryLock())
                scanAndLock(key, hash);
            boolean replaced = false;
            try {
                HashEntry<K, V> e;
                for (e = entryForHash(this, hash); e != null; e = e.next) {
                    K k;
                    if ((k = e.key) == key ||
                            (e.hash == hash && key.equals(k))) {
                        if (oldValue.equals(e.value)) {
                            e.value = newValue;
                            ++modCount;
                            replaced = true;
                        }
                        break;
                    }
                }
            } finally {
                unlock();
            }
            return replaced;
        }

        final V replace(K key, int hash, V value) {
            if (!tryLock())
                scanAndLock(key, hash);
            V oldValue = null;
            try {
                HashEntry<K, V> e;
                for (e = entryForHash(this, hash); e != null; e = e.next) {
                    K k;
                    if ((k = e.key) == key ||
                            (e.hash == hash && key.equals(k))) {
                        oldValue = e.value;
                        e.value = value;
                        ++modCount;
                        break;
                    }
                }
            } finally {
                unlock();
            }
            return oldValue;
        }

        final void clear() {
            lock();
            try {
                HashEntry<K, V>[] tab = table;
                for (int i = 0; i < tab.length; i++)
                    setEntryAt(tab, i, null);
                ++modCount;
                count = 0;
            } finally {
                unlock();
            }
        }
    }

    static final <K, V> Segment<K, V> segmentAt(Segment<K, V>[] ss, int j) {
        long u = (j << SSHIFT) + SBASE;
        return ss == null ? null :
                (Segment<K, V>) UNSAFE.getObjectVolatile(ss, u);
    }

    //创建Segment
    //ConcurrentHashMap 初始化的时候会初始化第一个槽 segment[0],对于其他槽来说,在插入第一个值的时候进行初始化。
    //这里需要考虑并发,因为很可能会有多个线程同时进来初始化同一个槽 segment[k],不过只要有一个成功了就可以
    private Segment<K, V> ensureSegment(int k) {
        //指向当前的Segment数组
        final Segment<K, V>[] ss = this.segments;
        // 计算第k个Segment的地址(一个Segment的大小为1<<SSHIFT)。
        long u = (k << SSHIFT) + SBASE;
        Segment<K, V> seg;
        // 上面使用UNSAFE.getObject()取值时,由于Java内存模型的原因,所以其它线程已经创建,但对当前线程还不可见。
        // 所以这里使用UNSAFE.getObjectVolatile()再次尝试获取。
        if ((seg = (Segment<K, V>) UNSAFE.getObjectVolatile(ss, u)) == null) {
            // 通过Segment[0]的Segment信息初始化其它位置的Segment。
            Segment<K, V> proto = ss[0];
            //容量
            int cap = proto.table.length;
            //负载因子
            float lf = proto.loadFactor;
            //计算扩容阈值
            int threshold = (int) (cap * lf);
            // 初始化 segment[k] 内部的数组
            HashEntry<K, V>[] tab = (HashEntry<K, V>[]) new HashEntry[cap];
            // 在上述的过程中,可能存在并发场景,所以这里进行recheck,避免在上面这段时间内创建了Segment。
            if ((seg = (Segment<K, V>) UNSAFE.getObjectVolatile(ss, u))
                    == null) {
                //初始化
                Segment<K, V> s = new Segment<K, V>(lf, threshold, tab);
                // 使用 while 循环,内部用 CAS,当前线程成功设值或其他线程成功设值后,退出
                while ((seg = (Segment<K, V>) UNSAFE.getObjectVolatile(ss, u))
                        == null) {
                    //用cas保证并发情况下只有一个线程能取到值
                    if (UNSAFE.compareAndSwapObject(ss, u, null, seg = s))
                        break;
                }
            }
        }
        return seg;
    }

    private Segment<K, V> segmentForHash(int h) {
        long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;
        return (Segment<K, V>) UNSAFE.getObjectVolatile(segments, u);
    }

    static final <K, V> HashEntry<K, V> entryForHash(Segment<K, V> seg, int h) {
        HashEntry<K, V>[] tab;
        return (seg == null || (tab = seg.table) == null) ? null :
                (HashEntry<K, V>) UNSAFE.getObjectVolatile
                        (tab, ((long) (((tab.length - 1) & h)) << TSHIFT) + TBASE);
    }

    public ConcurrentHashMap(int initialCapacity,
                             float loadFactor, int concurrencyLevel) {
        // 参数校验
        if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0)
            throw new IllegalArgumentException();
        if (concurrencyLevel > MAX_SEGMENTS)
            //对并发级别做了限制  并发水平,即,Segment分段数,不能超过最大段数
            concurrencyLevel = MAX_SEGMENTS;
        //记录偏移量
        int sshift = 0;
        // segment数组大小
        int ssize = 1;
        // 传入的concurrencyLevel不一定是2^n。所以这里会计算出大于concurrencyLevel的最小2^n的数(类似hashMap扩容)。
        while (ssize < concurrencyLevel) {
            ++sshift; //2的几次方=concurrencyLevel,sshift就是几
            ssize <<= 1; //寻找>并发级别的最小的2的幂次方数
        }
        // 记录段偏移量,用于后面计算下标
        this.segmentShift = 32 - sshift; // 当concurrencyLevel为默认值16时,sshift=4,得到segmentShift=28。
        this.segmentMask = ssize - 1;  // segmentMask为掩码,因为ssize肯定为2^n,所以ssize-1后,转换为二进制时,后面几位都为1。
        // initialCapacity 是设置整个 map 初始的大小,
        // 这里根据 initialCapacity 计算 Segment 数组中每个位置可以分到的大小
        // 如 initialCapacity 为 64,那么每个 Segment 或称之为"槽"可以分到 4 个
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        //1.假设16/16=1, 1*16<16不成立,c=1,cap=2,c>cap不成立,此时HashEntry长度为最小的2
        //2.假设33/16=2, 2*16<33成立,c=3,cap=2,c>cap成立,cap*2=4,此时HashEntry长度为4
        //这个算法的意义在于让初始化segment能放得下里面的HashEntry
        //按照第二种假设,如果HashEntry长度仍为2,那存储的总量就是Segment的ssize*2,16*2=32,实际是33,存不下
        int c = initialCapacity / ssize;
        if (c * ssize < initialCapacity)
            ++c;
        int cap = MIN_SEGMENT_TABLE_CAPACITY; //segment数组最小长度为2或者2的倍数
        while (cap < c)
            cap <<= 1;
        // 初始化Segment[0]位置的Segment。
        Segment<K, V> s0 =
                new Segment<K, V>(loadFactor, (int) (cap * loadFactor),
                        (HashEntry<K, V>[]) new HashEntry[cap]);
        // 初始化Segment数组
        Segment<K, V>[] ss = (Segment<K, V>[]) new Segment[ssize];
        //把segment对象s0放入segment数组ss第0个位置
        //UNSAFE基于内存操作CAS原理,针对多线程安全性
        UNSAFE.putOrderedObject(ss, SBASE, s0); // ordered write of segments[0]
        this.segments = ss;
    }

    public ConcurrentHashMap(int initialCapacity, float loadFactor) {
        this(initialCapacity, loadFactor, DEFAULT_CONCURRENCY_LEVEL);
    }

    public ConcurrentHashMap(int initialCapacity) {
        this(initialCapacity, DEFAULT_LOAD_FACTOR, DEFAULT_CONCURRENCY_LEVEL);
    }

    //传入了默认初始化容量(16),默认负载因子(0.75f),默认并发级别(16)
    public ConcurrentHashMap() {
        this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR, DEFAULT_CONCURRENCY_LEVEL);
    }

    public ConcurrentHashMap(Map<? extends K, ? extends V> m) {
        this(Math.max((int) (m.size() / DEFAULT_LOAD_FACTOR) + 1,
                DEFAULT_INITIAL_CAPACITY),
                DEFAULT_LOAD_FACTOR, DEFAULT_CONCURRENCY_LEVEL);
        putAll(m);
    }

    public boolean isEmpty() {
        long sum = 0L;
        final Segment<K, V>[] segments = this.segments;
        for (int j = 0; j < segments.length; ++j) {
            Segment<K, V> seg = segmentAt(segments, j);
            if (seg != null) {
                if (seg.count != 0)
                    return false;
                sum += seg.modCount;
            }
        }
        if (sum != 0L) { // recheck unless no modifications
            for (int j = 0; j < segments.length; ++j) {
                Segment<K, V> seg = segmentAt(segments, j);
                if (seg != null) {
                    if (seg.count != 0)
                        return false;
                    sum -= seg.modCount;
                }
            }
            if (sum != 0L)
                return false;
        }
        return true;
    }

    public int size() {
        final Segment<K, V>[] segments = this.segments;
        int size;
        boolean overflow;
        long sum;
        long last = 0L;
        int retries = -1;
        try {
            // 遍历累加每个Segment中的size。
            for (; ; ) {
                // 遍历过程中如果存在增删操作影响到元素个数时,重新遍历(重试RETRIES_BEFORE_LOCK次)。
                // 重试超过RETRIES_BEFORE_LOCK次后,对每个Segment加锁获取。
                if (retries++ == RETRIES_BEFORE_LOCK) {
                    for (int j = 0; j < segments.length; ++j)
                        ensureSegment(j).lock(); // force creation
                }
                sum = 0L;
                size = 0;
                overflow = false;
                // 遍历累加每个Segment中的size。
                for (int j = 0; j < segments.length; ++j) {
                    Segment<K, V> seg = segmentAt(segments, j);
                    if (seg != null) {
                        //累加所有Segment的操作次数
                        sum += seg.modCount;
                        int c = seg.count;
                        //累加所有segment中的元素个数 size+=c
                        if (c < 0 || (size += c) < 0)
                            overflow = true;
                    }
                }
                //当这次累加值和上一次累加值一样,证明没有进行新的增删改操作,返回sum
                //第一次last为0,如果有元素的话,这个for循环最少循环两次的
                if (sum == last)
                    break;
                //记录累加的值
                last = sum;
            }
        } finally {
            //解锁
            if (retries > RETRIES_BEFORE_LOCK) {
                for (int j = 0; j < segments.length; ++j)
                    segmentAt(segments, j).unlock();
            }
        }
        //溢出,返回int的最大值,否则返回累加的size
        return overflow ? Integer.MAX_VALUE : size;
    }

    public V get(Object key) {
        Segment<K, V> s; // manually integrate access methods to reduce overhead
        HashEntry<K, V>[] tab;
        int h = hash(key);
        long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;
        // 计算得到 key 的存放位置
        if ((s = (Segment<K, V>) UNSAFE.getObjectVolatile(segments, u)) != null &&
                (tab = s.table) != null) {
            for (HashEntry<K, V> e = (HashEntry<K, V>) UNSAFE.getObjectVolatile
                    (tab, ((long) (((tab.length - 1) & h)) << TSHIFT) + TBASE);
                 e != null; e = e.next) {
                // 如果是链表,遍历查找到相同 key 的 value。
                K k;
                if ((k = e.key) == key || (e.hash == h && key.equals(k)))
                    return e.value;
            }
        }
        return null;
    }

    public boolean containsKey(Object key) {
        Segment<K, V> s; // same as get() except no need for volatile value read
        HashEntry<K, V>[] tab;
        int h = hash(key);
        long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;
        if ((s = (Segment<K, V>) UNSAFE.getObjectVolatile(segments, u)) != null &&
                (tab = s.table) != null) {
            for (HashEntry<K, V> e = (HashEntry<K, V>) UNSAFE.getObjectVolatile
                    (tab, ((long) (((tab.length - 1) & h)) << TSHIFT) + TBASE);
                 e != null; e = e.next) {
                K k;
                if ((k = e.key) == key || (e.hash == h && key.equals(k)))
                    return true;
            }
        }
        return false;
    }

    public boolean containsValue(Object value) {
        // Same idea as size()
        if (value == null)
            throw new NullPointerException();
        final Segment<K, V>[] segments = this.segments;
        boolean found = false;
        long last = 0;
        int retries = -1;
        try {
            outer:
            for (; ; ) {
                if (retries++ == RETRIES_BEFORE_LOCK) {
                    for (int j = 0; j < segments.length; ++j)
                        ensureSegment(j).lock(); // force creation
                }
                long hashSum = 0L;
                int sum = 0;
                for (int j = 0; j < segments.length; ++j) {
                    HashEntry<K, V>[] tab;
                    Segment<K, V> seg = segmentAt(segments, j);
                    if (seg != null && (tab = seg.table) != null) {
                        for (int i = 0; i < tab.length; i++) {
                            HashEntry<K, V> e;
                            for (e = entryAt(tab, i); e != null; e = e.next) {
                                V v = e.value;
                                if (v != null && value.equals(v)) {
                                    found = true;
                                    break outer;
                                }
                            }
                        }
                        sum += seg.modCount;
                    }
                }
                if (retries > 0 && sum == last)
                    break;
                last = sum;
            }
        } finally {
            if (retries > RETRIES_BEFORE_LOCK) {
                for (int j = 0; j < segments.length; ++j)
                    segmentAt(segments, j).unlock();
            }
        }
        return found;
    }

    public boolean contains(Object value) {
        return containsValue(value);
    }

    public V put(K key, V value) {
        Segment<K, V> s;
        if (value == null) //不允许value为null
            throw new NullPointerException();
        // 计算 key 的 hash 值, 与HashMap类似,主要是为了数据尽可能的均匀分布。
        int hash = hash(key);
        // 计算出该数据要存储在哪个Segment上。
        int j = (hash >>> segmentShift) & segmentMask; //segmentMask=ssize-1 segment数组大小-1
        // 判断Segment[j]位置上的Segment是否初始化(构造方法中只初始化了Segment[0]的元素)。
        // 这里使用UNSAFE.getObject()方法取值在并发场景下不保证可见性。
        if ((s = (Segment<K, V>) UNSAFE.getObject
                (segments, (j << SSHIFT) + SBASE)) == null)
            // ensureSegment(j) 对 segment[j] 进行初始化
            s = ensureSegment(j);
        // 创建完Segment后,将数据添加到Segment上。
        return s.put(key, hash, value, false);
    }

    public V putIfAbsent(K key, V value) {
        Segment<K, V> s;
        if (value == null)
            throw new NullPointerException();
        int hash = hash(key);
        int j = (hash >>> segmentShift) & segmentMask;
        if ((s = (Segment<K, V>) UNSAFE.getObject
                (segments, (j << SSHIFT) + SBASE)) == null)
            s = ensureSegment(j);
        return s.put(key, hash, value, true);
    }

    public void putAll(Map<? extends K, ? extends V> m) {
        for (Map.Entry<? extends K, ? extends V> e : m.entrySet())
            put(e.getKey(), e.getValue());
    }

    public V remove(Object key) {
        int hash = hash(key);
        Segment<K, V> s = segmentForHash(hash);
        return s == null ? null : s.remove(key, hash, null);
    }

    public boolean remove(Object key, Object value) {
        int hash = hash(key);
        Segment<K, V> s;
        return value != null && (s = segmentForHash(hash)) != null &&
                s.remove(key, hash, value) != null;
    }

    public boolean replace(K key, V oldValue, V newValue) {
        int hash = hash(key);
        if (oldValue == null || newValue == null)
            throw new NullPointerException();
        Segment<K, V> s = segmentForHash(hash);
        return s != null && s.replace(key, hash, oldValue, newValue);
    }

    public V replace(K key, V value) {
        int hash = hash(key);
        if (value == null)
            throw new NullPointerException();
        Segment<K, V> s = segmentForHash(hash);
        return s == null ? null : s.replace(key, hash, value);
    }

    public void clear() {
        final Segment<K, V>[] segments = this.segments;
        for (int j = 0; j < segments.length; ++j) {
            Segment<K, V> s = segmentAt(segments, j);
            if (s != null)
                s.clear();
        }
    }

    public Set<K> keySet() {
        Set<K> ks = keySet;
        return (ks != null) ? ks : (keySet = new KeySet());
    }

    public Collection<V> values() {
        Collection<V> vs = values;
        return (vs != null) ? vs : (values = new Values());
    }

    public Set<Map.Entry<K, V>> entrySet() {
        Set<Map.Entry<K, V>> es = entrySet;
        return (es != null) ? es : (entrySet = new EntrySet());
    }

    public Enumeration<K> keys() {
        return new KeyIterator();
    }

    public Enumeration<V> elements() {
        return new ValueIterator();
    }

    abstract class HashIterator {
        int nextSegmentIndex;
        int nextTableIndex;
        HashEntry<K, V>[] currentTable;
        HashEntry<K, V> nextEntry;
        HashEntry<K, V> lastReturned;

        HashIterator() {
            nextSegmentIndex = segments.length - 1;
            nextTableIndex = -1;
            advance();
        }

        final void advance() {
            for (; ; ) {
                if (nextTableIndex >= 0) {
                    if ((nextEntry = entryAt(currentTable,
                            nextTableIndex--)) != null)
                        break;
                } else if (nextSegmentIndex >= 0) {
                    Segment<K, V> seg = segmentAt(segments, nextSegmentIndex--);
                    if (seg != null && (currentTable = seg.table) != null)
                        nextTableIndex = currentTable.length - 1;
                } else
                    break;
            }
        }

        final HashEntry<K, V> nextEntry() {
            HashEntry<K, V> e = nextEntry;
            if (e == null)
                throw new NoSuchElementException();
            lastReturned = e; // cannot assign until after null check
            if ((nextEntry = e.next) == null)
                advance();
            return e;
        }

        public final boolean hasNext() {
            return nextEntry != null;
        }

        public final boolean hasMoreElements() {
            return nextEntry != null;
        }

        public final void remove() {
            if (lastReturned == null)
                throw new IllegalStateException();
            ConcurrentHashMap.this.remove(lastReturned.key);
            lastReturned = null;
        }
    }

    final class KeyIterator
            extends HashIterator
            implements Iterator<K>, Enumeration<K> {
        public final K next() {
            return super.nextEntry().key;
        }

        public final K nextElement() {
            return super.nextEntry().key;
        }
    }

    final class ValueIterator
            extends HashIterator
            implements Iterator<V>, Enumeration<V> {
        public final V next() {
            return super.nextEntry().value;
        }

        public final V nextElement() {
            return super.nextEntry().value;
        }
    }

    final class WriteThroughEntry
            extends AbstractMap.SimpleEntry<K, V> {
        WriteThroughEntry(K k, V v) {
            super(k, v);
        }

        public V setValue(V value) {
            if (value == null) throw new NullPointerException();
            V v = super.setValue(value);
            ConcurrentHashMap.this.put(getKey(), value);
            return v;
        }
    }

    final class EntryIterator
            extends HashIterator
            implements Iterator<Entry<K, V>> {
        public Map.Entry<K, V> next() {
            HashEntry<K, V> e = super.nextEntry();
            return new WriteThroughEntry(e.key, e.value);
        }
    }

    final class KeySet extends AbstractSet<K> {
        public Iterator<K> iterator() {
            return new KeyIterator();
        }

        public int size() {
            return ConcurrentHashMap.this.size();
        }

        public boolean isEmpty() {
            return ConcurrentHashMap.this.isEmpty();
        }

        public boolean contains(Object o) {
            return ConcurrentHashMap.this.containsKey(o);
        }

        public boolean remove(Object o) {
            return ConcurrentHashMap.this.remove(o) != null;
        }

        public void clear() {
            ConcurrentHashMap.this.clear();
        }
    }

    final class Values extends AbstractCollection<V> {
        public Iterator<V> iterator() {
            return new ValueIterator();
        }

        public int size() {
            return ConcurrentHashMap.this.size();
        }

        public boolean isEmpty() {
            return ConcurrentHashMap.this.isEmpty();
        }

        public boolean contains(Object o) {
            return ConcurrentHashMap.this.containsValue(o);
        }

        public void clear() {
            ConcurrentHashMap.this.clear();
        }
    }

    final class EntrySet extends AbstractSet<Map.Entry<K, V>> {
        public Iterator<Map.Entry<K, V>> iterator() {
            return new EntryIterator();
        }

        public boolean contains(Object o) {
            if (!(o instanceof Map.Entry))
                return false;
            Map.Entry<?, ?> e = (Map.Entry<?, ?>) o;
            V v = ConcurrentHashMap.this.get(e.getKey());
            return v != null && v.equals(e.getValue());
        }

        public boolean remove(Object o) {
            if (!(o instanceof Map.Entry))
                return false;
            Map.Entry<?, ?> e = (Map.Entry<?, ?>) o;
            return ConcurrentHashMap.this.remove(e.getKey(), e.getValue());
        }

        public int size() {
            return ConcurrentHashMap.this.size();
        }

        public boolean isEmpty() {
            return ConcurrentHashMap.this.isEmpty();
        }

        public void clear() {
            ConcurrentHashMap.this.clear();
        }
    }

    private void writeObject(java.io.ObjectOutputStream s) throws IOException {
        // force all segments for serialization compatibility
        for (int k = 0; k < segments.length; ++k)
            ensureSegment(k);
        s.defaultWriteObject();

        final Segment<K, V>[] segments = this.segments;
        for (int k = 0; k < segments.length; ++k) {
            Segment<K, V> seg = segmentAt(segments, k);
            seg.lock();
            try {
                HashEntry<K, V>[] tab = seg.table;
                for (int i = 0; i < tab.length; ++i) {
                    HashEntry<K, V> e;
                    for (e = entryAt(tab, i); e != null; e = e.next) {
                        s.writeObject(e.key);
                        s.writeObject(e.value);
                    }
                }
            } finally {
                seg.unlock();
            }
        }
        s.writeObject(null);
        s.writeObject(null);
    }

    private void readObject(java.io.ObjectInputStream s)
            throws IOException, ClassNotFoundException {
        // Don't call defaultReadObject()
        ObjectInputStream.GetField oisFields = s.readFields();
        final Segment<K, V>[] oisSegments = (Segment<K, V>[]) oisFields.get("segments", null);

        final int ssize = oisSegments.length;
        if (ssize < 1 || ssize > MAX_SEGMENTS
                || (ssize & (ssize - 1)) != 0)  // ssize not power of two
            throw new java.io.InvalidObjectException("Bad number of segments:"
                    + ssize);
        int sshift = 0, ssizeTmp = ssize;
        while (ssizeTmp > 1) {
            ++sshift;
            ssizeTmp >>>= 1;
        }
        UNSAFE.putIntVolatile(this, SEGSHIFT_OFFSET, 32 - sshift);
        UNSAFE.putIntVolatile(this, SEGMASK_OFFSET, ssize - 1);
        UNSAFE.putObjectVolatile(this, SEGMENTS_OFFSET, oisSegments);

        // set hashMask
        UNSAFE.putIntVolatile(this, HASHSEED_OFFSET, randomHashSeed(this));

        // Re-initialize segments to be minimally sized, and let grow.
        int cap = MIN_SEGMENT_TABLE_CAPACITY;
        final Segment<K, V>[] segments = this.segments;
        for (int k = 0; k < segments.length; ++k) {
            Segment<K, V> seg = segments[k];
            if (seg != null) {
                seg.threshold = (int) (cap * seg.loadFactor);
                seg.table = (HashEntry<K, V>[]) new HashEntry[cap];
            }
        }

        // Read the keys and values, and put the mappings in the table
        for (; ; ) {
            K key = (K) s.readObject();
            V value = (V) s.readObject();
            if (key == null)
                break;
            put(key, value);
        }
    }

    // Unsafe mechanics
    private static final sun.misc.Unsafe UNSAFE;
    private static final long SBASE;
    private static final int SSHIFT;
    private static final long TBASE;
    private static final int TSHIFT;
    private static final long HASHSEED_OFFSET;
    private static final long SEGSHIFT_OFFSET;
    private static final long SEGMASK_OFFSET;
    private static final long SEGMENTS_OFFSET;

    static {
        int ss, ts;
        try {
            UNSAFE = sun.misc.Unsafe.getUnsafe();
            Class tc = HashEntry[].class;
            Class sc = Segment[].class;
            // 计算出HashEntry[]&Segment[]的第一个元素的偏移地址
            TBASE = UNSAFE.arrayBaseOffset(tc);
            SBASE = UNSAFE.arrayBaseOffset(sc);
            // 计算出HashEntry[]&Segment[]中每个元素的大小
            ts = UNSAFE.arrayIndexScale(tc);
            ss = UNSAFE.arrayIndexScale(sc);
            HASHSEED_OFFSET = UNSAFE.objectFieldOffset(
                    ConcurrentHashMap.class.getDeclaredField("hashSeed"));
            SEGSHIFT_OFFSET = UNSAFE.objectFieldOffset(
                    ConcurrentHashMap.class.getDeclaredField("segmentShift"));
            SEGMASK_OFFSET = UNSAFE.objectFieldOffset(
                    ConcurrentHashMap.class.getDeclaredField("segmentMask"));
            SEGMENTS_OFFSET = UNSAFE.objectFieldOffset(
                    ConcurrentHashMap.class.getDeclaredField("segments"));
        } catch (Exception e) {
            throw new Error(e);
        }
        // 校验两个数组元素占用内存大小是否是2^n。
        if ((ss & (ss - 1)) != 0 || (ts & (ts - 1)) != 0)
            throw new Error("data type scale not a power of two");
        // 计算位运算时的偏移量
        SSHIFT = 31 - Integer.numberOfLeadingZeros(ss);
        TSHIFT = 31 - Integer.numberOfLeadingZeros(ts);
    }

}

ConcurrentHashMap.put(K key, V value) & Segment.put(K key, int hash, V value, boolean onlyIfAbsent)

ConcurrentHashMap.put(K key, V value) 方法:

  1. 通过 (hash >>> segmentShift) & segmentMask 计算数据要存储在哪个 Segment 上。
  2. 如果数据要存储的 Segment 在 Segment[] 中还不存在,就需要重新创建,且需要从Segment[0]处获取构建 HashEntry[] 的参数信息。
  3. 通过 UNSAFE.getObjectVolatile(ss, u) 多次进行 recheck,并在最后通过CAS进行赋值,从而安全的将Segment添加到Segment[]上。
  4. 数据添加逻辑最终由Segment代理,Segment的数据结构就类似于HashMap。
  5. put 操作时,Key/Value 都不能为 null。

Segment.put() 执行流程:

  1. 尝试获取锁 (保证添加操作的线程安全性)。
  2. 定位到HashEntry[i]中的位置,并获取头节点。
  3. 遍历HashEntry[index]处的链表,并判断是否有与key匹配的节点。
  4. 匹配到节点,则更新数据。
  5. 没有匹配到节点,则将当前的Key、Value包装成一个HashEntry节点,并将HashEntry[i]头节点赋值给新增节点的next字段(即新增节点头插)。
  6. HashEntry节点创建后,判断新增后的HashEntry[]是否需要扩容,如果需要扩容,则扩容并迁移完数据后在利用头插法将第5步创建的节点添加到对应的HashEntry[]中。
  7. 如果第6步不需要扩容,则直接将第5步创建的节点头擦到对应的HashEntry[]中。
  8. 释放锁。

完整的put操作流程图:

 

Segment.scanAndLockForPut(K key, int hash, V value)

主要作用: 自旋获取锁,同时做一些数据预热优化 (读取数据后将数据添加进CPU高速缓存,加快下次访问速度)。

scanAndLockForPut 方法执行流程:

  1. 如果首次获取锁成功,则返回node=null,即跟Segment.put() 时的操作保持一致。
  2. 当首次获取锁失败后进入自旋状态,在自旋过程中创建 HashEntry 节点。创建HashEntry 节点分两种场景:
  3. 如果key对应HashEntry[i]的头节点为空,则直接创建HashEntry 节点 ( next=null,没有与其它节点关联)。
  4. 如果key对应HashEntry[i]的头节点不为空,则从头节点开始遍历链表,并在链表遍历结束后创建HashEntry 节点。此处虽然遍历了链表,但即使匹配到了节点也没有保存,目的仅是为了让数据进入CPU高速缓存,在下次使用时能快速命中。
  5. 当第2步完成后,自旋获取锁的操作才会开始对尝试获取锁的次数进行限制,一旦操作了次数就会强制加锁阻塞当前线程(自旋会依赖CPU)。
  6. 在自旋过程中,如果头节点发生了改变,就会重新回到第2步。

为什么scanAndLockForPut中要遍历一次链表?

  • scanAndLockForPut 使用有限次数的自旋来优化加锁。因为自旋需要依靠CPU,长时间的自旋对CPU的消耗很大,所以直接上锁释放CPU。
  • 遍历一次链表也是一种优化方法,主要是尽可能使当前链表中的节点进入CPU高速缓存,提高缓存命中率,以便获取锁定后的遍历速度更快。实际上加锁后并没有使用已经找到的节点,因为它们必须在获取锁后重新获取,以确保更新顺序的一致性,但是遍历一次后通常可以更快地重新定位。这是一种预热优化的方式,scanAndLock中也使用了该优化方式。

Segment.rehash(HashEntry<K,V> node)

作用: 扩容+数据迁移

  1. 数据扩容:Segment 中HashEntry[] 容量扩容为原先的2倍。
  2. 参数中的Node添加逻辑:在完成数据迁移后,新增的Node使用头插法插入newTable中。
  3. 数据迁移方案:
    • 常规迁移:因为newTable与oldTable的容量大小是不同的,所以在计算 int index = hash & sizeMask 时,插入table的位置不一定相同,此时常规的数据迁移方式是遍历 oldTable[i] 中每个元素,重新计算其 index 的值后再插入,但是这样就需要对所有数据重新进行计算。
    • 优化后的迁移:
      1. 当 oldTable[i] 处只有一个数据时,直接通过 int index = hash & sizeMask 对位置信息进行重定向。
      2. 假设 oldTable[i] 处链表的所有数据都重定向到 newTable[n] (即newTable中的同一个),则只需要将 oldTable[i] 处的头节点添加到 newTable[n] 处即可完成整个链表的复制。
      3. 假设 oldTable[i] 处链表的所有数据存在 newTable[] 不同的位置,则先将最后一个数据保存到 newTable[] 中,随后重新遍历 oldTable[i] 处链表的所有数据,按照常规迁移的方案进行迁移。

ConcurrentHashMap.get(Object key)

说明: 需要进行两次 hash 计算来定位数据存储的位置。

get 方法的取值流程:

  1. 先通过 hash 对 Segment 定位。
  2. 再通过 hash 对 Segment 中的 HashEntry[] 定位,找到头节点。
  3. 从头节点开始遍历,尝试匹配对应的key。

get 没有加锁的话,ConcurrentHashMap是如何保证读到的数据不是脏数据的呢?

通过 UNSAFE.getObjectVolatile() 直接操作内存获取数据,且 getObjectVolatile() 保证可见性

ConcurrentHashMap.size()

size 获取流程:

  1. 遍历所有的Segment。
  2. 把Segment的元素数量累加起来。
  3. 把Segment的修改次数累加起来。
  4. 判断所有Segment的总修改次数是否大于上一次的总修改次数。如果大于,说明统计过程中有修改,重新统计,尝试次数+1。如果不是,说明没有修改,统计结束。
  5. 如果尝试次数超过阈值,则对每一个Segment加锁,再重新统计。
  6. 再次判断所有Segment的总修改次数是否大于上一次的总修改次数。由于已经加锁,次数一定和上次相等。
  7. 释放锁,统计结束。

ConcurrentHashMap总结

  1. JDK1.7的HashMap使用数组+链表的实现方案,但是在并发场景下有安全性问题,为此JDK1.7的ConcurrentHashMap通过引入分段锁Segment来进行优化。
  2. Segment.scanAndLockForPut 方法内部遍历数据,将数据读入CPU高速缓存,方便下次获取时加快访问速度。
  3. size的计算: 需要遍历Segment数组并对每个Segment中的个数求和。在极端情况下会对所有的Segment上锁再重新计算个数。
  4. 头插法: 数据插入时采用头插法。
  5. 不足
    • JDK1.7的ConcurrentHashMap在put、get操作时,都需要进行两次hash计算才能定位到具体的位置。
    • JDK1.7的ConcurrentHashMap的Segment[]在构造函数阶段就已经初始化完,且后面无法再扩容Segment[]。在某些场景下锁的粒度可能还是偏大,会影响到存取效率。  

ConcurrentHashMap源码分析(JDK 1.8版)

 

ConcurrentHashMap是基于数组+链表/红黑树的数据结构,添加、删除、更新都是先通过计算key的hash值确定数据的索引值,这和HashMap是类似的,只不过ConcurrentHashMap针对并发做了更多的处理。

ConcurrentHashMap 的构造方法

在 ConcurrentHashMap 中一共有5个构造方法,都没有对内部的数组做初始化, 只是对一些变量的初始值做了处理,数组初始化是在第一次添加元素时完成。

/**
* 默认的构造方法为空,不做任何操作,数组长度默认是16
*/
public ConcurrentHashMap() {
}

/**
* 传递初始化容量的构造方法,传递进来一个初始容量,
* ConcurrentHashMap会基于这个值计算一个比这个值大的2的幂次方数作为初始容量
* 与其他版本不同,例如:传递 16 作为参数,它会计算得到 32 作为初始化容量,而不是 16
*/
public ConcurrentHashMap(int initialCapacity) {
  if (initialCapacity < 0)
    throw new IllegalArgumentException();
  int cap = ((initialCapacity >= (MAXIMUM_CAPACITY >>> 1)) ?
             MAXIMUM_CAPACITY :
             tableSizeFor(initialCapacity + (initialCapacity >>> 1) + 1));
  this.sizeCtl = cap;
}

sizeCtl 含义解析

这个变量是一个非常重要的变量,而且具有非常丰富的含义,它的值不同,对应的含义也不一样。

  • sizeCtl为0,代表数组未初始化, 且数组的初始容量为16
  • sizeCtl为正数,如果数组未初始化,那么其记录的是数组的初始容量,如果数组已经初始化,那么其记录的是数组的扩容阈值
  • sizeCtl为-1,表示数组正在进行初始化
  • sizeCtl小于0,并且不是-1,表示数组正在扩容, -(1+n),表示此时有n个线程正在共同完成数组的扩容操作

put() 方法

/**
* put() 方法会默认调用 putVal() 方法做具体添加元素逻辑
*/
public V put(K key, V value) {
    return putVal(key, value, false);
}

/**
* putVal() 方法做具体添加元素逻辑。根据不同的条件进行不同的插入方案选择。
* 大致分为 直接cas插入,链表插入,树插入以及协助扩容等操作。
* 添加完毕后需要对数组元素个数更新,并且判别是否需要扩容。
*/
final V putVal(K key, V value, boolean onlyIfAbsent) {
    // 不接受 null 值,直接抛出空指针异常
    if (key == null || value == null) throw new NullPointerException();
    // 计算 key 的 hash 值
    int hash = spread(key.hashCode());
    // 记录某个桶上元素的个数,如果超过8个,会转成红黑树
    int binCount = 0;
    for (Node<K,V>[] tab = table;;) {
        Node<K,V> f; int n, i, fh;
        // 1.如果数组为空,表示未进行初始化,需要首先进行初始化操作
        if (tab == null || (n = tab.length) == 0)
            tab = initTable();
        // 2.如果 hash 计算得到的桶位置没有元素,利用cas将元素直接添加
        else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
            if (casTabAt(tab, i, null,
                         new Node<K,V>(hash, key, value, null)))
                break;                   // no lock when adding to empty bin
        }
        // 3.如果hash计算得到的桶位置元素的hash值为MOVED,证明其他线程正在扩容,那么需要协助扩容
        else if ((fh = f.hash) == MOVED)
            tab = helpTransfer(tab, f);
        // 4.hash 计算的桶位置元素不为空,且当前没有处于扩容操作,进行元素添加
        else {
            V oldVal = null;
            // 对当前桶进行加锁,保证线程安全,执行元素添加操作
            // 普通链表 : 尾插法
            // 树化后 : 插入树节点
            // 加锁 为节点头元素添加重量级锁
            synchronized (f) {
                // dcl double check 如果其他线程已经修改头节点,则可以感知
                if (tabAt(tab, i) == f) { 
                    // 普通链表节点
                    if (fh >= 0) {
                        binCount = 1;
                        // 遍历链表
                        for (Node<K,V> e = f;; ++binCount) {
                            K ek;
                            // 找到相同元素,赋值并跳出循环
                            if (e.hash == hash &&
                                ((ek = e.key) == key ||
                                 (ek != null && key.equals(ek)))) {
                                oldVal = e.val;
                                if (!onlyIfAbsent)
                                    e.val = value;
                                break;
                            }
                            // 不存在就尾插
                            Node<K,V> pred = e;
                            if ((e = e.next) == null) {
                                pred.next = new Node<K,V>(hash, key,
                                                          value, null);
                                break;
                            }
                        }
                    }
                    // 树节点,将元素添加到红黑树中
                    else if (f instanceof TreeBin) {
                        Node<K,V> p;
                        binCount = 2;
                        // 找到相同元素,赋值
                        if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                              value)) != null) {
                            oldVal = p.val;
                            if (!onlyIfAbsent)
                                p.val = value;
                        }
                    }
                }
            }
            if (binCount != 0) {
                // 链表长度大于/等于8,将链表转成红黑树(这个8设计到泊松分布)
                if (binCount >= TREEIFY_THRESHOLD)
                    // 树化,因为树化还有满足数组长度是否超过 64
                    treeifyBin(tab, i);
                // 如果是重复键,直接将旧值返回
                if (oldVal != null)
                    return oldVal;
                break;
            }
        }
    }
    // 添加的是新元素,维护集合长度,并判断是否要进行扩容操作
    addCount(1L, binCount);
    return null;
}

/**
* initTable()方法采用 CAS+自旋的方式线程安全的初始化数组
*/
private final Node<K,V>[] initTable() {
    Node<K,V>[] tab; int sc;
    // cas+自旋,保证线程安全,对数组进行初始化操作
    while ((tab = table) == null || tab.length == 0) {
        // 说明其他线程正在进行初始化,本线程让出 CPU
        if ((sc = sizeCtl) < 0)
            Thread.yield(); // lost initialization race; just spin
        // cas修改sizeCtl的值为-1,修改成功,进行数组初始化,失败,继续自旋
        else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
            try {
                // double check
                if ((tab = table) == null || tab.length == 0) {
                    // sizeCtl为0,取默认长度16,否则取用户指定的sizeCtl值
                    int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                    @SuppressWarnings("unchecked")
                    // 基于初始长度,构建数组对象
                    Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                    table = tab = nt;
                    // 计算扩容阈值,并赋值给sc,0.75
                    sc = n - (n >>> 2);
                }
            } finally {
                // 将扩容阈值,赋值给sizeCtl
                sizeCtl = sc;
            }
            break;
        }
    }
    return tab;
}

通过以上源码,我们可以看到,当需要添加元素时,会针对当前元素所对应的桶位进行加锁操作,这样一方面保证元素添加时,多线程的安全,同时对某个桶位加锁不会影响其他桶位的操作,进一步提升多线程的并发效率。

链表树化

/**
* treeifyBin()方法。首先对数组长度判别,查看是否直接扩容数组即可。
* 之后若满足树化条件,则进行树化的步骤,进行双向链表构建,并进行 TreeBin 对象的构建。
*/
private final void treeifyBin(Node<K,V>[] tab, int index) {
    Node<K,V> b; int n, sc;
    if (tab != null) {
        // 判别当前数组长度是否超过 64(树化阈值),如果不超过阈值则进行数组的扩容
        // static final int MIN_TREEIFY_CAPACITY = 64;
        if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
            tryPresize(n << 1);
        // 再次核实当前桶存在元素,并且是链表
        else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
            // 并发安全的进行树化
            synchronized (b) {
                // double check
                if (tabAt(tab, index) == b) {
                    // 首先进行双向链表的构造
                    TreeNode<K,V> hd = null, tl = null;
                    for (Node<K,V> e = b; e != null; e = e.next) {
                        TreeNode<K,V> p =
                            new TreeNode<K,V>(e.hash, e.key, e.val,
                                              null, null);
                        if ((p.prev = tl) == null)
                            hd = p;
                        else
                            tl.next = p;
                        tl = p;
                    }
                    // 将树化后的 TreeBin 对象插入到桶中。具体的树化逻辑与HashMap不同,将TreeNode封装到 TreeBin 对象中,方便平衡树的过程中保证桶中的对象不发生变化。便于对first元素进行加锁操作
                    setTabAt(tab, index, new TreeBin<K,V>(hd));
                }
            }
        }
    }
}

/**
* TreeBin 的构造方法为具体构建红黑树的逻辑。
*/
TreeBin(TreeNode<K,V> b) {
    super(TREEBIN, null, null, null);
    this.first = b;
    TreeNode<K,V> r = null;
    // 遍历双向链表
    for (TreeNode<K,V> x = b, next; x != null; x = next) {
        next = (TreeNode<K,V>)x.next;
        x.left = x.right = null;
        // 构建红黑树的root节点
        if (r == null) {
            x.parent = null;
            x.red = false;
            r = x;
        }
        // 构建红黑树具体逻辑
        else {
            // 获取元素的 key 和 hash
            K k = x.key;
            int h = x.hash;
            Class<?> kc = null;
            // 遍历红黑树
            for (TreeNode<K,V> p = r;;) {
                int dir, ph;
                K pk = p.key;
                // 向左遍历
                if ((ph = p.hash) > h)
                    dir = -1;
                // 向右遍历
                else if (ph < h)
                    dir = 1;
                // 根据是否实现 comparable 接口的逻辑判别左右遍历
                else if ((kc == null &&
                          (kc = comparableClassFor(k)) == null) ||
                         (dir = compareComparables(kc, k, pk)) == 0)
                    dir = tieBreakOrder(k, pk);
                // 记录父节点
                TreeNode<K,V> xp = p;
                // 构建新节点
                if ((p = (dir <= 0) ? p.left : p.right) == null) {
                    x.parent = xp;
                    if (dir <= 0)
                        xp.left = x;
                    else
                        xp.right = x;
                    // 平衡红黑树
                    r = balanceInsertion(r, x);
                    break;
                }
            }
        }
    }
    this.root = r;
    assert checkInvariants(root);
}

计数操作

jdk1.8中使用了一个仿造LongAdder实现的计数器,让计数操作额外使用别的基于分段并发思想的实现的类。

/**
* addCount() 方法主要包括两个功能:
* 1.记录ConcurrentHashMap元素数量,会调用fullAddCount具体执行
* 2.扩容ConcurrentHashMap ,会调用transer方法具体执行扩容
*/
private final void addCount(long x, int check) {
    CounterCell[] as; long b, s;
    // 当CounterCell数组不为空,则优先利用数组中的CounterCell记录数量
    // 或者当baseCount的累加操作失败,会利用数组中的CounterCell记录数量
    if ((as = counterCells) != null ||
        !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
        CounterCell a; long v; int m;
        // 标识是否有多线程竞争
        boolean uncontended = true;
        // 当as数组为空
        // 或者当as长度小于0
        // 或者当前线程对应的as数组桶位的元素为空
        // 或者当前线程对应的as数组桶位不为空,但是累加失败
        if (as == null || (m = as.length - 1) < 0 ||
            (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
            !(uncontended =
              U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
            // 以上任何一种情况成立,都会进入该方法,传入的uncontended是false
            fullAddCount(x, uncontended);
            return;
        }
        if (check <= 1)
            return;
        // 计算元素个数
        s = sumCount();
    }
    // 接着判断是否需要扩容
    if (check >= 0) {
        Node<K,V>[] tab, nt; int n, sc;
        // 当元素个数达到扩容阈值
        // 并且数组不为空
        // 并且数组长度小于限定的最大值
        // 满足以上所有条件,执行扩容
        while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
               (n = tab.length) < MAXIMUM_CAPACITY) {
            // 这个是一个很大的正数
            int rs = resizeStamp(n);
            // sc小于0,说明有线程正在扩容,那么会协助扩容
            if (sc < 0) {
                // 扩容结束或者扩容线程数达到最大值或者扩容后的数组为null或者没有更多的桶位需要转移,结束操作
                if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                    sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                    transferIndex <= 0)
                    break;
                // 扩容线程加1,成功后,进行协助扩容操作
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                    // 协助扩容,newTable不为null
                    transfer(tab, nt);
            }
            // 没有其他线程在进行扩容,达到扩容阈值后,给sizeCtl赋了一个很大的负数
            else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                         (rs << RESIZE_STAMP_SHIFT) + 2))
                // 扩容,newTable为null
                transfer(tab, null);
            s = sumCount();
        }
    }
}

/**
* fullAddCount() 方法用于将需要添加的个数累加到baseCount上,
* 或者累加到其他CountCell数组中的每个对象中的value属性上
*/
private final void fullAddCount(long x, boolean wasUncontended) {
    int h;
    // 获取当前线程的hash值,如果为 0,则重新进行 hash 值计算
    if ((h = ThreadLocalRandom.getProbe()) == 0) {
        ThreadLocalRandom.localInit();      // force initialization
        h = ThreadLocalRandom.getProbe();
        wasUncontended = true;
    }
    boolean collide = false;                // True if last slot nonempty
    for (;;) {
        CounterCell[] as; CounterCell a; int n; long v;
        // 数组不为空,优先对数组中CouterCell的value累加
        if ((as = counterCells) != null && (n = as.length) > 0) {
            // 线程对应的桶为 null
            if ((a = as[(n - 1) & h]) == null) {
                if (cellsBusy == 0) {            // Try to attach new Cell
                    // 创建CounterCell对象
                    CounterCell r = new CounterCell(x); // Optimistic create
                    // 利用CAS修改cellBusy状态为1,成功则将创建的CounterCell对象放入数组中
                    if (cellsBusy == 0 &&
                        U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                        boolean created = false;
                        try {               // Recheck under lock
                            CounterCell[] rs; int m, j;
                            // double check
                            if ((rs = counterCells) != null &&
                                (m = rs.length) > 0 &&
                                rs[j = (m - 1) & h] == null) {
                                rs[j] = r;
                                // 表示放入成功
                                created = true;
                            }
                        } finally {
                            // 重置标志位
                            cellsBusy = 0;
                        }
                        // 成功退出循环
                        if (created)
                            break
                            // 桶已经被别的线程放置了 CounterCell 对象,继续循环
                            continue;           // Slot is now non-empty
                    }
                }
                collide = false;
            }
            // 桶不为空,重新计算线程hash值,然后继续循环
            else if (!wasUncontended)       // CAS already known to fail
                wasUncontended = true;      // Continue after rehash
            // 重新计算了hash值后,对应的桶位依然不为空,对value累加
            // 成功则结束循环
            // 失败则继续下面判断
            else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
                break;
            // 数组被别的线程改变了,或者数组长度超过了可用cpu大小,重新计算线程hash值,否则继续下一个判断
            else if (counterCells != as || n >= NCPU)
                collide = false;            // At max size or stale
            // 当没有冲突,修改为有冲突,并重新计算线程hash,继续循环
            else if (!collide)
                collide = true;
            // 如果CounterCell的数组长度没有超过cpu核数,对数组进行两倍扩容
            else if (cellsBusy == 0 &&
                     U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                try {
                    // double check
                    if (counterCells == as) {// Expand table unless stale
                        // 对 CounterCell 数组进行2倍扩容
                        CounterCell[] rs = new CounterCell[n << 1];
                        for (int i = 0; i < n; ++i)
                            rs[i] = as[i];
                        counterCells = rs;
                    }
                } finally {
                    cellsBusy = 0;
                }
                collide = false;
                continue;                   // Retry with expanded table
            }
            // 重新计算 hash 值
            h = ThreadLocalRandom.advanceProbe(h);
        }
        // CounterCell数组为空,并且没有线程在创建数组,修改标记,并创建数组
        else if (cellsBusy == 0 && counterCells == as &&
                 U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
            boolean init = false;
            try {                           // Initialize table
                // double check
                if (counterCells == as) {
                    // 初始化容量为2的数组
                    CounterCell[] rs = new CounterCell[2];
                    // 放入 count 计数
                    rs[h & 1] = new CounterCell(x);
                    counterCells = rs;
                    init = true;
                }
            } finally {
                cellsBusy = 0;
            }
            if (init)
                break;
        }
        // 数组为空,并且有别的线程在创建数组,那么尝试对baseCount做累加,成功就退出循环,失败就继续循环
        else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
            break;                          // Fall back on using base
    }
}

/**
* sumCount() 方法会聚合所有累加单元和baseCount的值
*/
final long sumCount() {
    CounterCell[] as = counterCells; CounterCell a;
    // 获取baseCount的值
    long sum = baseCount;
    if (as != null) {
        // 遍历CounterCell数组,累加每一个CounterCell的value值
        for (int i = 0; i < as.length; ++i) {
            if ((a = as[i]) != null)
                sum += a.value;
        }
    }
    return sum;
}

扩容操作

多线程协助扩容的操作会在两个地方被触发:

① 当添加元素时,发现添加的元素对用的桶位为fwd节点,就会先去协助扩容,然后再添加元素。

② 当添加完元素后,判断当前元素个数达到了扩容阈值,此时发现sizeCtl的值小于0,并且新数组不为空,这个时候,会去协助扩容。

/**
* ConcurrentHashMap触发扩容的时机与HashMap类似,
* 要么是在将链表转换成红黑树时判断table数组的长度是否小于阈值(64),
* 如果小于就进行扩容而不是树化,要么就是在添加元素的时候,
* 判断当前Entry数量是否超过阈值,如果超过就进行扩容。
*/
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
    int n = tab.length, stride;
    // 如果是多cpu,那么每个线程划分任务,最小任务量是16个桶位的迁移
    if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
        stride = MIN_TRANSFER_STRIDE; // subdivide range
    // 如果是扩容线程,此时新数组为null
    if (nextTab == null) {            // initiating
        try {
            @SuppressWarnings("unchecked")
            // 两倍扩容创建新数组
            Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
            nextTab = nt;
        } catch (Throwable ex) {      // try to cope with OOME
            sizeCtl = Integer.MAX_VALUE;
            return;
        }
        nextTable = nextTab;
        // 记录线程开始迁移的桶位,从后往前迁移
        transferIndex = n;
    }
    // 记录新数组的长度
    int nextn = nextTab.length;
    // 已迁移的桶,会用这个对象节点占位(这个节点的hash值为-1--MOVED)
    ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
    boolean advance = true;
    boolean finishing = false; // to ensure sweep before committing nextTab
    for (int i = 0, bound = 0;;) {
        Node<K,V> f; int fh;
        while (advance) {
            int nextIndex, nextBound;
            // i记录当前正在迁移桶位的索引值
            // bound记录下一次任务迁移的开始桶位
            // --i >= bound 成立表示当前线程分配的迁移任务还没有完成
            if (--i >= bound || finishing)
                advance = false;
            // 没有元素需要迁移 后续会去将扩容线程数减1,并判断扩容是否完成
            else if ((nextIndex = transferIndex) <= 0) {
                i = -1;
                advance = false;
            }
            // 计算下一次任务迁移的开始桶位置,并将这个值赋值给transferIndex
            else if (U.compareAndSwapInt
                     (this, TRANSFERINDEX, nextIndex,
                      nextBound = (nextIndex > stride ?
                                   nextIndex - stride : 0))) {
                bound = nextBound;
                i = nextIndex - 1;
                advance = false;
            }
        } 
        // 如果没有更多的需要迁移的桶位,就进入该if
        if (i < 0 || i >= n || i + n >= nextn) {
            int sc;
            // 扩容结束后,保存新数组,并重新计算扩容阈值,赋值给sizeCtl
            if (finishing) {
                nextTable = null;
                table = nextTab;
                sizeCtl = (n << 1) - (n >>> 1);
                return;
            }
            // 扩容任务线程数减1
            if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
                // 判断当前所有扩容任务线程是否都执行完成
                if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
                    return;
                // 所有扩容线程都执行完,标识结束
                finishing = advance = true;
                i = n; // recheck before commit
            }
        }
        // 当前迁移的桶位没有元素,直接在该位置添加一个fwd节点
        else if ((f = tabAt(tab, i)) == null)
            advance = casTabAt(tab, i, null, fwd);
        // 当前节点已经被迁移
        else if ((fh = f.hash) == MOVED)
            advance = true; // already processed
        // 当前节点需要迁移,加锁迁移,保证多线程安全
        // 此处迁移逻辑和jdk7的ConcurrentHashMap相同,不再赘述
        else {
            synchronized (f) {
                if (tabAt(tab, i) == f) {
                    Node<K,V> ln, hn;
                    if (fh >= 0) {
                        int runBit = fh & n;
                        Node<K,V> lastRun = f;
                        for (Node<K,V> p = f.next; p != null; p = p.next) {
                            int b = p.hash & n;
                            if (b != runBit) {
                                runBit = b;
                                lastRun = p;
                            }
                        }
                        if (runBit == 0) {
                            ln = lastRun;
                            hn = null;
                        }
                        else {
                            hn = lastRun;
                            ln = null;
                        }
                        for (Node<K,V> p = f; p != lastRun; p = p.next) {
                            int ph = p.hash; K pk = p.key; V pv = p.val;
                            if ((ph & n) == 0)
                                ln = new Node<K,V>(ph, pk, pv, ln);
                            else
                                hn = new Node<K,V>(ph, pk, pv, hn);
                        }
                        setTabAt(nextTab, i, ln);
                        setTabAt(nextTab, i + n, hn);
                        setTabAt(tab, i, fwd);
                        advance = true;
                    }
                    else if (f instanceof TreeBin) {
                        TreeBin<K,V> t = (TreeBin<K,V>)f;
                        TreeNode<K,V> lo = null, loTail = null;
                        TreeNode<K,V> hi = null, hiTail = null;
                        int lc = 0, hc = 0;
                        for (Node<K,V> e = t.first; e != null; e = e.next) {
                            int h = e.hash;
                            TreeNode<K,V> p = new TreeNode<K,V>
                                (h, e.key, e.val, null, null);
                            if ((h & n) == 0) {
                                if ((p.prev = loTail) == null)
                                    lo = p;
                                else
                                    loTail.next = p;
                                loTail = p;
                                ++lc;
                            }
                            else {
                                if ((p.prev = hiTail) == null)
                                    hi = p;
                                else
                                    hiTail.next = p;
                                hiTail = p;
                                ++hc;
                            }
                        }
                        ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
                        (hc != 0) ? new TreeBin<K,V>(lo) : t;
                        hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
                        (lc != 0) ? new TreeBin<K,V>(hi) : t;
                        setTabAt(nextTab, i, ln);
                        setTabAt(nextTab, i + n, hn);
                        setTabAt(tab, i, fwd);
                        advance = true;
                    }
                }
            }
        }
    }
}

/**
* helpTransfer() 方法是用于其他线程协助扩容的功能。
*/
final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
    Node<K,V>[] nextTab; int sc;
    // 当数组不为空并且fwd为占位对象并且扩容的新数组存在时,需要进行协助扩容
    if (tab != null && (f instanceof ForwardingNode) &&
        (nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
        int rs = resizeStamp(tab.length);
        // CAS+自旋
        while (nextTab == nextTable && table == tab &&
               (sc = sizeCtl) < 0) {
            // 扩容结束或者扩容线程数达到最大值或者扩容后的数组为null或者没有更多的桶位需要转移,结束操作
            if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                sc == rs + MAX_RESIZERS || transferIndex <= 0)
                break;
            // 扩容线程加1,成功后,进行协助扩容操作
            if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
                // 扩容,传递一个不是null的nextTab
                transfer(tab, nextTab);
                break;
            }
        }
        return nextTab;
    }
    return table;
}

get方法

public V get(Object key) {
    Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
    // 计算hash值
    int h = spread(key.hashCode());
    // 判断 tab 不为空并且 tab对应的下标不为空 
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (e = tabAt(tab, (n - 1) & h)) != null) {
        if ((eh = e.hash) == h) {
            if ((ek = e.key) == key || (ek != null && key.equals(ek)))
                return e.val;
        }
        // eh < 0 表示遇到扩容
        else if (eh < 0)
            return (p = e.find(h, key)) != null ? p.val : null;
        // 遍历链表,直到遍历key相等的值    
        while ((e = e.next) != null) {
            if (e.hash == h &&
                ((ek = e.key) == key || (ek != null && key.equals(ek))))
                return e.val;
        }
    }
    return null;
}
获取数据流程:
  • 调用spread获取hash值,通过(n - 1) & h取余获取数组下标的数据。
  • 首节点符合就返回数据。
  • eh<0表示遇到了扩容,会调用正在扩容节点ForwardingNode的find方法,查找该节点,匹配就返回。
  • 遍历链表,匹配到数据就返回。
  • 以上都不符合,返回null。

get如何实现线程安全

get方法里面没有使用到锁,那是如何实现线程安全。主要使用到了volatile。

一个线程对共享变量的修改,另外一个线程能够立刻看到,我们称为可见性。

cpu运行速度比内存速度快很多,为了均衡和内存之间的速度差异,增加了cpu缓存,如果在cpu缓存中存在cpu需要数据,说明命中了cpu缓存,就不经过访问内存。如果不存在,则要先把内存的数据载入到cpu缓存中再返回给cpu处理器。

在多核cpu的服务器中,每个cpu都有自己的缓存,cpu之间的缓存是不共享的。当多个线程在不同的cpu上执行时,比如下图中,线程A操作的是cpu-1上的缓存,线程B操作的是cpu-2上的缓存,这个时候,线程A对变量V的操作对于线程B是不可见的。

但是一个变量被volatile声明,它的意思是:告诉编译器,对这个变量的读写,不能使用cpu缓存,必须从内存中读取或者写入。

上面的变量V被volatile声明,线程A在cup-1中修改了数据,会直接写到内存中,不会写入到cpu缓存中。而线程B无法从cpu缓存读取变量,需要从主内存拉取数据。

综上所述:

  • 使用volatile关键字的变量会将修改的变量强制写入内存中。
  • 其他线程读取变量时,会直接从内存中读取变量。

volatile在get应用

1)table哈希表:

transient volatile Node<K,V>[] table;

使用volatile声明数组,表示引用地址是volatile而不是数组元素是volatile。

2)Node节点

static class Node<K,V> implements Map.Entry<K,V> {
    final int hash;
    final K key;
    volatile V val;
    volatile Node<K,V> next;
}

其中val和next都用了volatile修饰,在多线程环境下,线程A修改节点val或者新增节点对别人线程是可见的。所以get方法使用无锁操作是可以保证线程安全。

既然volatile修饰数组对get操作没有效果,那加在volatile上有什么目的呢?

是为了数组在扩容的时候对其他线程具有可见性。

最后总结,jdk 1.8 的get操作不使用锁,主要有两个方面:
  • Node节点的val和next都用volatile修饰,保证线程修改或者新增节点对别人线程是可见的。
  • volatile修饰table数组,保证数组在扩容时其它线程是具有可见性的。

ConcurrentHashMap总结

get方法获取数据,先计算hash值再和数组长度取余操作获取索引位置:

  • 通过volatile关键字找到table保证多线程环境下,数组扩容具有可见性,而Node节点中val和next指针都使用volatile修饰保证数据修改后别的线程是可见的。这就保证了ConcurrentHashMap的线程安全性。
  • 如果遇到数组扩容,就参与到扩容中。
  • 首节点值匹配到数据就直接返回数据,否则就遍历链表或者红黑树,直到匹配到数据。

put方法添加或者更新数据:

  • 如果key或value为空,就报错。这是因为在调用get方法获取数据为null,无法判断是获取的数据为null,还是对应的key就不存在映射,HashMap可以通过contains(key)判断,而ConcurrentHashMap在多线程环境下调用contains和get方法的时候,map可能就不同了。
  • 如果table数组为空,先初始化数组,先通过sizeCtl控制并发,如果小于0表示有别的线程正在初始化数组,就让出CPU,否则使用CAS将sizeCtl设置成-1。
  • 初始化数组之后,如果节点为空,使用CAS添加节点。
  • 不为空,就锁住该节点,进行添加或者更新操作。

transfer扩容:

  • 在新增一个节点时,链表个数达到阈值8,会将链表转成红黑树,在转成之前,会先判断数组长度小于64,会触发扩容。还有集合个数达到阈值时也会触发扩容。
  • 扩容数组的长度是原来数组的两倍。
  • 为了支持多线程扩容创建ForwardingNode节点作为标记位,如果遍历到该节点,说明已经做过处理。
  • 遍历赋值原来的数据给新的数组。

 

 

posted @   残城碎梦  阅读(49)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 使用C#创建一个MCP客户端
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 按钮权限的设计及实现
点击右上角即可分享
微信分享提示