HashMap源码分析

hashmap

常量

/**
 * The default initial capacity - MUST be a power of two.
 *
 * 缺省table大小
 */
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

/**
 * The maximum capacity, used if a higher value is implicitly specified
 * by either of the constructors with arguments.
 * MUST be a power of two <= 1<<30.
 *
 * table最大长度
 */
static final int MAXIMUM_CAPACITY = 1 << 30;

/**
 * The load factor used when none specified in constructor.
 *
 *  缺省负载因子大小
 */
static final float DEFAULT_LOAD_FACTOR = 0.75f;

/**
 * The bin count threshold for using a tree rather than list for a
 * bin.  Bins are converted to trees when adding an element to a
 * bin with at least this many nodes. The value must be greater
 * than 2 and should be at least 8 to mesh with assumptions in
 * tree removal about conversion back to plain bins upon
 * shrinkage.
 *
 * 树化阈值
 */
static final int TREEIFY_THRESHOLD = 8;

/**
 * The bin count threshold for untreeifying a (split) bin during a
 * resize operation. Should be less than TREEIFY_THRESHOLD, and at
 * most 6 to mesh with shrinkage detection under removal.
 *
 * 树降级为链表的阈值
 */
static final int UNTREEIFY_THRESHOLD = 6;

/**
 * The smallest table capacity for which bins may be treeified.
 * (Otherwise the table is resized if too many nodes in a bin.)
 * Should be at least 4 * TREEIFY_THRESHOLD to avoid conflicts
 * between resizing and treeification thresholds.
 * 最小树形化容量阈值:即 当哈希表中的容量 > 该值时,才允许树形化链表 (即 将链表 转换成红黑树)
 * 否则,若桶内元素太多时,则直接扩容,而不是树形化
 * 为了避免进行扩容、树形化选择的冲突,这个值不能小于 4 * TREEIFY_THRESHOLD
 */
static final int MIN_TREEIFY_CAPACITY = 64;

变量

 // 当前哈希表中元素个数
transient int size;


 // 哈希表结构改变次数
transient int modCount;


 // 扩容阈值,当你的哈希表中的元素超过阈值时,触发扩容
int threshold;


 // 负载因子
final float loadFactor;

静态内部类

Class Node

桶即table数组,table数组中的每一个元素就是一个Node链表

static class Node<K,V> implements Map.Entry<K,V> {
    final int hash;
    final K key;
    V value;
    Node<K,V> next;

    Node(int hash, K key, V value, Node<K,V> next) {
        this.hash = hash;
        this.key = key;
        this.value = value;
        this.next = next;
    }

    public final K getKey()        { return key; }
    public final V getValue()      { return value; }
    public final String toString() { return key + "=" + value; }

    public final int hashCode() {
        return Objects.hashCode(key) ^ Objects.hashCode(value);
    }

    public final V setValue(V newValue) {
        V oldValue = value;
        value = newValue;
        return oldValue;
    }

    public final boolean equals(Object o) {
        if (o == this)
            return true;
        if (o instanceof Map.Entry) {
            Map.Entry<?,?> e = (Map.Entry<?,?>)o;
            if (Objects.equals(key, e.getKey()) &&
                    Objects.equals(value, e.getValue()))
                return true;
        }
        return false;
    }
}

构造函数

1号构造

传入initialCapacity、loadFactor

/**
 * Constructs an empty {@code HashMap} with the specified initial
 * capacity and load factor.
 * @param  initialCapacity the initial capacity
 * @param  loadFactor      the load factor
 * @throws IllegalArgumentException if the initial capacity is negative
 *         or the load factor is nonpositive
 */
public HashMap(int initialCapacity, float loadFactor) {
    // 如果传入初始容量小于0,则抛出异常
    if (initialCapacity < 0)
        throw new IllegalArgumentException("Illegal initial capacity: " +
                initialCapacity);
    
    // 如果传入的初始容量大于table表最大长度,则令初试容量等于最大长度
    if (initialCapacity > MAXIMUM_CAPACITY)
        initialCapacity = MAXIMUM_CAPACITY;
    
    // 如果传入的负载因子小于等于0,或者为空,则抛异常
    if (loadFactor <= 0 || Float.isNaN(loadFactor))
        throw new IllegalArgumentException("Illegal load factor: " +
                loadFactor);
    
    
    this.loadFactor = loadFactor;
    
    //将本对象的扩容阈值设置为大于 传入的初始容量的 最小2的次方数
    this.threshold = tableSizeFor(initialCapacity);
}

tableSizeFor()函数

/**
 * Returns a power of two size for the given target capacity.
 *
 * 通过位运算
 * 返回一个大于cap的最小2的次方数
 */
static final int tableSizeFor(int cap) {
    int n = -1 >>> Integer.numberOfLeadingZeros(cap - 1);
    return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

Integer.numberOfLeadingZeros(int i)

/**
 * Returns the number of zero bits preceding the highest-order
 * ("leftmost") one-bit in the two's complement binary representation
 * of the specified {@code int} value.  Returns 32 if the
 * specified value has no one-bits in its two's complement representation,
 * in other words if it is equal to zero.
 *
 * <p>Note that this method is closely related to the logarithm base 2.
 * For all positive {@code int} values x:
 * <ul>
 * <li>floor(log<sub>2</sub>(x)) = {@code 31 - numberOfLeadingZeros(x)}
 * <li>ceil(log<sub>2</sub>(x)) = {@code 32 - numberOfLeadingZeros(x - 1)}
 * </ul>
 *
 * @param i the value whose number of leading zeros is to be computed
 * @return the number of zero bits preceding the highest-order
 *     ("leftmost") one-bit in the two's complement binary representation
 *     of the specified {@code int} value, or 32 if the value
 *     is equal to zero.
 * @since 1.5
 * 
 * cap=6
 * i=5
 * BIN=...0000 0000 0000 0101
 *     
 */
@HotSpotIntrinsicCandidate
public static int numberOfLeadingZeros(int i) {
    // HD, Count leading 0's
    if (i <= 0)
        return i == 0 ? 32 : 0;
    
    // n =  0000 0000 0001 1111
    int n = 31;
    
    // 传入的i是否大于2的16次方, 
    if (i >= 1 << 16) { n -= 16; i >>>= 16; }
    if (i >= 1 <<  8) { n -=  8; i >>>=  8; }
    if (i >= 1 <<  4) { n -=  4; i >>>=  4; }
    
    // 传入的i是否大于2的2次方,如果是
    // 则 n = 0000 0000 0001 1101,十进制为29
    //    i = 0000 0000 0000 0001
    if (i >= 1 <<  2) { n -=  2; i >>>=  2; }
    
    // 返回  0000 0000 0001 1111,即29
    // 在tableSizeFor()函数中,-1无符号右移29位,
    // -1为4个字节,占32位,二进制是32个1,
    // 无符号右移29位,剩下最右边3个1,即...0000 0111,即是7
    // 最后得到结果8
    return n - (i >>> 1);
}

2号构造

传入initialCapacity

/**
 * Constructs an empty {@code HashMap} with the specified initial
 * capacity and the default load factor (0.75).
 *
 * @param  initialCapacity the initial capacity.
 * @throws IllegalArgumentException if the initial capacity is negative.
 * 
 * 套娃调用了1号构造
 */
public HashMap(int initialCapacity) {
    this(initialCapacity, DEFAULT_LOAD_FACTOR);
}

3号构造

啥都不传

/**
 * Constructs an empty {@code HashMap} with the default initial capacity
 * (16) and the default load factor (0.75).
 */
public HashMap() {
    this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}

4号构造

传入一个map

/**
 * Constructs a new {@code HashMap} with the same mappings as the
 * specified {@code Map}.  The {@code HashMap} is created with
 * default load factor (0.75) and an initial capacity sufficient to
 * hold the mappings in the specified {@code Map}.
 *
 * @param   m the map whose mappings are to be placed in this map
 * @throws  NullPointerException if the specified map is null
 */
public HashMap(Map<? extends K, ? extends V> m) {
    this.loadFactor = DEFAULT_LOAD_FACTOR;
    putMapEntries(m, false);
}

put(K,V)函数

/**
 * Associates the specified value with the specified key in this map.
 * If the map previously contained a mapping for the key, the old
 * value is replaced.
 *
 * @param key key with which the specified value is to be associated
 * @param value value to be associated with the specified key
 * @return the previous value associated with {@code key}, or
 *         {@code null} if there was no mapping for {@code key}.
 *         (A {@code null} return can also indicate that the map
 *         previously associated {@code null} with {@code key}.)
 */
public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}

hash(Object)函数

/**
 * 让key的哈希值右移16位就是为了让高的16位和低位相亦或,发挥作用,影响低位的值,
 * 这样路由寻址table的index时,能够让高16位也参与这个应该存放的位置(index)的计算
 * index的计算是(table.len-1)|hashcode_*
 * 因为len-1的为2的倍数-1,所以为1111形式的,前面的0经过与还是0,因此得到的index必小于len
 */
static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

putVal(int, K, V, boolean,boolean)函数

/**
 * Implements Map.put and related methods.
 *
 * @param hash hash for key
 * @param key the key
 * @param value the value to put
 * @param onlyIfAbsent if true, don't change existing value
 * @param evict if false, the table is in creation mode.
 * @return previous value, or null if none
 */
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {

    // tab 表示引用当前hashmap的散列表,也就是一个Node数组,被需要put的Node数组赋值了
    // p是指一个Node节点,也就是hasmap散列表(Node数组)里的一个链表(Node)
    // n表示数组长度
    // i表示路由寻址结果
    Node<K,V>[] tab; Node<K,V> p; int n, i;

    // 将需要put元素的table赋值给tab,将散列表(数组)的长度赋值给n
    // 判断散列表是否为空或散列表长度是否为0,如果为真就为tab进行扩容
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;

    // 将tab需要put的key对应的数组上的索引的Node链表赋值给p,将key对应的hash索引赋值给i
    // 判断p是否为空,为空就直接将第i个空间赋值给
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node<K,V> e; K k;

        // 如果索引碰撞了,而且需要put的node节点的hash值和table数组的索引i位置的node链表p(链表中第一个元素)的hash值一样,那么替换原位置的node
        if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;

        // 如果p的结构是红黑树,则、、、
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        else {
            // 如果p的结构是链表,而且链表的头节点与要put的节点不同
            for (int binCount = 0; ; ++binCount) {
                // 如果遍历到尾节点
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);

                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        // 因为上上面一行代码又添加了一个Node节点,所以此时该链表有9个节点
                        treeifyBin(tab, hash);
                    break;
                }
                // 如果hash值发生了碰撞,则进行下面的替换操作
                if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }

        // 如果hash值碰撞了,就进行替换操作,将传进来的参数value赋值给链表中碰撞位置的node节点的value值
        // 最后返回旧的value值
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}

扩容函数resize()

// 为什么需要扩容?
// 为了解决hash值冲突导致的链化影响查询效率,最大时间复杂度为O(logN),即为红黑树的查找效率,
// 扩容会缓解该问题

// oldTab赋值为table
final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;

    // 如果进行扩容的table数组的容量(长度)大于0

    if (oldCap > 0) {
        // 如果table数组长度大于最大容量,扩容阈值直接等于整型最大值
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }

        // 旧的数组长度乘2等于新的数组长度,如果table数组长度乘2后小于最大值
        // 且被扩容的table数组长度大于默认初始长度
        // 那么新的扩容阈值就等于旧的扩容阈值乘2,也就是进行了新的表长度乘loadfactor的模糊操作,
        // 该操作在oldCap < DEFAULT_INITIAL_CAPACITY时不精确
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }

    // 如果进行扩容的table数组的容量(长度)等于0,
    // 且当此时的扩容阈值大于0时。此时的情况是构造hashmap时传入了初始table表长度(initcap),而表中又没有数据。
    // 1.new Hashmap(initCap,loadFactor)
    // 2.new Hashmap(loadFactor)
    // 3.new Hashmap(map)
    // 则将扩容后的表的长度设置为扩容阈值,此时的扩容阈值没有进行   表长度乘loadfactor的操作
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;

        // 如果进行扩容的table数组的容量(长度)等于0,
        // 且当此时的扩容阈值等于0时。也就是new HashMap()时
        // 扩容后的表长度为默认长度,扩容后的表扩容阈值等于默认容量乘扩容阈值。
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }


    // 1.new Hashmap(initCap,loadFactor)
    // 2.new Hashmap(loadFactor)
    // 3.new Hashmap(map)
    // 4.当被扩容table数组的长度小于默认长度时
    // 扩容后的表的扩容阈值为 扩容后表的长度乘loadfactor
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;
    // 以上所有步骤都是为了确定应该扩容成多大的数组,以及扩容后数组的扩容阈值


    // 为了建一个又长又大的数组
    @SuppressWarnings({"rawtypes","unchecked"})
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;


    // oldTab != null说明本次扩容之前table不为null,table已经指向了一个数组
    if (oldTab != null) {

        // 便利table数组
        for (int j = 0; j < oldCap; ++j) {

            // table数组的每个元素的头节点赋值给e
            Node<K,V> e;

            // 如果这个头节点不为空
            if ((e = oldTab[j]) != null) {
                // 方便JVM GC时回收内存
                oldTab[j] = null;

                // 如果头节点e的指针指向下一个的地址为空
                // 那么就直接令新表的头节点e对应的索引位置的元素为e
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;

                // 如果e是个树
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);

                // 如果e是个链表
                else { // preserve order

                    // 对e链表进行拆分,分成扩容之后索引不变的,和索引改变的两条链表
                    // 新建一个低位链表,该链表的hash值在newCap最高位位置上为0
                    Node<K,V> loHead = null, loTail = null;
                    // 新建一个低位链表,该链表的hash值在newCap最高位位置上为1,即该链表的节点在扩容后的索引位置是原索引位置 +oldCap
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {


                        next = e.next;
                        // e的hash值与(&)上扩容前的数组长度,
                        
                        // 例如oldCap=16(1 0000)    e的hash值:...0 1100, 
                        // & 之后的结果为...0 0000,此时为0,则该链表节点需要置到低位链表
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        
                        // 例如oldCap=16(1 0000)    e的hash值:...1 1100, 
                        // & 之后的结果为...1 0000,此时不为0,则该链表节点需要置到高位链表
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    
                    // 将高位与低位两个链表的尾节点的next设为空
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

红黑树函数

treeifyBin(Node, int)

/**
 * tab:元素数组,
 * hash:hash值(要增加的键值对的key的hash值)
 */
final void treeifyBin(Node<K,V>[] tab, int hash) {
 
    int n, index; Node<K,V> e;
    /*
     * 如果元素数组为空 或者 数组长度小于 树结构化的最小限制
     * MIN_TREEIFY_CAPACITY 默认值64,对于这个值可以理解为:如果元素数组长度小于这个值,没有必要去进行结构转换
     * 当一个数组位置上集中了多个键值对,那是因为这些key的hash值和数组长度取模之后结果相同。(并不是因为这些key的hash值相同)
     * 因为hash值相同的概率不高,所以可以通过扩容的方式,来使得最终这些key的hash值在和新的数组长度取模之后,拆分到多个数组位置上。
     */
    if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
        resize(); // 扩容,可参见resize方法解析
 
    // 如果元素数组长度已经大于等于了 MIN_TREEIFY_CAPACITY,那么就有必要进行结构转换了
    // 根据hash值和数组长度进行取模运算后,得到链表的首节点
    else if ((e = tab[index = (n - 1) & hash]) != null) { 
        TreeNode<K,V> hd = null, tl = null; // 定义首、尾节点
        do { 
            TreeNode<K,V> p = replacementTreeNode(e, null); // 将该节点转换为 树节点
            if (tl == null) // 如果尾节点为空,说明还没有根节点
                hd = p; // 首节点(根节点)指向 当前节点
            else { // 尾节点不为空,以下两行是一个双向链表结构
                p.prev = tl; // 当前树节点的 前一个节点指向 尾节点
                tl.next = p; // 尾节点的 后一个节点指向 当前节点
            }
            tl = p; // 把当前节点设为尾节点
        } while ((e = e.next) != null); // 继续遍历链表
 
        // 到目前为止 也只是把Node对象转换成了TreeNode对象,把单向链表转换成了双向链表
 
        // 把转换后的双向链表,替换原来位置上的单向链表
        if ((tab[index] = hd) != null)
            hd.treeify(tab);//此处单独解析
    }
}

原文链接:https://blog.csdn.net/weixin_42340670/article/details/80503863

treeify(Node)

/**
 * 参数为HashMap的元素数组
 */
final void treeify(Node<K,V>[] tab) {
    TreeNode<K,V> root = null; // 定义树的根节点
    for (TreeNode<K,V> x = this, next; x != null; x = next) { // 遍历链表,x指向当前节点、next指向下一个节点
        next = (TreeNode<K,V>)x.next; // 下一个节点
        x.left = x.right = null; // 设置当前节点的左右节点为空
        if (root == null) { // 如果还没有根节点
            x.parent = null; // 当前节点的父节点设为空
            x.red = false; // 当前节点的红色属性设为false(把当前节点设为黑色)
            root = x; // 根节点指向到当前节点
        }
        else { // 如果已经存在根节点了
            K k = x.key; // 取得当前链表节点的key
            int h = x.hash; // 取得当前链表节点的hash值
            Class<?> kc = null; // 定义key所属的Class
            for (TreeNode<K,V> p = root;;) { // 从根节点开始遍历,此遍历没有设置边界,只能从内部跳出
                // GOTO1
                int dir, ph; // dir 标识方向(左右)、ph标识当前树节点的hash值
                K pk = p.key; // 当前树节点的key
                if ((ph = p.hash) > h) // 如果当前树节点hash值 大于 当前链表节点的hash值
                    dir = -1; // 标识当前链表节点会放到当前树节点的左侧
                else if (ph < h)
                    dir = 1; // 右侧
 
                /*
                 * 如果两个节点的key的hash值相等,那么还要通过其他方式再进行比较
                 * 如果当前链表节点的key实现了comparable接口,并且当前树节点和链表节点是相同Class的实例,那么通过comparable的方式再比较两者。
                 * 如果还是相等,最后再通过tieBreakOrder比较一次
                 */
                else if ((kc == null &&
                            (kc = comparableClassFor(k)) == null) ||
                            (dir = compareComparables(kc, k, pk)) == 0)
                    dir = tieBreakOrder(k, pk);
 
                TreeNode<K,V> xp = p; // 保存当前树节点
 
                /*
                 * 如果dir 小于等于0 : 当前链表节点一定放置在当前树节点的左侧,但不一定是该树节点的左孩子,也可能是左孩子的右孩子 或者 更深层次的节点。
                 * 如果dir 大于0 : 当前链表节点一定放置在当前树节点的右侧,但不一定是该树节点的右孩子,也可能是右孩子的左孩子 或者 更深层次的节点。
                 * 如果当前树节点不是叶子节点,那么最终会以当前树节点的左孩子或者右孩子 为 起始节点  再从GOTO1 处开始 重新寻找自己(当前链表节点)的位置
                 * 如果当前树节点就是叶子节点,那么根据dir的值,就可以把当前链表节点挂载到当前树节点的左或者右侧了。
                 * 挂载之后,还需要重新把树进行平衡。平衡之后,就可以针对下一个链表节点进行处理了。
                 */
                if ((p = (dir <= 0) ? p.left : p.right) == null) {
                    x.parent = xp; // 当前链表节点 作为 当前树节点的子节点
                    if (dir <= 0)
                        xp.left = x; // 作为左孩子
                    else
                        xp.right = x; // 作为右孩子
                    root = balanceInsertion(root, x); // 重新平衡
                    break;
                }
            }
        }
    }
 
    // 把所有的链表节点都遍历完之后,最终构造出来的树可能经历多个平衡操作,根节点目前到底是链表的哪一个节点是不确定的
    // 因为我们要基于树来做查找,所以就应该把 tab[N] 得到的对象一定根节点对象,而目前只是链表的第一个节点对象,所以要做相应的处理。
    moveRootToFront(tab, root); // 单独解析
}

原文链接:https://blog.csdn.net/weixin_42340670/article/details/80531795

posted @ 2021-05-20 22:51    阅读(88)  评论(0编辑  收藏  举报