Map容器家族(HashMap源码详解)

一、在Map集合家族的位置及描述

        HashMap子类继承自AbstractMap抽象类,实现了Map,Serializable,Cloneable接口,AbstractMap实现了Map接口的一部分方法,减轻了其子类的负担。

        概括的说,HashMap底层存储元素的数据结构是散列(hash)也称为哈希表(数组+链表),哈希表的数据结构是数组和链表,数组在HashMap中有称之为哈希桶,每个桶里面存放的是链表(这就是哈希表),链表的每个节点就是哈希表中的每个元素。HashMap它是线程不安全的,允许键为空,值为空。在JDK8中,当链表的长度达到8时,链表会转换成红黑树,以提升它的查询和插入效率。

        其底层数据结构是数组,所以会涉及到扩容问题。当HashMap的容量达到阀值threshold时,就会触发扩容操作。扩容前后,哈希桶的长度一定会是2的次方大小。这样根据key的hash值寻找地址时就可以运用为运算代替代替效率低的模运算。

        key的hash值,并不仅仅只是key对象的hashCode()方法的返回值,还会经过扰动函数的扰动,以使hash值更加均衡。 因为hashCode()是int类型,取值范围是40多亿,只要哈希函数映射的比较均匀松散,碰撞几率是很小的。 但就算原本的hashCode()取得很好,每个key的hashCode()不同,但是由于HashMap的哈希桶的长度远比hash取值范围小,默认是16,所以当对hash值以桶的长度取余,以找到存放该key的桶的下标时,由于取余是通过与操作完成的,会忽略hash值的高位。因此只有hashCode()的低位参加运算,发生不同的hash值,但是得到的index相同的情况的几率会大大增加,这种情况称之为hash碰撞。 即,碰撞率会增大。 扰动函数就是为了解决hash碰撞的。它会综合hash值高位和低位的特征,并存放在低位,因此在与运算时,相当于高低位一起参与了运算,以减少hash碰撞的概率。(在JDK8之前,扰动函数会扰动四次,JDK8简化了这个操作) 扩容操作时,会new一个新的Node数组作为哈希桶,然后将原哈希表中的所有数据(Node节点)移动到新的哈希桶中,相当于对原哈希表中所有的数据重新做了一个put操作。所以性能消耗很大,可想而知,在哈希表的容量越大时,性能消耗越明显。

        下面将从成员变量,构造方法,常用API(增删改查)的顺序去阅读源码,在阅读中遇到算法时,将拿出来,详细的讲解。

二、存储元素的数据结构

1.链表的节点

在开始之前,我们先看一下挂载在哈希表上的元素,链表的结构:

    /**
     * 基本哈希bin节点,用于大多数条目。
     * (参见下面的TreeNode子类,以及LinkedHashMap中的Entry子类。)
     */
    static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;     // 哈希值
        final K key;        // key
        V value;        // value
        Node<K,V> next;     // 下个节点

        // 构造方法
        Node(int hash, K key, V value, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }

        public final K getKey()        { return key; }
        public final V getValue()      { return value; }
        public final String toString() { return key + "=" + value; }

        // 每一个节点的hash值,是将key的hashCode和value的hashCode异或得到的。
        public final int hashCode() {
            return Objects.hashCode(key) ^ Objects.hashCode(value);
        }

        // 设置新的value 同时返回旧value
        public final V setValue(V newValue) {
            V oldValue = value;
            value = newValue;
            return oldValue;
        }

        /**
         * 比较参数的Entry键值对是否和该键值对相等
         */
        public final boolean equals(Object o) {
            if (o == this)
                return true;
            if (o instanceof Map.Entry) {
                Map.Entry<?,?> e = (Map.Entry<?,?>)o;
                if (Objects.equals(key, e.getKey()) &&
                    Objects.equals(value, e.getValue()))
                    return true;
            }
            return false;
        }
    }

根据Node节点和哈希方法知道,该节点的哈希值是键和值的哈希值异或得到的。

三、成员变量

    // 默认初始容量 1 << 4 = 16
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

    // 最大容量 2的30次方
    static final int MAXIMUM_CAPACITY = 1 << 30;

    // 默认加载因子
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    // 转换成红黑树的阀值
    static final int TREEIFY_THRESHOLD = 8;

    static final int UNTREEIFY_THRESHOLD = 6;

    static final int MIN_TREEIFY_CAPACITY = 64;

    // 哈希桶,用于存放链表;长度时2的N次方,目的是用位移运算取代除法
    transient Node<K,V>[] table;

    // 保存键值对
    transient Set<Map.Entry<K,V>> entrySet;

    // 包含在map中的键值对个数
    transient int size;

    // 修改次数
    transient int modCount;

    // 哈希表内元素数量的阀值,当哈希表元素数量超过阀值时,会发生扩容resize()
    int threshold;

    // 加载因子,用于计算哈希表元素数量的阀值。threshold = 哈希桶.length * loadFactor
    final float loadFactor;

四、构造方法

    // 默认构造函数,赋值加载因子为默认的0.75f
    public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
    }

    // 指定初始化容量的构造函数
    public HashMap(int initialCapacity) {
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }

    // 同时指定初始化容量 以及 加载因子, 用的很少,一般不会修改loadFactor
    public HashMap(int initialCapacity, float loadFactor) {
        // 边界处理
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);

        // 初始容量最大不能超过2的30次方
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        //显然加载因子不能为负数
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        //设置阈值为  初始化容量的2的n次方的值
        this.threshold = tableSizeFor(initialCapacity);
    }

    // 将指定map中的所有元素添加到本集合中
    public HashMap(Map<? extends K, ? extends V> m) {
        this.loadFactor = DEFAULT_LOAD_FACTOR;
        // 添加方法
        putMapEntries(m, false);
    }

构造器中调用的方法:

    static final int tableSizeFor(int cap) {
        // 经过下面的 或 和位移 运算, n最终各位都是1。
        int n = cap - 1;
        n |= n >>> 1;
        n |= n >>> 2;
        n |= n >>> 4;
        n |= n >>> 8;
        n |= n >>> 16;
        // 判断n是否越界,返回2的n次方作为table(哈希桶)的阈值
        return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
    }

    /**
     * 功能:将另一个Map的所有元素加入表中
     * evict参数:最初构造此映射时为false,否则为true
     */
    final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
        // 拿到m的元素数量
        int s = m.size();
        if (s > 0) {        // 如果数量大于0
            if (table == null) {        // 如果当前表是空的
                // 根据m的元素数量和当前表的加载因子,计算出阈值
                float ft = ((float)s / loadFactor) + 1.0F;
                //修正阈值的边界 不能超过MAXIMUM_CAPACITY
                int t = ((ft < (float)MAXIMUM_CAPACITY) ?
                         (int)ft : MAXIMUM_CAPACITY);

                //如果新的阈值大于当前阈值
                if (t > threshold)
                    //返回一个>=新的阈值的,满足2的n次方的阈值
                    threshold = tableSizeFor(t);
            }
            else if (s > threshold)     // 如果当前元素表不是空,且m的元素数量大于阈值,说明一定要扩容
                resize();       // 扩容
            // 遍历 m 依次将元素加入当前表中。
            for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
                K key = e.getKey();
                V value = e.getValue();
                putVal(hash(key), key, value, false, evict);
            }
        }
    }

扩容函数resize(): 这是一个重点!重点!重点!
**初始化或加倍哈希桶大小。如果是当前哈希桶是null,分配符合当前阈值的初始容量目标。否则,因为我们扩容成以前的两倍。在扩容时,要注意区分以前在哈希桶相同index的节点,现在是在以前的index里,还是index+oldlength 里** 

    final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table; // 当前表的哈希桶
        int oldCap = (oldTab == null) ? 0 : oldTab.length;  // 当前哈希桶容量
        int oldThr = threshold; // 当前阀值
        int newCap, newThr = 0; // 初始化新的容量和阀值
        if (oldCap > 0) {   // 如果当前容量大于0
            if (oldCap >= MAXIMUM_CAPACITY) {   // 如果当前容量达到上限
                threshold = Integer.MAX_VALUE;  // 设置阀值为最大
                return oldTab;  // 返回现在的哈希桶,不扩容
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)    //大于等于默认容量且小于最大容量
                newThr = oldThr << 1; // double threshold   // 新的阀值等于就得阀值两倍
        }   // 如果当前表是空的,但是有阀值。代表是初始化时指定了容量、阈值的情况
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;    // 那么新表的容量就等于旧的阈值
        else {               // zero initial threshold signifies using defaults
                            //如果当前表是空的,而且也没有阈值
            newCap = DEFAULT_INITIAL_CAPACITY;  //此时新表的容量为默认的容量 16
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//新的阈值为默认容量16 * 默认加载因子0.75f = 12
        }

        if (newThr == 0) {  // 如果新的阈值是0,对应的是当前表是空的,但是有阈值的情况
            float ft = (float)newCap * loadFactor;  // 根据新表容量和加载因子,求出新的阈值
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE); // 进行越界修复
        }
        threshold = newThr; // 更新阈值
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; // 根据新的容量 构建新的哈希桶
        table = newTab; // 更新哈希桶引用
        // 如果以前的哈希桶中有元素
        // 下面开始将当前哈希桶中的所有节点转移到新的哈希桶中
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {  // 遍历老的哈希桶
                Node<K,V> e;    // 创建节点引用
                if ((e = oldTab[j]) != null) {  // 如果当前桶中有元素,则将链表赋值给e
                    oldTab[j] = null;   // 将原哈希桶置空以便GC
                    if (e.next == null) //如果当前链表中就一个元素(没有发生哈希碰撞)
                        // 直接将这个元素放置在新的哈希桶里
                        // 注意这里取下标是用 哈希值 与 桶的长度-1。由于桶的长度是2的n次方,这么做其实是等于 一个模运算。但是效率更高
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode) // 如果发生过哈希碰撞 ,而且是节点数超过8个,转化成了红黑树(暂且不谈 避免过于复杂, 后续专门研究一下红黑树)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order // 如果发生过哈希碰撞,节点数小于8个。则要根据链表上每个节点的哈希值,依次放入新哈希桶对应下标位置。
                        // 因为扩容是容量翻倍,所以原链表上的每个节点,现在可能存放在原来的下标,即low位, 或者扩容后的下标,即high位。 high位=low位+原哈希桶容量
                        // 低位链表的头结点、尾节点
                        Node<K,V> loHead = null, loTail = null;
                        // 高位链表的头节点、尾节点
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next; // 临时节点 存放e的下一个节点
                        do {
                            next = e.next;
                            // 这里又是一个利用位运算 代替常规运算的高效点: 利用哈希值 与 旧的容量,可以得到哈希值去模后,
                            // 是大于等于oldCap还是小于oldCap,等于0代表小于oldCap,应该存放在低位,否则存放在高位
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

再看一下 往哈希表里插入一个节点的putVal函数,如果参数onlyIfAbsent是true,那么不会覆盖相同key的值value。如果evict是false。那么表示是在初始化时调用的

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        // tab存放当前的哈希桶,p用作临时链表节点
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        // 如果当前哈希表是空的,代表是初始化
        if ((tab = table) == null || (n = tab.length) == 0)
            // 那么直接去扩容哈希表,并且将扩容后的哈希桶长度赋值给n
            n = (tab = resize()).length;
        // 如果当前index的节点是空的,表示没有发生哈希碰撞。 直接构建一个新节点Node,挂载在index处即可。
        // 这里再啰嗦一下,index 是利用 哈希值 & 哈希桶的长度-1,替代模运算
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else {// 否则 发生了哈希冲突。
            Node<K,V> e; K k;
            // 如果哈希值相等,key也相等,则是覆盖value操作
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;//将当前节点引用赋值给e
            else if (p instanceof TreeNode)//红黑树暂且不谈
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {//不是覆盖操作,则插入一个普通链表节点
                //遍历链表
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {//遍历到尾部,追加新节点到尾部
                        p.next = newNode(hash, key, value, null);
                        //如果追加节点后,链表数量大于等于8,则转化为红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    //如果找到了要覆盖的节点
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            //如果e不是null,说明有需要覆盖的节点
            if (e != null) { // existing mapping for key
                //则覆盖节点值,并返回原oldValue
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                //这是一个空实现的函数,用作LinkedHashMap重写使用。
                afterNodeAccess(e);
                return oldValue;
            }
        }
        //如果执行到了这里,说明插入了一个新的节点,所以会修改modCount,以及返回null。
        //修改modCount
        ++modCount;
        //更新size,并判断是否需要扩容。
        if (++size > threshold)
            resize();
        //这是一个空实现的函数,用作LinkedHashMap重写使用。
        afterNodeInsertion(evict);
        return null;
    }

newNode()如下,构建一个链表节点

    // Create a regular (non-tree) node
    Node<K,V> newNode(int hash, K key, V value, Node<K,V> next) {
        return new Node<>(hash, key, value, next);
    }

小结:

* 运算尽量都用位运算代替,更高效。
* 对于扩容导致需要新建数组存放更多元素时,除了要将老数组中的元素迁移过来,也记得将老数组中的引用置null,以便GC
* 取下标 是用 哈希值 与运算 (桶的长度-1) i = (n - 1) & hash。 由于桶的长度是2的n次方,这么做其实是等于 一个模运算。但    是效率更高
* 扩容时,如果发生过哈希碰撞,节点数小于8个。则要根据链表上每个节点的哈希值,依次放入新哈希桶对应下标位置。
* 因为扩容是容量翻倍,所以原链表上的每个节点,现在可能存放在原来的下标,即low位, 或者扩容后的下标,即high位。           high位= low位+原哈希桶容量
* 利用哈希值 与运算 旧的容量 ,if ((e.hash & oldCap) == 0),可以得到哈希值去模后,是大于等于oldCap还是小于oldCap,等于     0代表小于oldCap,应该存放在低位,否则存放在高位。这里又是一个利用位运算 代替常规运算的高效点
* 如果追加节点后,链表数量》=8,则转化为红黑树
* 插入节点操作时,有一些空实现的函数,用作LinkedHashMap重写使用。 

五、常用API

1.添加元素(修改操作)

    /**
     * 功能:向map中添加元素
     * 实现:调用之前讲的putVal方法
     */
    public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }

    /**
     * 功能:向map中添加指定map集合的元素(批量添加数据)
     * 实现:调用之前讲的putMapEntries方法
     */
    public void putAll(Map<? extends K, ? extends V> m) {
        putMapEntries(m, true);
    }

这个根据key取hash值的函数也要关注一下,它称之为“扰动函数”,关于这个函数的用处 开头已经总结过了:

    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

而key的hash值,并不仅仅只是key对象的hashCode()方法的返回值,还会经过扰动函数的扰动,以使hash值更加均衡。
因为hashCode()int类型,取值范围是40多亿,只要哈希函数映射的比较均匀松散,碰撞几率是很小的。
但就算原本的hashCode()取得很好,每个key的hashCode()不同,但是由于HashMap的哈希桶的长度远比hash取值范围小,默认是16,所以当对hash值以桶的长度取余,以找到存放该key的桶的下标时,由于取余是通过与操作完成的,会忽略hash值的高位。因此只有hashCode()的低位参加运算,发生不同的hash值,但是得到的index相同的情况的几率会大大增加,这种情况称之为hash碰撞。 即,碰撞率会增大。

扰动函数就是为了解决hash碰撞的。它会综合hash值高位和低位的特征,并存放在低位,因此在与运算时,相当于高低位一起参与了运算,以减少hash碰撞的概率。(在JDK8之前,扰动函数会扰动四次,JDK8简化了这个操作)

JDK1.8新添加的方法:

    /**
     * 功能:添加指定的键值对,若之前值不存在会覆盖,存在就不会覆盖
     */
    @Override
    public V putIfAbsent(K key, V value) {
        return putVal(hash(key), key, value, true, true);
    }

2.删除操作

根据键删除键值对,并返回被删除的键值对的值

    /**
     * 功能:根据键删除键值对
     */
    public V remove(Object key) {
        Node<K,V> e;
        return (e = removeNode(hash(key), key, null, false, true)) == null ?
            null : e.value;
    }

从哈希表中删除某个节点, 如果参数matchValue是true,则必须key 、value都相等才删除。 
如果movable参数是false,在删除节点时,不移动其他节点

    /**
     * @param hash  键对应哈希值
     * @param key   键
     * @param value 值
     * @param matchValue    如果是true,只有当键值对都相等时候移除
     * @param movable   如果是false,在删除节点时候不移动其他节点
     * @return  返回移除的节点
     */
    final Node<K,V> removeNode(int hash, Object key, Object value,
                               boolean matchValue, boolean movable) {
        // p 是待删除节点的前置节点
        Node<K,V>[] tab; Node<K,V> p; int n, index;
        // 如果哈希表不为空,则根据hash值算出的index
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (p = tab[index = (n - 1) & hash]) != null) {
            // node是待删除节点
            Node<K,V> node = null, e; K k; V v;
            //如果链表头的就是需要删除的节点
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                node = p;
            else if ((e = p.next) != null) {//否则循环遍历 找到待删除节点,赋值给node
                if (p instanceof TreeNode)
                    node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
                else {
                    do {
                        if (e.hash == hash &&
                            ((k = e.key) == key ||
                             (key != null && key.equals(k)))) {
                            node = e;
                            break;
                        }
                        p = e;
                    } while ((e = e.next) != null);
                }
            }
            //如果有待删除节点node,且matchValue为false,或者值也相等
            if (node != null && (!matchValue || (v = node.value) == value ||
                                 (value != null && value.equals(v)))) {
                if (node instanceof TreeNode)
                    ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
                else if (node == p)//如果node ==  p,说明是链表头是待删除节点
                    tab[index] = node.next;
                else//否则待删除节点在表中间
                    p.next = node.next;
                ++modCount;
                --size;
                afterNodeRemoval(node);
                return node;
            }
        }
        return null;
    }

以键和值为条件删除键值对

    @Override
    public boolean replace(K key, V oldValue, V newValue) {
        Node<K,V> e; V v;
        if ((e = getNode(hash(key), key)) != null &&
            ((v = e.value) == oldValue || (v != null && v.equals(oldValue)))) {
            e.value = newValue;
            afterNodeAccess(e);
            return true;
        }
        return false;
    }

3.查询操作

以键之条件查询值

    /**
     * 功能:根据键获取值
     */
    public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }
    /**
     * 功能:根据哈希值和键值查找元素
     * 实现:和删除元素基本相同
     */
    final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            if ((e = first.next) != null) {
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }

4.判断包含与否

    /**
     * 功能:判断是否包含指定的key
     */
    public boolean containsKey(Object key) {
        return getNode(hash(key), key) != null;
    }

    public boolean containsValue(Object value) {
        Node<K,V>[] tab; V v;
        if ((tab = table) != null && size > 0) {
            for (int i = 0; i < tab.length; ++i) {
                for (Node<K,V> e = tab[i]; e != null; e = e.next) {
                    if ((v = e.value) == value ||
                        (value != null && value.equals(v)))
                        return true;
                }
            }
        }
        return false;
    }

JDK8新添加的方法

以key为查询条件,找到返回value,否者返回defaultValue

    @Override
    public V getOrDefault(Object key, V defaultValue) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? defaultValue : e.value;
    }

5.遍历操作

    public Set<Map.Entry<K,V>> entrySet() {
        Set<Map.Entry<K,V>> es;
        return (es = entrySet) == null ? (entrySet = new EntrySet()) : es;
    }

    final class EntrySet extends AbstractSet<Map.Entry<K,V>> {
        public final int size()                 { return size; }
        public final void clear()               { HashMap.this.clear(); }
        //一般我们用到EntrySet,都是为了获取iterator
        public final Iterator<Map.Entry<K,V>> iterator() {
            return new EntryIterator();
        }

        // 最终还是调用getNode方法
        public final boolean contains(Object o) {
            if (!(o instanceof Map.Entry))
                return false;
            Map.Entry<?,?> e = (Map.Entry<?,?>) o;
            Object key = e.getKey();
            Node<K,V> candidate = getNode(hash(key), key);
            return candidate != null && candidate.equals(e);
        }

        //最终还是调用removeNode方法
        public final boolean remove(Object o) {
            if (o instanceof Map.Entry) {
                Map.Entry<?,?> e = (Map.Entry<?,?>) o;
                Object key = e.getKey();
                Object value = e.getValue();
                return removeNode(hash(key), key, value, true, true) != null;
            }
            return false;
        }
        // 还有其他方法
   }

    final class EntryIterator extends HashIterator
        implements Iterator<Map.Entry<K,V>> {
        public final Map.Entry<K,V> next() { return nextNode(); }
    }

    abstract class HashIterator {
        Node<K,V> next;        // next entry to return
        Node<K,V> current;     // current entry
        int expectedModCount;  // for fast-fail
        int index;             // current slot

        HashIterator() {
            //因为hashmap也是线程不安全的,所以要保存modCount。用于fail-fast策略
            expectedModCount = modCount;
            Node<K,V>[] t = table;
            current = next = null;
            index = 0;
            //next 初始时,指向 哈希桶上第一个不为null的链表头
            if (t != null && size > 0) { // advance to first entry
                do {} while (index < t.length && (next = t[index++]) == null);
            }
        }

        public final boolean hasNext() {
            return next != null;
        }

        // 由这个方法可以看出,遍历HashMap时,顺序是按照哈希桶从低到高,链表从前往后,依次遍历的。属于无序集合。
        final Node<K,V> nextNode() {
            Node<K,V>[] t;
            Node<K,V> e = next;
            if (modCount != expectedModCount)
                throw new ConcurrentModificationException();
            if (e == null)
                throw new NoSuchElementException();
            // 依次取链表下一个节点
            if ((next = (current = e).next) == null && (t = table) != null) {
                //如果当前链表节点遍历完了,则取哈希桶下一个不为null的链表头
                do {} while (index < t.length && (next = t[index++]) == null);
            }
            return e;
        }

        public final void remove() {
            Node<K,V> p = current;
            if (p == null)
                throw new IllegalStateException();
            if (modCount != expectedModCount)
                throw new ConcurrentModificationException();
            current = null;
            K key = p.key;
            removeNode(hash(key), key, null, false, false);
            expectedModCount = modCount;
        }
    }

六、总结

        HashMap数据结构是  数组 + 链表   构成哈希表  使用的是避免哈希冲突的拉链法。在Jdk1.8中链表引入了红黑树的概念,即链表的阈值大于等于7时会转变成红黑树的结构,即桶里装了棵红黑树。

        存储方式计算h=键.hashCode,返回 h  = h ^ (h >>> 16) ,通过这个返回值 h & (n - 1)得到对应的下标值。找到相应的桶,查看桶中是否有一样的键,有就更新键值。没有的话,如果是链表就在尾部插,是红黑树就就找到固定位置插入,回溯维护红黑树的性质。

        红黑树树化条件,链表树化要大于等于7(treeifyBin()函数),还原要小于6 (untreeify()函数)。

        关于并发的操作,我们最好还是使用ConcurrentHashMap。

posted @ 2018-10-02 14:49  小情绪Ango  阅读(154)  评论(0编辑  收藏  举报