Java基础知识强化之集合框架笔记80:HashMap的线程不安全性的体现

1. HashMap 的线程不安全性的体现:

主要是下面两方面:

(1)多线程环境下,多个线程同时resize()时候,容易产生死锁现象。即:resize死循环

(2)如果在使用迭代器的过程中有其他线程修改了map,那么将抛出ConcurrentModificationException,即:fail-fast策略

 

2. resize死循环:

(1)为什么会出现resize死循环

在单线程情况下,只有一个线程对HashMap的数据结构进行操作,是不可能产生闭合的回路的。那就只有在多线程并发的情况下才会出现这种情况,那就是在put操作的时候,如果size> initialCapacity * loadFactor,那么这时候HashMap就会进行rehash操作,随之HashMap的结构就会发生翻天覆地的变化。很有可能就是在两个线程在这个时候同时触发了rehash操作,产生了闭合的回路。

(2)下面我们从源码中一步一步地分析resize死循环是如何产生的:

-->1. 存储数据put(K key, V value)

public V put(K key, V value)
{
    ......
    //算Hash值
    int hash = hash(key.hashCode());
    int i = indexFor(hash, table.length);
    //如果该key已被插入,则替换掉旧的value (链接操作)
    for (Entry<K,V> e = table[i]; e != null; e = e.next) {
        Object k;
        if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
            V oldValue = e.value;
            e.value = value;
            e.recordAccess(this);
            return oldValue;
        }
    }
    modCount++;
    //该key不存在,需要增加一个结点
    addEntry(hash, key, value, i);
    return null;
}

当我们往HashMap中put元素的时候,先根据key的hash值得到这个元素在数组中的位置(即下标),然后就可以把这个元素放到对应的位置中了。 如果这个元素所在的位置上已经存放有其他元素了,那么在同一个位子上的元素将以链表的形式存放,新加入的放在链头,而先前加入的放在链尾

 

-->2. 检查容量是否超标addEntry

void addEntry(int hash, K key, V value, int bucketIndex)
{
    Entry<K,V> e = table[bucketIndex];
    table[bucketIndex] = new Entry<K,V>(hash, key, value, e);
    //查看当前的size是否超过了我们设定的阈值threshold,如果超过,需要resize
    if (size++ >= threshold)
        resize(2 * table.length);
}

可以看到,如果现在size已经超过了threshold,那么就要进行resize操作,新建一个更大尺寸的hash表,然后把数据从老的Hash表中迁移到新的Hash表中。

 

-->3. 调整Hash表大小resize

void resize(int newCapacity)
{
    Entry[] oldTable = table;
    int oldCapacity = oldTable.length;
    ......
    //创建一个新的Hash Table
    Entry[] newTable = new Entry[newCapacity];
    //将Old Hash Table上的数据迁移到New Hash Table上
    transfer(newTable);
    table = newTable;
    threshold = (int)(newCapacity * loadFactor);
}

当table[]数组容量较小,容易产生哈希碰撞,所以,Hash表的尺寸和容量非常的重要。一般来说,Hash表这个容器当有数据要插入时,都会检查容量有没有超过设定的thredhold,如果超过,需要增大Hash表的尺寸,这个过程称为resize。

多个线程同时往HashMap添加新元素时,多次resize会有一定概率出现死循环,因为每次resize需要把旧的数据映射到新的哈希表,多个线程执行resize操作都需要获得旧哈希表资源就会有几率出现死锁现象,然后相互等待,从而形成死循环。这一部分代码在HashMap#transfer() 方法,如下:

void transfer(Entry[] newTable)
{
    Entry[] src = table;
    int newCapacity = newTable.length;
    //下面这段代码的意思是:
    //  从OldTable里摘一个元素出来,然后放到NewTable中
    for (int j = 0; j < src.length; j++) {
        Entry<K,V> e = src[j];
        if (e != null) {
            src[j] = null;
            do {
                Entry<K,V> next = e.next;
                int i = indexFor(e.hash, newCapacity);
                e.next = newTable[i];
                newTable[i] = e;
                e = next;
            } while (e != null);
        }
    }
}

大概看下transfer:

  • 对索引数组中的元素遍历
  • 对链表上的每一个节点遍历:用 next 取得要转移那个元素的下一个,将 e 转移到新 Hash 表的头部,使用头插法插入节点
  • 循环2,直到链表节点全部转移
  • 循环1,直到所有索引数组全部转移

经过这几步,我们会发现转移的时候是逆序的。假如转移前链表顺序是1->2->3,那么转移后就会变成3->2->1。这时候就有点头绪了.

死锁问题不就是因为1->2的同时2->1造成的吗?

所以,HashMap 的死锁问题就出在这个transfer()函数上

 

黄色部分代码是导致多线程使用hashmap出现CPU使用率骤增,从而多个线程阻塞的罪魁祸首

 

(3)总结:

   当多个线程同时检测到总数量超过门限值的时候就会同时调用resize操作,各自生成新的数组并rehash后赋给该map底层的数组table,结果最终只有最后一个线程生成的新数组被赋给table变量,其他线程的均会丢失。而且当某些线程已经完成赋值而其他线程刚开始的时候,就会用已经被赋值的table作为原始数组,这样也会有问题。

 

 

3. fail-fast策略:

如果在使用迭代器的过程中有其他线程修改了map,那么将抛出ConcurrentModificationException,这就是所谓fail-fast策略

首先我们要知道迭代器是依附于对应的Map的,比如说:

在线程Thread1中,我们获得map的迭代器iterator1,此时使用iterator1遍历map数据(Thread1运行中,没有结束)

在线程Thread2中,我们修改了map,map变成了map1,比如时候添加元素(put)、或者删除元素(remove)。此时Thread1就会抛出ConcurrentModificationException错误。

修改了map,我们迭代的map不是原来的map,但是居然还是使用依附原来的map的迭代器iterator1,去迭代map1,自然是不合理的。

 

posted on 2016-07-26 19:55  鸿钧老祖  阅读(260)  评论(0编辑  收藏  举报

导航