浅看JDK的HashMap
数据结构
在JDK1.8中,HashMap私有数组+链表+红黑树构成
当一个值中要存储到HashMap中的时候会根据Key的值来计算出它的hash值,通过hash值来确认存放到数组中的位置,如果发生hash冲突就以链表的形式存储,当链表过长的话,HashMap会把这个链表转换成红黑树来存储
来看一下HashMap的一些基本属性
//默认初始容量为16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
//默认负载因子为0.75
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//Hash数组(在resize()中初始化)
transient Node<K,V>[] table;
//元素个数
transient int size;
//容量阈值(元素个数大于等于该值时会自动扩容)
int threshold;
table数组里面存放的是Node对象,Node是HashMap的一个内部类,用来表示一个key-value
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);//^表示相同返回0,不同返回1
//Objects.hashCode(o)————>return o != null ? o.hashCode() : 0;
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
//Objects.equals(1,b)————> return (a == b) || (a != null && a.equals(b));
if (Objects.equals(key, e.getKey()) && Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
总结
默认初始容量16,负载因子0.75
threshold = 数组长度 * loadFactor,当元素个数大于等于threshold(容量阈值)时,HashMap会进行扩容操作
table数组中存放指向链表的引用
这里需要注意的是table数组并不是在构造方法里面初始化的,它是在resize(扩容)方法里面进行初始化的。
这里可能就有疑问,为什么默认初始容量要设置为16?为什么负载因子设置为0.75?我们都知道HashMap数组的长度被设计成2的幂次方,这是经过JDK设计者经过权衡之后得出比较合理的数字,因为扩容操作是非常消耗cpu的,因此设置了一个他们认为比较合理的数字。
table数组长度永远为2的幂次方
HashMap是通过一个名为tableSizeFor的方法来确保HashMap数组长度永远为2的幂次方
/*找到大于或等于 cap 的最小2的幂,用来做容量阈值*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
tableSizeFor的功能是返回大于等于输入参数且最近的2的整数次幂。比如10,则返回16.
该算法让最高的1后面的位全变为1。最后再让结果n+1,即得到了2的整数次幂的值了。
让cap-1在赋值给n的目的是另外找到目标值大于或等于原值。例如二进制1000,十进制数值为8。如果不对它减1而直接操作,将得到答案10000,即16。显然不是结果。减一后二进制为111,在进行操作则会得到原来的数值1000,即8。通过一系列位运算大大提高效率。
那么在什么地方会用到tableSizeFor方法呢
就是在构造方法里面调用该方法来设置threshold,也就是容量阈值。
为什么要设置为threshold呢
因为再扩容方法里第一次初始化table数组时将会threshold设置数组长度,后续在讲扩容方法时在介绍。
/*传入初始容量和负载因子*/
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
为什么把数组长度设计为2的幂次方?
我认为有如下几个好处
当数组长度为2的幂次方时,可以使用位运算来计算元素在数组中的下标
HashMap是通过index=hash&(table.length-1)这条公式来计算元素在table数组中存放的下标,就是把元素的hash值和数组长度减1的值做成一个与运算,即可求出该元素在数组中的下标,这条公式其实等价于hash%length,也就是对数组长度求模取余,只不过只有当数组长度为2的幂次方时,hash&(length-1)才等价于hash%length,使用位运算可以提高效率。
增加hash值的随机性,减少hash冲突
如果length为2的幂次方,则length-1转化为二进制必定是1111......的形式,这样的话可以使所有位置都能和元素hash值做与运算,如果length不是2的次幂,比如length为15,则length-1为14,对应的二进制为1110,在和hash做与运算时,最后一位永远都为0,浪费空间。
扩容
HashMap每次扩容都是建立一个新的table数组,长度和容量阈值都变为原来的两倍,然后把原数组元素重新映射到新数组上,具体步骤
-
首先会判断table数组长度,如果大于0说明已经被初始化过,那么按当前table数组长度的2倍进行扩容,阈值也变为原来的2倍
-
若table数组未被初始化过,且threshold(阈值)大于0说明调用了
HashMap(initialCapacity, loadFactor)
构造方法,那么就把数组大小设为threshold -
若table数组未被初始化,且threshold为0说明调用HashMap()构造方法,那么就把数组大小设为16,threshold设为16*0.75
-
接着需要判断如果不是第一次初始化,那么扩容之后,要重新计算键值对的位置,并把它们移动到合适的位置上去,如果节点是红黑树类型的话则需要进行红黑树的拆分。
这里有一个需要注意的点就是在JDK1.8HashMap扩容阶段重新映射元素时不需要像1.7版本那样重新去一个个计算元素的hash值,而是通过hash&oldCap的值来判断,若为0则索引位置不变,不为0则新索引=原索引+旧数据长度
因为我们使用的是2次幂的扩展(指长度扩为原来2倍),所以,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。因此,我们在扩充HashMap的时候,不需要像JDK1.7的实现那样重新计算hash,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变为原索引+oldCap
这点也可以看做长度为2的幂次方
/*扩容*/
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//1、若oldCap>0 说明hash数组table已被初始化
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}//按当前table数组长度的2倍进行扩容,阈值也变为原来的2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1;
}//2、若数组未被初始化,而threshold>0说明调用了HashMap(initialCapacity)和HashMap(initialCapacity, loadFactor)构造器
else if (oldThr > 0)
newCap = oldThr;//新容量设为数组阈值
else { //3、若table数组未被初始化,且threshold为0说明调用HashMap()构造方法
newCap = DEFAULT_INITIAL_CAPACITY;//默认为16
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//16*0.75
}
//若计算过程中,阈值溢出归零,则按阈值公式重新计算
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
//创建新的hash数组,hash数组的初始化也是在这里完成的
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
//如果旧的hash数组不为空,则遍历旧数组并映射到新的hash数组
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;//GC
if (e.next == null)//如果只链接一个节点,重新计算并放入新数组
newTab[e.hash & (newCap - 1)] = e;
//若是红黑树,则需要进行拆分
else if (e instanceof TreeNode)
((TreeNode<K,V