读源码 HashMap Java8
读源码 HashMap Java8
HashMap
技术点1 离散化hash
使用了简单的算法,用于让hash值更离散。
本质上是用hash值的前16位让hash值的后16位变得更加离散。
HashMap的本质是桶,所以对hash值进行处理会有助于在分桶的时候变得更加均匀。
技术点2 初始容量
初始容量通过配置的初始大小和负载因子决定。
从结论上,最终Map的有效阈值 = 初始大小向上取整到2的整数次幂 × 负载因子
例如:初始大小100、负载因子0.75时,有效阈值为 128 × 0.75 = 96
其有效阈值由如下流程初始化:
- 在构造函数,将初始阈值设置为初始大小向上取整到2的整数次幂,注意当前阈值不是有效阈值;
- 在第一次插入节点、resize()初始化时,会将阈值更新为有效阈值,即当前阈值 × 负载因子。
技术点3 桶的扩容
桶的扩容是通过resize()方法完成的。
桶的数目是2的整数次幂,每次扩容时,阈值和桶的数目都乘以2,
所以桶的数目 = 2 ^ (N + 1),阈值 = loadFactor × 2 ^ N。
扩容的时候,将每个桶的元素根据hash值一分为二,拆分至两个子桶中。
技术点4 桶的形式:链表与红黑树
尽管理想中,希望每个元素占据一个桶,但实际上,由于hash并不能均匀的拆分数据,所以一个桶内可能会有多个元素。
当桶的元素个数小于TREEIFY_THRESHOLD(8)时,为链表,否则,为红黑树。
桶开始时用链表存储节点,当个数大于等于TREEIFY_THRESHOLD(8)时,转化为红黑树。
当桶为红黑树、个数小于等于UNTREEIFY_THRESHOLD(6)时,转化为链表(下文关于红黑树的逻辑已移除)。
本文不涉及红黑树的分析。
技术点5 乐观锁
在遍历HashMap时,如果对HashMap进行了修改,
则最后会根据其内部记录的版本字段,抛出ConcurrentModificationException。
负载因子
实际上,负载因子仅仅在初始化Map的时候发挥了作用。
当使用其他Map初始化当前HashMap时,会用负载因子计算一下初始阈值(map.size() / loadFactor + 1)。
其次,在当前HashMap第一次插入节点、resize()初始化时,会产生一个有效阈值(初始阈值 × loadFoator)。
在使用其他Map初始化时,有效阈值大于map.size(),从而避免再次resize()。
而后续的扩容,都以2为因子向上扩容,不再使用负载因子。
源代码
为了更好的理解源代码,所以使用的源代码会有如下不同:
- 只会包含一些比较重要的方法和field,
- 会对方法和field重新排序,
- 会讲常数值写做 A(10) 的格式。
如果需要更多的细节,可以参考源代码,直接检索对应的逻辑。
public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable {
// 技术点1
// 使用了hash方法让hash更离散。
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
// 计算新的tableSize,为输入值向上取整到2的整幂次。
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY(1<<30)) ? MAXIMUM_CAPACITY(1<<30) : n + 1;
}
// 桶,使用数组索引
transient Node<K,V>[] table;
// 元素数目
transient int size;
// 乐观锁
transient int modCount;
// 阈值,用来重新生成新的table
int threshold;
// 负载因子
final float loadFactor;
// 构造函数
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY(1<<30))
initialCapacity = MAXIMUM_CAPACITY(1<<30);
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
// 技术点2
// 根据初始容量计算阈值
this.threshold = tableSizeFor(initialCapacity);
}
// 以下为查询相关方法
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
public V getOrDefault(Object key, V defaultValue) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? defaultValue : e.value;
}
public boolean containsKey(Object key) {
return getNode(hash(key), key) != null;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
// 红黑树和链表通过instanceof区分
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
// 以下为插入k-v的相关方法
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
public V putIfAbsent(K key, V value) {
return putVal(hash(key), key, value, true, true);
}
/**
* putAll的实现,布尔值可以看putVal的实现。
* @param evict 没啥用,具体参考LinkedHashMap
*/
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
int s = m.size();
if (s > 0) {
if (table == null) { // pre-size
// 重点,创建时输入的Map大小会计算loadFactor,从而提高配置的阈值。
// 这里的创建包括Map参数的构造函数和new HashMap() + putAll()
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY(1<<30)) ?
(int)ft : MAXIMUM_CAPACITY(1<<30));
if (t > threshold)
threshold = tableSizeFor(t);
}
else if (s > threshold)
// s > threshold 推导出 s + size > threhold,必然扩容。
resize();
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
// 逐一插入
putVal(hash(key), key, value, false, evict);
}
}
}
/**
* @param onlyIfAbsent 用来区分putIfAbsent
* @param evict 没啥用,具体参考LinkedHashMap
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 空table时resize()
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
// 空table[hash]时,直接新增一个节点。
tab[i] = newNode(hash, key, value, null);
else {
// 当前p = table[hash]
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
// p本身匹配key,快速退出
e = p;
else if (p instanceof TreeNode)
// 红黑树,可能新增节点,所以需要把key和value都传入,默认onlyIfAbsent。
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 链表,p 变成了遍历用的节点
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
// 链表尾,插入新节点,e = null,符合onlyIfAbsent。
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD(8) - 1) // -1 for 1st
// 多于8个对象,红黑树化
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 存在旧节点,提取旧值,插入新值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess/*没啥用,具体参考LinkedHashMap*/(e);
return oldValue;
}
}
// 更新乐观锁
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion/*没啥用,具体参考LinkedHashMap*/(evict);
return null;
}
/**
* @return table
*/
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
// 技术点2
// newCap为新的table的容量,一般等于老容量的两倍,在table为空时等于老阈值。
// newThr为新的table的阈值,一般等于老阈值的两倍,在table为空时等于老阈值 * loadFactor。
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY(1<<30)) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY(1<<30) &&
oldCap >= DEFAULT_INITIAL_CAPACITY(16))
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
// 默认值
newCap = DEFAULT_INITIAL_CAPACITY(16);
newThr = (int)(DEFAULT_LOAD_FACTOR(0.75f) * DEFAULT_INITIAL_CAPACITY(16));
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY(1<<30) && ft < (float)MAXIMUM_CAPACITY(1<<30) ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
// 从旧tab中移除
oldTab[j] = null;
// 单节点直接迁移
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
// 链表一分二
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
// 移除节点
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval/*没啥用,具体参考LinkedHashMap*/(node);
return node;
}
}
return null;
}
// 清空
public void clear() {
Node<K,V>[] tab;
modCount++;
if ((tab = table) != null && size > 0) {
size = 0;
for (int i = 0; i < tab.length; ++i)
tab[i] = null;
}
}
@Override
public void forEach(BiConsumer<? super K, ? super V> action) {
Node<K,V>[] tab;
if (action == null)
throw new NullPointerException();
if (size > 0 && (tab = table) != null) {
int mc = modCount;
for (int i = 0; i < tab.length; ++i) {
for (Node<K,V> e = tab[i]; e != null; e = e.next)
action.accept(e.key, e.value);
}
// 旧的table遍历完成后,检查乐观锁
if (modCount != mc)
throw new ConcurrentModificationException();
}
}
// Create a regular (non-tree) node
Node<K,V> newNode(int hash, K key, V value, Node<K,V> next) {
return new Node<>(hash, key, value, next);
}
// For conversion from TreeNodes to plain nodes
Node<K,V> replacementNode(Node<K,V> p, Node<K,V> next) {
return new Node<>(p.hash, p.key, p.value, next);
}
// Create a tree bin node
TreeNode<K,V> newTreeNode(int hash, K key, V value, Node<K,V> next) {
return new TreeNode<>(hash, key, value, next);
}
// For treeifyBin
TreeNode<K,V> replacementTreeNode(Node<K,V> p, Node<K,V> next) {
return new TreeNode<>(p.hash, p.key, p.value, next);
}
}