HashMap及其延伸
1、流程图
首先来看一下map操作的流程图:
已经将重要的步骤标记为红色。
hashmap的存储结构
数组+链表+红黑树
如果仅仅只是采用数组的时候,那么时间复杂度都是O(1),但是如果数据量一旦很多,那么将会导致数组的长度特别长,而且将会造成扩容的效率特别低下;
为什么需要链表?因为考虑到哈希冲突的问题,如果对应的hashcode是一样,那么是选择使用线性探测法还是什么方法?使用线性探测法肯定是不太符合效率问题的。所以添加一个链表来存储hashcode&(table.length-1)存储在相同的位置上
那么为什么又需要红黑树呢?
如果说链表长度过长,将会增大查询的时间复杂度,那么数据量一旦变大,将会导致查询效率降低。所以引入了红黑树,将时间复杂度保存在O(logn)上,这样子查询起来相对来说是比较快的。
这里是总的大纲考虑。接下来所有的设计都围绕着这里而展开。
为什么将数组长度设计为2的整数次幂?
为什么要对key的hashcode重新计算?
为什么要重新数据类型的hashcode和equals方法?
什么时候考虑从数组+链表转换成为数组+链表+红黑树?
扩容是怎么来进行扩容的?
HashMap是线程安全的吗?
2、初始化容量(为什么是2的整数次幂)
直接从构造中来进行查看
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
/**
* Constructs an empty <tt>HashMap</tt> with the default initial capacity
* (16) and the default load factor (0.75).
*/
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
可以看到这两个构造方法,负载因子都是0.75。一个无参的默认大小是16;另外一个带参的构造方法容量是自己指定的;
那么看一个带参构造中容量真的是指定的容量吗?
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
这里存在计算机基本知识,放个连接进来,方便自己日后查看:
https://blog.csdn.net/m0_46864744/article/details/111301213
这里最终会通过计算:得到离2的n次幂最小的那个值:
如:
指定容量为11,那么最小的2的N次幂就是16;
指定容量为18,那么最小的2的N次幂就是32;
保证是2的N次幂而已。
为什么?有两个地方需要使用到:
- 1、得到key的hash值之后,需要计算在数组中的位置;
- 2、在扩容阶段进行数据转移的时候,也需要重新计算对应的数组中对应的下标,如果无法保证,那么后面的结论都将会不生效;
首先注意:int n = cap -1 (这一步操作很重要),看一下下面的图:
算法就是让初始二进制分别右移1,2,4,8,16位,与自己异或,把高位第一个为1的数通过不断右移,把高位为1的后面全变为1,111111 + 1 = 1000000 = (符合大于50并且是2的整数次幂 )
因为这里不断的对hashcode来做位运算(效率高).
3、哈希值
看一下,在进行put的时候,首先根据key计算出来对应的hash值
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
设计的两个好处:
- 一定要尽可能降低hash碰撞,越均匀越好;(二项均匀分布)
- 算法一定要尽可能高效,因为这是高频操作, 因此采用位运算;
- 对于对象来说,key.hashCode() 函数调用的是key键值类型自带的哈希函数,返回int型散列值。int值范围为-2147483648~2147483647,前后加起来大概40亿的映射空间。只要哈希函数映射得比较均匀松散,一般应用是很难出现碰撞的。但问题是一个40亿长度的数组,内存是放不下的。你想,如果HashMap数组的初始大小才16,用之前需要对数组的长度取模运算,得到的余数才能用来访问数组下标(JDK7中的操作如下)。
bucketIndex = indexFor(hash, table.length);
static int indexFor(int h, int length) {
return h & (length-1);
}
对于这样一个高频操作来说,位运算显然更快一点。这也正好解释了为什么HashMap的数组长度要取2的整数幂。因为这样(数组长度-1)正好相当于一个“低位掩码”。“与”操作的结果就是散列值的高位全部归零,只保留低位值,用来做数组下标访问。以初始长度16为例,16-1=15。2进制表示是00000000 00000000 00001111。和某散列值做“与”操作如下,结果就是截取了最低的四位值。
10100101 11000100 00100101
& 00000000 00000000 00001111
----------------------------------
00000000 00000000 00000101 //高位全部归零,只保留末四位
但这时候问题就来了,这样就算key的散列值分布再松散,要是只取最后几位的话,碰撞也会很严重。更要命的是如果散列本身做得不好,分布上成等差数列的漏洞,如果正好让最后几个低位呈现规律性重复,就无比蛋疼。
这时候 hash 函数(“扰动函数”)的价值就体现出来了,说到这里大家应该猜出来了。看下面这个图,
右位移16位,正好是32bit的一半,自己的高半区和低半区做异或,就是为了混合原始哈希码的高位和低位,以此来加大低位的随机性。而且混合后的低位掺杂了高位的部分特征,这样高位的信息也被变相保留下来。
其中(n-1)&hash发生在put的之后选择数组下标的时候
小细节
看到了如果key为null的话,对应的下标是0;如果不为null,那么需要进行上面复杂的运算确定在数组中的位置。
4、计算key在数组中的位置
p = tab[i = (n - 1) & hash]
在上面中已经提到了,因为数组使用的是2的N次幂,而hash是重新经过计算的了更加均匀三列的值,所以在这里来计算落入到数组中的哪个位置上来。为了均匀分布。
4、JDK8优化
- 数组+链表改成了数组+链表或红黑树;
- 链表的插入方式从头插法改成了尾插法,简单说就是插入时,如果数组位置上已经有元素,1.7将新元素放到数组中,原始节点作为新节点的后继节点;1.8遍历链表,将元素放置到链表的最后;
- 扩容的时候1.7需要对原数组中的元素进行重新hash定位在新数组的位置;1.8采用更简单的判断逻辑,采用高低位指针,来对hash计算,如果说是低位,位置不变;如果是高位,索引+旧容量大小;
- 在插入时,1.7先判断是否需要扩容,再插入;1.8先进行插入,插入完成再判断是否需要扩容;
为什么要来这样子来进行操作?
-
防止发生hash冲突,链表长度过长,将时间复杂度由
O(n)
降为O(logn)
; -
因为1.7头插法扩容时,头插法会使链表发生反转,多线程环境下会产生环;【后续补充】
A线程在插入节点B,B线程也在插入,遇到容量不够开始扩容,重新hash,放置元素,采用头插法,后遍历到的B节点放入了头部,这样形成了环,如下图所示:
1.7的扩容调用transfer代码,如下所示:
void transfer(Entry[] newTable, boolean rehash) {
int newCapacity = newTable.length;
for (Entry<K,V> e : table) {
while(null != e) {
// 两个线程执行到这里,一个线程卡顿,另外一个线程执行;
Entry<K,V> next = e.next;
if (rehash) {
e.hash = null == e.key ? 0 : hash(e.key);
}
int i = indexFor(e.hash, newCapacity);
e.next = newTable[i]; //A线程如果执行到这一行挂起,B线程开始进行扩容
newTable[i] = e;
e = next;
}
}
}
先将newTable中对应下标中的元素追加在e.next后面,然后newTable保存了e的地址值,也就是说索引指向的就是这个节点;
然后将next的地址值赋值给e,也就是继续下面的循环操作。
-
扩容的时候为什么1.8 不用重新hash就可以直接定位原节点在新数据的位置呢?
这是由于扩容是扩大为原数组大小的2倍,用于计算数组位置的掩码仅仅只是高位多了一个1,举个例子:
扩容前长度为16,用于计算 (n-1) & hash 的二进制n - 1为0000 1111,
扩容后为32后的二进制就高位多了1,============>为0001 1111。
因为是& 运算,1和任何数 & 都是它本身,那就分二种情况,如下图:原数据hashcode高位第4位为0和高位为1的情况;
第四位高位为0,重新hash数值不变,第四位为1,重新hash数值比原来大16(旧数组的容量)
5、hashmap线程不安全
在多线程环境下,1.7 会产生死循环、数据丢失、数据覆盖的问题,1.8 中会有数据覆盖的问题。
以1.8为例,当A线程执行到下面代码第6行判断index位置为空后正好挂起,B线程开始执行第7 行,往index位置的写入节点数据,这时A线程恢复现场,执行赋值操作,就把A线程的数据给覆盖了;
还有第38行++size这个地方也会造成多线程同时扩容等问题。
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null) //多线程执行到这里
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold) // 多个线程走到这,可能重复resize()
resize();
afterNodeInsertion(evict);
return null;
}
那你平常怎么解决这个线程不安全的问题?
Java中有HashTable、Collections.synchronizedMap、以及ConcurrentHashMap可以实现线程安全的Map。
- HashTable是直接在操作方法上加synchronized关键字,锁住整个数组,粒度比较大;
- Collections.synchronizedMap是使用Collections集合工具的内部类,通过传入Map封装出一个SynchronizedMap对象,内部定义了一个对象锁,方法内通过对象锁实现;
- ConcurrentHashMap使用分段锁,降低了锁粒度,让并发度大大提高。
ConcurrentHashMap的分段锁的实现原理
ConcurrentHashMap成员变量使用volatile 修饰,免除了指令重排序,同时保证内存可见性,另外使用CAS操作和synchronized结合实现赋值操作,多线程操作只会锁住当前操作索引的节点。
如下图,线程A锁住A节点所在链表,线程B锁住B节点所在链表,操作互不干涉。
6、有序map
LinkedHashMap 和 TreeMap
LinkedHashMap
LinkedHashMap内部维护了一个单链表,有头尾节点,同时LinkedHashMap节点Entry内部除了继承HashMap的Node属性,还有before 和 after用于标识前置节点和后置节点。可以实现按插入的顺序或访问顺序排序。
/**
* The head (eldest) of the doubly linked list.
*/
transient LinkedHashMap.Entry<K,V> head;
/**
* The tail (youngest) of the doubly linked list.
*/
transient LinkedHashMap.Entry<K,V> tail;
//链接新加入的p节点到链表后端
private void linkNodeLast(LinkedHashMap.Entry<K,V> p) {
LinkedHashMap.Entry<K,V> last = tail;
tail = p;
if (last == null)
head = p;
else {
p.before = last;
last.after = p;
}
}
//LinkedHashMap的节点类
static class Entry<K,V> extends HashMap.Node<K,V> {
Entry<K,V> before, after;
Entry(int hash, K key, V value, Node<K,V> next) {
super(hash, key, value, next);
}
}
TreeMap怎么实现有序
TreeMap是按照Key的自然顺序或者Comprator的顺序进行排序,内部是通过红黑树来实现。所以要么key所属的类实现Comparable接口,或者自定义一个实现了Comparator接口的比较器,传给TreeMap用户key的比较。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?