一、什么是HashMap?
HashMap 数据结构为 数组+链表(JDk1.7),JDK1.8中增加了红黑树,其中:链表的节点存储的是一个 Entry 对象,每个Entry 对象存储四个属性(hash,key,value,next)
一、HashMap的底层
底层:采用数组+链表(JDK1.7),采用数组+链表+红黑树(JDK1.8)。线程不安全。
容器:HashMap默认容器长度为16,扩容因子为0.75,以2的n次方扩容,最高可扩容30次。如第一次是长度达到16*0.75=12的时候开始扩容,16*2^1=32。
三、HashMap底层JDK1.7到JDK1.8的变化
1、JDK1.8相较与JDK1.7在数组+链表的基础上添加了红黑树,加红黑树的目的时提高HashMap插入和查询的整体效率;
2、JDK1.7中链表插入采用的是头插法,JDK1.8中插入使用的是尾插法,因为JDK1.8中插入key和value时需要判断链表元素个数,所以需要遍历链表统计链表元素个数,所以正好直接使用尾插法;
3、JDK1.7哈希算法比较复杂,存在各种右移与异或运算,JDK1.8进行了简化,因为复杂的哈希算法目的就是提高散列性,来提供HashMap的整体效率,而1.8新增了红黑树,所以可以适当的简化哈希算法,节省CPU资源。
二、为什么要使用HashMap?
对于要求查询次数特别多,查询效率比较高同时插入和删除的次数比较少的情况下,通常会选择ArrayList,因为它的底层是通过数组实现的。对于插入和删除次数比较多同时在查询次数不多的情况下,通常会选择LinkedList,因为它的底层是通过链表实现的。
但现在同时要求插入,删除,查询效率都很高的情况下我们该如何选择容器呢?
那么就有一种新的容器叫HashMap,他里面既有数组结构,也有链表结构,所以可以弥补相互的缺点。而且HashMap主要用法是get()和put() 。
三、HashMap扩容为什么总是2的次幂?
HashMap的扩容公式:initailCapacity * loadFactor = HashMap
其中initailCapacity是初始容量:默认值为16(懒加载机制,只有当第一次put的时候才创建)
其中loadFactor是负载因子:默认值为0.75
当HashMap中的元素越来越多的时候,碰撞的几率也就越来越高(因为数组的长度是固定的),所以为了提高查询的效率,就要对HashMap的数组进行扩容,数组扩容这个操作也会出现在ArrayList中,所以这是一个通用的操作,很多人对它的性能表示过怀疑,不过想想我们的“均摊”原理,就释然了,而在hashmap数组扩容之后,最消耗性能的点就出现了:原数组中的数据必须重新计算其在新数组中的位置,并放进去,这就是resize。
那么HashMap什么时候进行扩容呢?当hashmap中的元素个数超过数组大小*loadFactor时,就会进行数组扩容,loadFactor的默认值为0.75,也就是说,默认情况下,数组大小为16,那么当hashmap中元素个数超过16*0.75=12的时候,就把数组的大小扩展为2*16=32,即扩大一倍,然后重新计算每个元素在数组中的位置,而这是一个非常消耗性能的操作,所以如果我们已经预知hashmap中元素的个数,那么预设元素的个数能够有效的提高hashmap的性能。比如说,我们有1000个元素new HashMap(1000), 但是理论上来讲new HashMap(1024)更合适,不过上面annegu已经说过,即使是1000,hashmap也自动会将其设置为1024。 但是new HashMap(1024)还不是更合适的,因为0.75*1000 < 1000, 也就是说为了让0.75 * size > 1000, 我们必须这样new HashMap(2048)才最合适,既考虑了&的问题,也避免了resize的问题。
值得提醒的是初始容量和负载因子也可以自己设定的。 使用的是位运算进行扩容,因为用乘法会影响CPU的性能,计算机不支持乘法运算,最终都会转化为加法运算。
HashMap扩容主要是给数组扩容的,因为数组长度不可变,而链表是可变长度的。从HashMap的源码中可以看到HashMap在扩容时选择了位运算,向集合中添加元素时,会使用(n - 1) & hash的计算方法来得出该元素在集合中的位置。只有当对应位置的数据都为1时,运算结果也为1,当HashMap的容量是2的n次幂时,(n-1)的2进制也就是1111111***111这样形式的,这样与添加元素的hash值进行位运算时,能够充分的散列,使得添加的元素均匀分布在HashMap的每个位置上,减少hash碰撞,下面举例进行说明。
当HashMap的容量是16时,它的二进制是10000,(n-1)的二进制是01111,与hash值得计算结果如下:
终上所述,HashMap计算添加元素的位置时,使用的位运算,这是特别高效的运算;另外,HashMap的初始容量是2的n次幂,扩容也是2倍的形式进行扩容,是因为容量是2的n次幂,可以使得添加的元素均匀分布在HashMap中的数组上,减少hash碰撞,避免形成链表的结构,使得查询效率降低!
有个问题:为啥不使用取模呢?因为取模运算速度比较低。
三、HashMap的扩容机制原理
1、JDK1.7版本扩容
①:先生成新数组;
②:遍历老数组中的每个位置上的链表上的每个元素;
③:获取每个元素的key,并基于新数组长度,计算出每个元素在新数组中的下标;
④:将元素添加到新数组中去;
⑤:所有元素转移完之后,将新数组赋值给HashMap对象的table属性。
2、JDK1.8版本扩容
①:先生成新数组;
②:遍历老数组中的每个位置上的链表或红黑树;
③:如果是链表,则直接将链表中的每个元素重新计算下标,并添加到新数组中去;
④:如果是红黑树,则先遍历红黑树,先计算出红黑树中每个元素对应在新数组中的下标位置;
a:统计每个下标位置的元素个数;
b:如果该位置下的元素个数超过了8,则生成一个新的红黑树,并将根节点添加到新数组的对应位置;
c:如果该位置下的元素个数没有超过8,那么则生成一个链表,并将链表的头节点添加到新数组的对应位置;
⑤:所有元素转移完了之后,将新数组赋值给HashMap对象的table属性。
四、JDk1.7HashMap扩容死循环问题
HashMap是一个线程不安全的容器,在最坏的情况下,所有元素都定位到同一个位置,形成一个长长的链表,这样get一个值时,最坏情况需要遍历所有节点,性能变成了O(n)。
JDK1.7中HashMap采用头插法拉链表,所谓头插法,即在每次都在链表头部(即桶中)插入最后添加的数据。
死循环问题只会出现在多线程的情况下。
假设在原来的链表中,A节点指向了B节点。
在线程1进行扩容时,由于使用了头插法,链表中B节点指向了A节点。
在线程2进行扩容时,由于使用了头插法,链表中A节点又指向了B节点。
在线程n进行扩容时,…
这就容易出现问题了。。在并发扩容结束后,可能导致A节点指向了B节点,B节点指向了A节点,链表中便有了环!!!
导致的结果:CPU占用率100%
五、JDK1.8的新结构----红黑树
为了解决JDK1.7中的死循环问题, 在jDK1.8中新增加了红黑树,即在数组长度大于64,同时链表长度大于8的情况下,链表将转化为红黑树。同时使用尾插法。当数据的长度退化成6时,红黑树转化为链表。
1.为什么非要使用红黑树呢?
这个选择是综合各种考虑之下的,既要put效率很高,同时也要get效率很高,红黑树就是其中一种。
2.什么是红黑树?
首先讲一下二叉查找树:
1.左子树上所有结点的值均小于或等于它的根结点的值。
2.右子树上所有结点的值均大于或等于它的根结点的值。
3.左、右子树也分别为二叉排序树。
如果要查找10。先看根节点9,由于10 > 9,因此查看右孩子13;由于10 < 13,因此查看左孩子11;由于10 < 11,因此查看左孩子10,发现10正是要查找的节点;这种方式查找最大的次数等于二叉查找树的高度。 复杂度为O(log n),但是二叉查找树也有他的缺点,如果二叉树有如下的三个节点:
当插入7,6,5,4这四个节点时:
随着树的深度增加,那么查找的效率就变得非常差了,变成了O(n),就不具有二叉查找树的优点了。
那么红黑树就诞生了,红黑树是一种自平衡的二叉查找树。
3.红黑树的特性
1.节点是红色或黑色;
2.根节点是黑色;
3.每个叶子节点都是黑色的空节点(NIL节点);
4 每个红色节点的两个子节点都是黑色。(从每个叶子到根的所有路径上不能有两个连续的红色节点);
5.从任一节点到其每个叶子的所有路径都包含相同数目的黑色节点;
6.每次新插入的节点都必须是红色。
如图就是一颗红黑树
红黑树从根节点到叶子节点的最长路径不会超过最短路径的两倍。但是红黑树有时候在插入和删除过程中会破坏自己的规则,比如插入节点26,如下图
由于父节点27是红色节点,因此这种情况打破了红黑树的规则4(每个红色节点的两个子节点都是黑色),必须进行调整,使之重新符合红黑树的规则。
常用的调整方法有三种:
左旋转
右旋转
变色
4.红黑树的应用
1.TreeSet
2.TreeMap
3.HashMap(JDK8)
经典面试题
计划用HashMap存1k条数据,构造时传1000会触发扩容吗?
HashMap 初始容量指定为 1000,会被 tableSizeFor() 调整为 1024;
但是它只是表示 table 数组为 1024;
负载因子是0.75,扩容阈值会在 resize() 中调整为 768(1024 * 0.75)
会触发扩容
如果需要存储1k的数据,应该传入1000 / 0.75(1333)
tableSizeFor() 方法调整到 2048,不会触发扩容。
计划用HashMap存1w条数据,构造时传10000会触发扩容吗
当我们构造HashMap时,参数传入进来 1w
经过 tableSizeFor() 方法处理之后,就会变成 2 的 14 次幂 16384
负载因子是 0.75f,可存储的数据容量是 12288(16384 * 0.75f)
完全够用,不会触发扩容