从“jdk1.8对HashMap的改进”想到的

转载:https://www.cnblogs.com/fangtingfei/p/12964224.html

 

一、改进

1,jdk1.7底层采用entry数组+链表的数据结构,而1.8采用node数组+链表/红黑树的数据结构。

2,jdk1.7的HashMap插入新值时使用头插法,1.8使用尾插法。

使用头插法比较快,但在多线程扩容时会引起倒序和闭环的问题。所以1.8就采用了尾插法。

3,扩容后新表中的索引位置计算方式不同,jdk1.7扩容时是将旧表元素的所有数据重新进行哈希计算,即hashCode & (length-1)。而1.8中扩容时只需将hashCode和老数组长度做与运算判断是0还是1,是0的话索引不变,是1的话索引变为老索引位置+老数组长度。

 

二、扩容为什么是2的n次方

1,插入新元素确定索引位置的时候是采用key的hashCode和数组长度做与运算,即hashCode&(length-1)。模拟的是取模运算,但速度比取模快很多,要保证这种运算的正确性,必须要求数组的长度是2的n次方。

2,在扩容时进行新索引位置的计算时也要求数组长度是2的n次方。

 

=======================

以上是转载的内容,我转载的目的主要是想聊聊自己想法,很感慨。其实也是顺便做个分析和总结。

感慨源于三处:

a、上面的“一”中的“2”,

尾插法比头插法似乎更笨,但是为了稳定性和功能准确上的考虑,必须这样。

验证了那句话,合适的才是最好的,不一定是最快的。其实我们在具体方案设计中何尝不是这样子的?!

b、上面的“一”中的“3”

jdk1.7会重新计算;而在1.8中却尽量保持和原来的一致,不变。

kafka分区策略之一也有这种方式。其实尽量保持数据不动才是最合适不过的了,是不是由回到了"a"!

c、“二”中的“1”

让我注意的是取模方式的改变。

我从ipanel出来后,就非常喜欢用“与或非”,因为在ipanel大量使用,性能提高也是用这个代替。不过我后面倒是没想过性能的问题,可能顺手了!

看来我是滞后的,这就是性能提高的手段,这里就是佐证。事实上,“一”中的“3”也是用与运算,是不是又回到了“b”!

 

今天这个总结何尝不是提炼了一种学习方法。同一个方法论可以适用很广,不是吗?

 

最后,再来一句陈海贤老师的话:

道理最大的好处是,当你到了那里时,你知道有人来过,于是心生安慰!

 

posted on   orange-C  阅读(104)  评论(0编辑  收藏  举报

编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 上周热点回顾(3.3-3.9)

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示