1.hashmapåºå±å®ç°åç
2.String源码分析(1)--哈希篇
3.Java面试问题:HashMap的源码底层原理
4.HashMapãConcurrentHashMapãHashTableçåºå«
hashmapåºå±å®ç°åç
hashmapåºå±å®ç°åçæ¯SortedMapæ¥å£è½å¤æå®ä¿åçè®°å½æ ¹æ®é®æåºï¼é»è®¤æ¯æé®å¼çååºæåºï¼ä¹å¯ä»¥æå®æåºçæ¯è¾å¨ï¼å½ç¨IteratoréåTreeMapæ¶ï¼å¾å°çè®°å½æ¯æè¿åºçãå¦æ使ç¨æåºçæ å°ï¼å»ºè®®ä½¿ç¨TreeMapãå¨ä½¿ç¨TreeMapæ¶ï¼keyå¿ é¡»å®ç°Comparableæ¥å£æè å¨æé TreeMapä¼ å ¥èªå®ä¹çComparatorï¼å¦åä¼å¨è¿è¡æ¶æåºjava.lang.ClassCastExceptionç±»åçå¼å¸¸ã
Hashtableæ¯éçç±»ï¼å¾å¤æ å°ç常ç¨åè½ä¸HashMap类似ï¼ä¸åçæ¯å®æ¿èªDictionaryç±»ï¼å¹¶ä¸æ¯çº¿ç¨å®å ¨çï¼ä»»ä¸æ¶é´åªæä¸ä¸ªçº¿ç¨è½åHashtable
ä»ç»æå®ç°æ¥è®²ï¼HashMapæ¯ï¼æ°ç»+é¾è¡¨+红é»æ ï¼JDK1.8å¢å äºçº¢é»æ é¨åï¼å®ç°çã
æ©å±èµæ
ä»æºç å¯ç¥ï¼HashMapç±»ä¸æä¸ä¸ªé常éè¦çå段ï¼å°±æ¯ Node[] tableï¼å³åå¸æ¡¶æ°ç»ãNodeæ¯HashMapçä¸ä¸ªå é¨ç±»ï¼å®ç°äºMap.Entryæ¥å£ï¼æ¬è´¨æ¯å°±æ¯ä¸ä¸ªæ å°(é®å¼å¯¹)ï¼é¤äºKï¼Vï¼è¿å å«hashånextã
HashMapå°±æ¯ä½¿ç¨åå¸è¡¨æ¥åå¨çãåå¸è¡¨ä¸ºè§£å³å²çªï¼éç¨é¾å°åæ³æ¥è§£å³é®é¢ï¼é¾å°åæ³ï¼ç®åæ¥è¯´ï¼å°±æ¯æ°ç»å é¾è¡¨çç»åãå¨æ¯ä¸ªæ°ç»å ç´ ä¸é½ä¸ä¸ªé¾è¡¨ç»æï¼å½æ°æ®è¢«Hashåï¼å¾å°æ°ç»ä¸æ ï¼ææ°æ®æ¾å¨å¯¹åºä¸æ å ç´ çé¾è¡¨ä¸ã
å¦æåå¸æ¡¶æ°ç»å¾å¤§ï¼å³ä½¿è¾å·®çHashç®æ³ä¹ä¼æ¯è¾åæ£ï¼å¦æåå¸æ¡¶æ°ç»æ°ç»å¾å°ï¼å³ä½¿å¥½çHashç®æ³ä¹ä¼åºç°è¾å¤ç¢°æï¼æ以就éè¦å¨ç©ºé´ææ¬åæ¶é´ææ¬ä¹é´æè¡¡ï¼å ¶å®å°±æ¯å¨æ ¹æ®å®é æ åµç¡®å®åå¸æ¡¶æ°ç»ç大å°ï¼å¹¶å¨æ¤åºç¡ä¸è®¾è®¡å¥½çhashç®æ³åå°Hash碰æã
String源码分析(1)--哈希篇
本文基于JDK1.8,从Java中==符号的源码使用开始,解释了它判断的源码是对象的内存地址而非内容是否相等。接着,源码通过分析String类的源码equals()方法实现,说明了在比较字符串时,源码ugui 源码分析应使用equals()而非==,源码因为equals()方法可以准确判断字符串内容是源码否相等。
深入探讨了String类作为“值类”的源码特性,即它需要覆盖Object类的源码equals()方法,以满足比较字符串时逻辑上相等的源码需求。同时,源码强调了在覆盖equals()方法时也必须覆盖hashCode()方法,源码以确保基于散列的源码集合(如HashMap、HashSet和Hashtable)可以正常工作。源码解释了哈希码(hashcode)在将不同的输入映射成唯一值中的作用,以及它与字符串内容的关系。
在分析String类的hashcode()方法时,介绍了计算哈希值的公式,包括使用这个奇素数的原因,以及其在计算性能上的优势。进一步探讨了哈希碰撞的概念及其产生的影响,提出了防止哈希碰撞的有效方法之一是扩大哈希值的取值空间,并介绍了生日攻击这一概念,解释了它如何在哈希空间不足够大时制造碰撞。传奇5职业 源码
最后,总结了哈希碰撞与散列表性能的关系,以及在满足安全与成本之间找到平衡的重要性。提出了确保哈希值的最短长度的考虑因素,并提醒读者在理解和学习JDK源码时,可以关注相关公众号以获取更多源码分析文章。
Java面试问题:HashMap的底层原理
JDK1.8中HashMap的put()和get()操作的过程
put操作:
①首先判断数组是否为空,如果数组为空则进行第一次扩容(resize)
②根据key计算hash值并与上数组的长度-1(int index = key.hashCode()&(length-1))得到键值对在数组中的索引。
③如果该位置为null,则直接插入
④如果该位置不为null,则判断key是否一样(hashCode和equals),如果一样则直接覆盖value
⑤如果key不一样,则判断该元素是否为 红黑树的节点,如果是,则直接在 红黑树中插入键值对
⑥如果不是 红黑树的节点,则就是 链表,遍历这个 链表执行插入操作,如果遍历过程中若发现key已存在,直接覆盖value即可。
如果 链表的长度大于等于8且数组中元素数量大于等于阈值,则将 链表转化为 红黑树,(先在 链表中插入再进行判断)
如果 链表的长度大于等于8且数组中元素数量小于阈值,则先对数组进行扩容,不转化为 红黑树。
⑦插入成功后,支付最新源码判断数组中元素的个数是否大于阈值(threshold),超过了就对数组进行扩容操作。
get操作:
①计算key的hashCode的值,找到key在数组中的位置
②如果该位置为null,就直接返回null
③否则,根据equals()判断key与当前位置的值是否相等,如果相等就直接返回。
④如果不等,再判断当前元素是否为树节点,如果是树节点就按 红黑树进行查找。
⑤否则,按照 链表的方式进行查找。
3.HashMap的扩容机制
4.HashMap的初始容量为什么是?
1.减少hash碰撞 (2n ,=2^4)
2.需要在效率和内存使用上做一个权衡。这个值既不能太小,也不能太大。
3.防止分配过小频繁扩容
4.防止分配过大浪费资源
5.HashMap为什么每次扩容都以2的整数次幂进行扩容?
因为Hashmap计算存储位置时,使用了(n - 1) & hash。只有当容量n为2的幂次方,n-1的二进制会全为1,位运算时可以充分散列,避免不必要的哈希冲突,所以扩容必须2倍就是为了维持容量始终为2的幂次方。
6.HashMap扩容后会重新计算Hash值吗?
①JDK1.7
JDK1.7中,HashMap扩容后,约瑟夫环问题源码所有的key需要重新计算hash值,然后再放入到新数组中相应的位置。
②JDK1.8
在JDK1.8中,HashMap在扩容时,需要先创建一个新数组,然后再将旧数组中的数据转移到新数组上来。
此时,旧数组中的数据就会根据(e.hash & oldCap),数据的hash值与扩容前数组的长度进行与操作,根据结果是否等于0,分为2类。
1.等于0时,该节点放在新数组时的位置等于其在旧数组中的位置。
2.不等于0时,该节点在新数组中的位置等于其在旧数组中的位置+旧数组的长度。
7.HashMap中当 链表长度大于等于8时,会将 链表转化为 红黑树,为什么是8?
如果 hashCode 分布良好,也就是 hash 计算的结果离散好的话,那么 红黑树这种形式是很少会被用到的,因为各个值都均匀分布,很少出现 链表很长的情况。在理想情况下, 链表长度符合泊松分布,领先指标公式源码各个长度的命中概率依次递减,当长度为 8 的时候,概率仅为 0.。这是一个小于千万分之一的概率,通常我们的 Map 里面是不会存储这么多的数据的,所以通常情况下,并不会发生从 链表向 红黑树的转换。
8.HashMap为什么线程不安全?
1.在JDK1.7中,当并发执行扩容操作时会造成死循环和数据丢失的情况。
在JDK1.7中,在多线程情况下同时对数组进行扩容,需要将原来数据转移到新数组中,在转移元素的过程中使用的是头插法,会造成死循环。
2.在JDK1.8中,在并发执行put操作时会发生数据覆盖的情况。
如果线程A和线程B同时进行put操作,刚好这两条不同的数据hash值一样,并且该位置数据为null,所以这线程A、B都会通过判断,将执行插入操作。
假设一种情况,线程A进入后还未进行数据插入时挂起,而线程B正常执行,从而正常插入数据,然后线程A获取CPU时间片,此时线程A不用再进行hash判断了,问题出现:线程A会把线程B插入的数据给覆盖,发生线程不安全。
9.为什么HashMapJDK1.7中扩容时要采用头插法,JDK1.8又改为尾插法?
JDK1.7的HashMap在实现resize()时,新table[ ]的列表队头插入。
这样做的目的是:避免尾部遍历。
避免尾部遍历是为了避免在新列表插入数据时,遍历到队尾的位置。因为,直接插入的效率更高。
对resize()的设计来说,本来就是要创建一个新的table,列表的顺序不是很重要。但如果要确保插入队尾,还得遍历出 链表的队尾位置,然后插入,是一种多余的损耗。
直接采用队头插入,会使得 链表数据倒序。
JDK1.8采用尾插法是避免在多线程环境下扩容时采用头插法出现死循环的问题。
.HashMap是如何解决哈希冲突的?
拉链法(链地址法)
为了解决碰撞,数组中的元素是单向 链表类型。当 链表长度大于等于8时,会将 链表转换成 红黑树提高性能。
而当 链表长度小于等于6时,又会将 红黑树转换回单向 链表提高性能。
.HashMap为什么使用 红黑树而不是B树或 平衡二叉树AVL或二叉查找树?
1.不使用二叉查找树
二叉 排序树在极端情况下会出现线性结构。例如:二叉 排序树左子树所有节点的值均小于根节点,如果我们添加的元素都比根节点小,会导致左子树线性增长,这样就失去了用树型结构替换 链表的初衷,导致查询时间增长。所以这是不用二叉查找树的原因。
2.不使用 平衡二叉树
平衡二叉树是严格的平衡树, 红黑树是不严格平衡的树, 平衡二叉树在插入或删除后维持平衡的开销要大于 红黑树。
红黑树的虽然查询性能略低于 平衡二叉树,但在插入和删除上性能要优于 平衡二叉树。
选择 红黑树是从功能、性能和开销上综合选择的结果。
3.不使用B树/B+树
HashMap本来是数组+ 链表的形式, 链表由于其查找慢的特点,所以需要被查找效率更高的树结构来替换。
如果用B/B+树的话,在数据量不是很多的情况下,数据都会“挤在”一个结点里面,这个时候遍历效率就退化成了 链表。
.HashMap和Hashtable的异同?
①HashMap是⾮线程安全的,Hashtable是线程安全的。
Hashtable 内部的⽅法基本都经过 synchronized 修饰。
②因为线程安全的问题,HashMap要⽐Hashtable效率⾼⼀点。
③HashMap允许键和值是null,而Hashtable不允许键或值是null。
HashMap中,null 可以作为键,这样的键只有 ⼀个,可以有 ⼀个或多个键所对应的值为 null。
HashTable 中 put 进的键值只要有 ⼀个 null,直接抛出 NullPointerException。
④ Hashtable默认的初始 大小为,之后每次扩充,容量变为原来的2n+1。
HashMap默认的初始 大⼩为,之后每次扩充,容量变为原来的2倍。
⑤创建时如果给定了容量初始值,那么 Hashtable 会直接使⽤你给定的 ⼤⼩, ⽽ HashMap 会将其扩充为2的幂次⽅ ⼤⼩。
⑥JDK1.8 以后的 HashMap 在解决哈希冲突时当 链表⻓度 大于等于8时,将 链表转化为红⿊树,以减少搜索时间。Hashtable没有这样的机制。
Hashtable的底层,是以数组+ 链表的形式来存储。
⑦HashMap的父类是AbstractMap,Hashtable的父类是Dictionary
相同点:都实现了Map接口,都存储k-v键值对。
.HashMap和HashSet的区别?
HashSet 底层就是基于 HashMap 实现的。(HashSet 的源码⾮常⾮常少,因为除了 clone() 、 writeObject() 、 readObject() 是 HashSet ⾃⼰不得不实现之外,其他⽅法都是直接调用 HashMap 中的⽅法)
1.HashMap实现了Map接口,HashSet实现了Set接口
2.HashMap存储键值对,HashSet存储对象
3.HashMap调用put()向map中添加元素,HashSet调用add()方法向Set中添加元素。
4.HashMap使用键key计算hashCode的值,HashSet使用对象来计算hashCode的值,在hashCode相等的情况下,使用equals()方法来判断对象的相等性。
5.HashSet中的元素由HashMap的key来保存,而HashMap的value则保存了一个静态的Object对象。
.HashSet和TreeSet的区别?
相同点:HashSet和TreeSet的元素都是不能重复的,并且它们都是线程不安全的。
不同点:
①HashSet中的元素可以为null,但TreeSet中的元素不能为null
②HashSet不能保证元素的排列顺序,TreeSet支持自然 排序、定制 排序两种 排序方式
③HashSet底层是采用 哈希表实现的,TreeSet底层是采用 红黑树实现的。
④HashSet的add,remove,contains方法的时间复杂度是 O(1),TreeSet的add,remove,contains方法的时间复杂度是 O(logn)
.HashMap的遍历方式?
①通过map.keySet()获取key,根据key获取到value
②通过map.keySet()遍历key,通过map.values()遍历value
③通过Map.Entry(String,String) 获取,然后使用entry.getKey()获取到键,通过entry.getValue()获取到值
④通过Iterator
HashMapãConcurrentHashMapãHashTableçåºå«
å¼å ¥ ConcurrentHashMap æ¯ä¸ºäºå¨åæ¥éåHashTableä¹é´ææ´å¥½çéæ©ï¼ HashTable ä¸ HashMap ã ConcurrentHashMap 主è¦çåºå«å¨äºHashMapä¸æ¯åæ¥çã线ç¨ä¸å®å ¨çåä¸éååºç¨äºå¤çº¿ç¨å¹¶åç¯å¢ä¸ï¼è ConcurrentHashMap æ¯çº¿ç¨å®å ¨çéå容å¨ï¼ç¹å«æ¯å¨å¤çº¿ç¨å并åç¯å¢ä¸ï¼é常ä½ä¸º Map ç主è¦å®ç°ãé¤äºçº¿ç¨å®å ¨å¤ï¼ä»ä»¬ä¹é´è¿æä¸äºç»å¾®çä¸åï¼æ¬æä¼ä»ç»å°ãé¡ºä¾¿è¯´è¯´ï¼ HashMap å ConcurrentHashMap è¿æ ConcurrentHashMap å Hashtable 两è ä¹é´çåºå«å¨Javaé¢è¯ä¸ç»å¸¸åºç°ï¼ç¹å«æ¯é«çº§Javaç¨åºåã
å¨è¿é¨åï¼æ们ä¼çå°æ´å¤å ³äº HashMap å ConcurrentHashMap çç»èå对æ¯å®ä»¬ä¹é´çåæ°æ¯å¦çº¿ç¨å®å ¨ãåæ¥ãæ§è½ååºæ¬ç使ç¨ã
æ»ç»ä¸ä¸ä»¥ä¸ä¸¤è çåºå«ï¼å®ä»¬å¨çº¿ç¨å®å ¨ãæ©å±æ§ãåæ¥ä¹é´çåºå«ãå¦ææ¯ç¨äºç¼åçè¯ï¼ ConcurrentHashMap æ¯ä¸ä¸ªæ´å¥½çéæ©ï¼å¨Javaåºç¨ä¸ä¼ç»å¸¸ç¨å°ã ConcurrentHashMap å¨è¯»æä½çº¿ç¨æ°å¤äºåæä½çº¿ç¨æ°çæ åµä¸æ´èä¸ç¹ã
è½ç¶ä¸ä¸ªéåç±»å¨å¤çº¿ç¨å¹¶ååºç¨ä¸é½æ¯çº¿ç¨å®å ¨çï¼ä½æ¯ä»ä»¬æä¸ä¸ªé大çå·®å«ï¼å°±æ¯ä»ä»¬åèªå®ç°çº¿ç¨å®å ¨çæ¹å¼ã Hashtable æ¯jdk1çä¸ä¸ªéå¼çç±»ï¼å®ææææ¹æ³é½å ä¸ synchronized å ³é®åæ¥å®ç°çº¿ç¨å®å ¨ãææçæ¹æ³é½åæ¥è¿æ ·é æå¤ä¸ªçº¿ç¨è®¿é®æçç¹å«ä½ã Synchronized Map ä¸ HashTable å·®å«ä¸å¤§ï¼ä¹æ¯å¨å¹¶åä¸ä½ç±»ä¼¼çæä½ï¼ä¸¤è çå¯ä¸åºå«å°±æ¯ Synchronized Map 没被éå¼ï¼å®å¯ä»¥éè¿ä½¿ç¨ Collections.synchronizedMap() æ¥å è£ Map ä½ä¸ºåæ¥å®¹å¨ä½¿ç¨ã
å¦ä¸æ¹é¢ï¼ ConcurrentHashMap ç设计æç¹ç¹å«ï¼è¡¨ç°å¨å¤ä¸ªçº¿ç¨æä½ä¸ãå®ä¸ç¨åå¤çåæ¥çæ åµä¸é»è®¤åæ¶å 许个线ç¨è¯»ååè¿ä¸ªMap容å¨ãå ä¸ºå ¶å é¨çå®ç°å¥å¤ºäºéï¼ä½¿å®æå¾å¥½çæ©å±æ§ãä¸å HashTable å Synchronized Map ï¼ ConcurrentHashMap ä¸éè¦éæ´ä¸ªMapï¼ç¸åå®ååäºå¤ä¸ªæ®µ(segments)ï¼è¦æä½åªä¸æ®µæä¸éé£æ®µæ°æ®ã
å¦ç½è¯´ï¼éåç±»æ¯ä¸ä¸ªæéè¦çJava APIï¼æè§å¾æ°å½ç使ç¨å®ä»¬æ¯ä¸ç§èºæ¯ãä¾æ个人ç»éªï¼æä¼ä½¿ç¨ ArrayList è¿äºå®¹å¨æ¥æé«èªå·±çJavaç¨åºçæ§è½ï¼èä¸ä¼å»ç¨ä¸äºéå¼ç容å¨æ¯å¦ Vector ççï¼å¨Java 5ä¹åï¼Javaéå容å¨æä¸ä¸ªå¾è´å½ç缺é·å°±æ¯ç¼ºä¹å¯æ©å±æ§ã
åæ¥éåç±»æ¯å¦ Hashtable å Vector å¨å¤çº¿ç¨Javaåºç¨éé¢éæ¸æ为éç¢ç©ï¼å¨jdk5ååºç°ä¸äºå¾å¥½ç并åéåï¼å¯¹å¤§å®¹éãä½å»¶è¿ççµå交æç³»ç»æå¾å¤§å½±åï¼æ¯å¿«éååæ°æ®çæ¯æ±ã
åæå°åï¼
ConcurrentHashMapåHashMapçåºå«
ConcurrentHashMap vs Hashtable vs Synchronized Map
2024-11-19 16:06
2024-11-19 15:50
2024-11-19 15:04
2024-11-19 14:50
2024-11-19 14:17
2024-11-19 14:11
2024-11-19 14:04
2024-11-19 13:54