[关闭]
@adamhand 2019-01-10T12:22:45.000000Z 字数 12827 阅读 1042

HashMap--从jdk1.7到jdk1.8


一、jdk1.7中的HashMap

1. 整体结构

  jdk1.7中HashMap的结构如下图所示:

  HashMap 里面是一个Entry[]数组,然后数组中每个元素是一个单向链表。上图中,每个绿色的实体是嵌套类 Entry 的实例,Entry 包含四个属性:key, value, hash 值和用于单向链表的 next。几个属性的意义如下:

  • capacity:当前数组容量,始终保持 2^n,可以扩容,扩容后数组大小为当前的 2 倍。
  • loadFactor:负载因子,默认为 0.75。
  • threshold:扩容的阈值,等于 capacity * loadFactor

2. put操作

put操作的过程可以简要概括如下:

  put操作的代码如下所示:

  1. public V put(K key, V value) {
  2. // 当插入第一个元素的时候,需要先初始化数组大小
  3. if (table == EMPTY_TABLE) {
  4. inflateTable(threshold);
  5. }
  6. // 如果 key 为 null,感兴趣的可以往里看,最终会将这个 entry 放到 table[0] 中
  7. if (key == null)
  8. return putForNullKey(value);
  9. // 1. 求 key 的 hash 值
  10. int hash = hash(key);
  11. // 2. 找到对应的数组下标
  12. int i = indexFor(hash, table.length);
  13. // 3. 遍历一下对应下标处的链表,看是否有重复的 key 已经存在,
  14. // 如果有,直接覆盖,put 方法返回旧值就结束了
  15. for (Entry<K,V> e = table[i]; e != null; e = e.next) {
  16. Object k;
  17. if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
  18. V oldValue = e.value;
  19. e.value = value;
  20. e.recordAccess(this);
  21. return oldValue;
  22. }
  23. }
  24. modCount++;
  25. // 4. 不存在重复的 key,将此 entry 添加到链表中,细节后面说
  26. addEntry(hash, key, value, i);
  27. return null;
  28. }

  put操作涉及到几个过程,具体有下面几个。

2.1 数组初始化

  在第一个元素插入 HashMap的时候做一次数组的初始化,就是先确定初始的数组大小,并计算数组扩容的阈值。

  1. private void inflateTable(int toSize) {
  2. // 保证数组大小一定是 2 的 n 次方。
  3. // 比如这样初始化:new HashMap(20),那么处理成初始数组大小是 32
  4. int capacity = roundUpToPowerOf2(toSize);
  5. // 计算扩容阈值:capacity * loadFactor
  6. threshold = (int) Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1);
  7. // 算是初始化数组吧
  8. table = new Entry[capacity];
  9. initHashSeedAsNeeded(capacity); //ignore
  10. }

  这里有一个将数组大小保持为 2 的 n 次方的做法,Java7 和 Java8 的 HashMap 和 ConcurrentHashMap 都有相应的要求,只不过实现的代码稍微有些不同,后面再看到的时候就知道了。

2.2 计算具体数组位置

  使用 key 的 hash 值对数组长度进行取模就可以了。

  1. static int indexFor(int hash, int length) {
  2. // assert Integer.bitCount(length) == 1 : "length must be a non-zero power of 2";
  3. return hash & (length-1);
  4. }

2.3 添加节点到链表中

  找到数组下标后,会先进行 key 判重,如果没有重复,就准备将新值放入到链表的表头。

  1. void addEntry(int hash, K key, V value, int bucketIndex) {
  2. // 如果当前 HashMap 大小已经达到了阈值,并且新值要插入的数组位置已经有元素了,那么要扩容
  3. if ((size >= threshold) && (null != table[bucketIndex])) {
  4. // 扩容,后面会介绍一下
  5. resize(2 * table.length);
  6. // 扩容以后,重新计算 hash 值
  7. hash = (null != key) ? hash(key) : 0;
  8. // 重新计算扩容后的新的下标
  9. bucketIndex = indexFor(hash, table.length);
  10. }
  11. // 往下看
  12. createEntry(hash, key, value, bucketIndex);
  13. }
  14. // 这个很简单,其实就是将新值放到链表的表头,然后 size++
  15. void createEntry(int hash, K key, V value, int bucketIndex) {
  16. Entry<K,V> e = table[bucketIndex];
  17. table[bucketIndex] = new Entry<>(hash, key, value, e);
  18. size++;
  19. }

  这个方法的主要逻辑就是先判断是否需要扩容,需要的话先扩容,然后再将这个新的数据插入到扩容后的数组的相应位置处的链表的表头。

2.4 数组扩容

  前面我们看到,在插入新值的时候,如果当前的 size 已经达到了阈值,并且要插入的数组位置上已经有元素,那么就会触发扩容,扩容后,数组大小为原来的 2 倍。

  1. void resize(int newCapacity) {
  2. Entry[] oldTable = table;
  3. int oldCapacity = oldTable.length;
  4. if (oldCapacity == MAXIMUM_CAPACITY) {
  5. threshold = Integer.MAX_VALUE;
  6. return;
  7. }
  8. // 新的数组
  9. Entry[] newTable = new Entry[newCapacity];
  10. // 将原来数组中的值迁移到新的更大的数组中
  11. transfer(newTable, initHashSeedAsNeeded(newCapacity));
  12. table = newTable;
  13. threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
  14. }

  扩容就是用一个新的大数组替换原来的小数组,并将原来数组中的值迁移到新的数组中。
  由于是双倍扩容,迁移过程中,会将原来 table[i] 中的链表的所有节点,分拆到新的数组的 newTable[i] 和 newTable[i + oldLength] 位置上。如原来数组长度是 16,那么扩容后,原来 table[0] 处的链表中的所有元素会被分配到新数组中 newTable[0] 和 newTable[16] 这两个位置。

  1. //将老的表中的数据拷贝到新的结构中
  2. void transfer(Entry[] newTable, boolean rehash) {
  3. int newCapacity = newTable.length;//容量
  4. for (Entry<K,V> e : table) { //遍历所有桶
  5. while(null != e) { //遍历桶中所有元素(是一个链表)
  6. Entry<K,V> next = e.next;
  7. if (rehash) {//如果是重新Hash,则需要重新计算hash值
  8. e.hash = null == e.key ? 0 : hash(e.key);
  9. }
  10. int i = indexFor(e.hash, newCapacity);//定位Hash桶
  11. e.next = newTable[i];//元素连接到桶中,这里相当于单链表的插入,总是插入在最前面
  12. newTable[i] = e;//newTable[i]的值总是最新插入的值
  13. e = next;//继续下一个元素
  14. }
  15. }
  16. }

  这个方法将老数组中的数据逐个链表地遍历,重新计算后放入新的扩容后的数组中,我们的数组索引位置的计算是通过 对key值的hashcode进行hash扰乱运算后,再通过和 length-1进行位运算得到最终数组索引位置。

3. get过程

  相对于 put 过程,get 过程是非常简单的。

  • 根据 key 计算 hash 值。
  • 找到相应的数组下标:hash & (length – 1)。
  • 遍历该数组位置处的链表,直到找到相等(==或equals)的 key。
  1. //获取key值为key的元素值
  2. public V get(Object key) {
  3. if (key == null)//如果Key值为空,则获取对应的值,这里也可以看到,HashMap允许null的key,其内部针对null的key有特殊的逻辑
  4. return getForNullKey();
  5. Entry<K,V> entry = getEntry(key);//获取实体
  6. return null == entry ? null : entry.getValue();//判断是否为空,不为空,则获取对应的值
  7. }
  8. //获取key为null的实体
  9. private V getForNullKey() {
  10. if (size == 0) {//如果元素个数为0,则直接返回null
  11. return null;
  12. }
  13. //key为null的元素存储在table的第0个位置
  14. for (Entry<K,V> e = table[0]; e != null; e = e.next) {
  15. if (e.key == null)//判断是否为null
  16. return e.value;//返回其值
  17. }
  18. return null;
  19. }

  get方法通过key值返回对应value,如果key为null,直接去table[0]处检索。我们再看一下getEntry这个方法:

  1. //获取键值为key的元素
  2. final Entry<K,V> getEntry(Object key) {
  3. if (size == 0) {//元素个数为0
  4. return null;//直接返回null
  5. }
  6. int hash = (key == null) ? 0 : hash(key);//获取key的Hash值
  7. for (Entry<K,V> e = table[indexFor(hash, table.length)];//根据key和表的长度,定位到Hash桶
  8. e != null;
  9. e = e.next) {//进行遍历
  10. Object k;
  11. if (e.hash == hash &&
  12. ((k = e.key) == key || (key != null && key.equals(k))))//判断Hash值和对应的key,合适则返回值
  13. return e;
  14. }
  15. return null;
  16. }

二、jdk1.8中的HashMap

1. 整体结构

  Java8 对 HashMap 进行了一些修改,最大的不同就是利用了红黑树,所以其由 数组+链表+红黑树 组成。
  根据 Java7 HashMap 的介绍,我们知道,查找的时候,根据 hash 值我们能够快速定位到数组的具体下标,但是之后的话,需要顺着链表一个个比较下去才能找到我们需要的,时间复杂度取决于链表的长度,为 O(n)。
  为了降低这部分的开销,在 Java8 中,当链表中的元素超过了 8 个以后,会将链表转换为红黑树,在这些位置进行查找的时候可以降低时间复杂度为 O(logN)。
  jdk1.8中的HashMap示意图如下:

  Java7 中使用 Entry 来代表每个 HashMap 中的数据节点,Java8 中使用 Node,基本没有区别,都是 key,value,hash 和 next 这四个属性,相应地,java7中的Entry[]数组也变为了Node[]数组。Node是HashMap的一个内部类,实现了Map.Entry接口,本质是就是一个映射(键值对)。不过,Node 只能用于链表的情况,红黑树的情况需要使用 TreeNode。Node类的源码如下:

  1. static class Node<K,V> implements Map.Entry<K,V> {
  2. final int hash; //用来定位数组索引位置
  3. final K key;
  4. V value;
  5. Node<K,V> next; //链表的下一个node
  6. Node(int hash, K key, V value, Node<K,V> next) { ... }
  7. public final K getKey(){ ... }
  8. public final V getValue() { ... }
  9. public final String toString() { ... }
  10. public final int hashCode() { ... }
  11. public final V setValue(V newValue) { ... }
  12. public final boolean equals(Object o) { ... }
  13. }

2. 关键属性

  构造函数主要是对下面几个字段进行初始化:

  1. transient Entry[] table; //存储元素的实体数组
  2. transient int size; //容量,存放键值对的个数
  3. int threshold; //临界值。当实际大小超过临界值时,会进行扩容。threshold =加载因子*容量
  4. final float loadFactor; //加载因子。默认是0.75
  5. transient int modCount; //被修改的次数

  首先,Node[] table的初始化长度length(默认值是16),Load factor为负载因子(默认值是0.75),threshold是HashMap所能容纳的最大数据量的Node(键值对)个数。threshold = length * Load factor。也就是说,在数组定义好长度之后,负载因子越大,所能容纳的键值对个数越多。
  结合负载因子的定义公式可知,threshold就是在此Load factor和length(数组长度)对应下允许的最大元素数目,超过这个数目就重新resize(扩容),扩容后的HashMap容量是之前容量的两倍。默认的负载因子0.75是对空间和时间效率的一个平衡选择,建议大家不要修改,除非在时间和空间比较特殊的情况下,如果内存空间很多而又对时间效率要求很高,可以降低负载因子Load factor的值;相反,如果内存空间紧张而对时间效率要求不高,可以增加负载因子loadFactor的值,这个值可以大于1。
  size这个字段其实很好理解,就是HashMap中实际存在的键值对数量。注意和table的长度length、容纳最大键值对数量threshold的区别。而modCount字段主要用来记录HashMap内部结构发生变化的次数,主要用于迭代的快速失败。强调一点,内部结构发生变化指的是结构发生变化,例如put新键值对,但是某个key对应的value值被覆盖不属于结构变化。
  在HashMap中,哈希桶数组table的长度length大小必须为2的n次方(一定是合数),这是一种非常规的设计,常规的设计是把桶的大小设计为素数。相对来说素数导致冲突的概率要小于合数,具体证明可以参考http://blog.csdn.net/liuqiyao_01/article/details/14475159,Hashtable初始化桶大小为11,就是桶大小设计为素数的应用(Hashtable扩容后不能保证还是素数)。HashMap采用这种非常规设计,主要是为了在取模和扩容时做优化,同时为了减少冲突,HashMap定位哈希桶索引位置时,也加入了高位参与运算的过程(即将预哈希得到的hashCode值向右移动n位,再进行哈希运算)。
  这里存在一个问题,即使负载因子和Hash算法设计的再合理,也免不了会出现拉链过长的情况,一旦出现拉链过长,则会严重影响HashMap的性能。于是,在JDK1.8版本中,对数据结构做了进一步的优化,引入了红黑树。而当链表长度太长(默认超过8)时,链表就转换为红黑树,利用红黑树快速增删改查的特点提高HashMap的性能,其中会用到红黑树的插入、删除、查找等算法。本文不再对红黑树展开讨论,想了解更多红黑树数据结构的工作原理可以参考http://blog.csdn.net/v_july_v/article/details/6105630

3. “拉链法”工作原理

  HashMap就是使用哈希表来存储的。哈希表为解决冲突,可以采用开放地址法和链地址法等来解决问题,Java中HashMap采用了链地址法(就是所谓的“拉链法”)。链地址法,简单来说,就是数组加链表的结合。在每个数组元素上都一个链表结构,当数据被Hash后,得到数组下标,把数据放在对应下标元素的链表上。
  HashMap确定哈希桶数组索引位置是通过以下三个步骤实现的:取key的hashCode值、高位运算、取模运算。源码如下:

  1. //方法一:
  2. //jdk1.8 & jdk1.7
  3. static final int hash(Object key) {
  4. int h;
  5. // h = key.hashCode() 为第一步 取hashCode值
  6. // h ^ (h >>> 16) 为第二步 高位参与运算
  7. return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
  8. }
  9. //方法二:
  10. //jdk1.7的源码,jdk1.8没有这个方法,但是实现原理一样的。具体参见jdk1.8的putVal函数。
  11. static int indexFor(int h, int length) {
  12. return h & (length-1); //第三步 取模运算
  13. }

  对于任意给定的对象,只要它的hashCode()返回值相同,那么程序调用方法一所计算得到的Hash码值总是相同的。我们首先想到的就是把hash值对数组长度取模运算,这样一来,元素的分布相对来说是比较均匀的。但是,模运算的消耗还是比较大的,在HashMap中是这样做的:调用方法二来计算该对象应该保存在table数组的哪个索引处。
  这个方法非常巧妙,它通过h & (table.length -1)来得到该对象的保存位,而HashMap底层数组的长度总是2的n次方,这是HashMap在速度上的优化。当length总是2的n次方时,h& (length-1)运算等价于对length取模,也就是h%length,但是&比%具有更高的效率。
  在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销。
另外,HashMap 允许插入键为 null 的键值对。但是因为无法调用 null 的 hashCode() 方法,也就无法确定该键值对的桶下标,只能通过强制指定一个桶下标来存放。从hash()函数的返回语句可以看出,当键为null的时候,返回0,HashMap 使用第 0 个桶存放键为 null 的键值对。对比HashTable源码我们可以知道,HashTable的key直接进行了hashCode,如果key为null时,会抛出异常,所以HashTable的key不可以是null。
  下面举例说明下,n为table的长度。

4. put方法

  HashMap的put方法执行过程可以通过下图来理解

第0步,先对key值做hash运算,在hash运算里面处理了key==null的情况,参见上面的hash函数,然后才是调用putVal函数,进行下面的步骤。
①.判断键值对数组table[i]是否为空或为null,否则执行resize()进行扩容;
②.根据键值key计算hash值得到插入的数组索引i,如果table[i]==null,直接新建节点添加,转向⑥,如果table[i]不为空,转向③;
③.判断table[i]的首个元素是否和key一样,如果相同直接覆盖value,否则转向④,这里的相同指的是hashCode以及equals;
④.判断table[i] 是否为treeNode,即table[i] 是否是红黑树,如果是红黑树,则直接在树中插入键值对,否则转向⑤;
⑤.遍历table[i],判断链表长度是否大于8,大于8的话把链表转换为红黑树,在红黑树中执行插入操作,否则进行链表的插入操作;遍历过程中若发现key已经存在直接覆盖value即可;
⑥.插入成功后,判断实际存在的键值对数量size是否超多了最大容量threshold,如果超过,进行扩容。

  jdk1.8的源码如下:

  1. public V put(K key, V value) {
  2. // 对key的hashCode()做hash
  3. return putVal(hash(key), key, value, false, true);
  4. }
  5. final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
  6. boolean evict) {
  7. Node<K,V>[] tab; Node<K,V> p; int n, i;
  8. // 步骤①:tab为空则创建
  9. if ((tab = table) == null || (n = tab.length) == 0)
  10. n = (tab = resize()).length;
  11. // 步骤②:计算index,并对null做处理
  12. if ((p = tab[i = (n - 1) & hash]) == null)
  13. tab[i] = newNode(hash, key, value, null);
  14. else {
  15. Node<K,V> e; K k;
  16. // 步骤③:节点key存在,直接覆盖value
  17. if (p.hash == hash &&
  18. ((k = p.key) == key || (key != null && key.equals(k))))
  19. e = p;
  20. // 步骤④:判断该链为红黑树
  21. else if (p instanceof TreeNode)
  22. e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
  23. // 步骤⑤:该链为链表
  24. else {
  25. for (int binCount = 0; ; ++binCount) {
  26. if ((e = p.next) == null) {
  27. p.next = newNode(hash, key,value,null);
  28. //链表长度大于8转换为红黑树进行处理
  29. if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
  30. treeifyBin(tab, hash);
  31. break;
  32. }
  33. // key已经存在直接覆盖value
  34. if (e.hash == hash &&
  35. ((k = e.key) == key || (key != null && key.equals(k)))) break;
  36. p = e;
  37. }
  38. }
  39. if (e != null) { // existing mapping for key
  40. V oldValue = e.value;
  41. if (!onlyIfAbsent || oldValue == null)
  42. e.value = value;
  43. afterNodeAccess(e);
  44. return oldValue;
  45. }
  46. }
  47. ++modCount;
  48. // 步骤⑥:超过最大容量 就扩容
  49. if (++size > threshold)
  50. resize();
  51. afterNodeInsertion(evict);
  52. return null;
  53. }

5. 扩容

  当put时,如果发现目前的bucket占用程度已经超过了Load Factor所希望的比例,那么就会发生resize。在resize的过程,简单的说就是把bucket扩充为2倍,之后重新计算index,把节点再放到新的bucket中。然而又因为我们使用的是2次幂的扩展(指长度扩为原来2倍),所以,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。
  怎么理解呢?例如我们从16扩展为32时,具体的变化如下所示:

  因此元素在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:

  因此,我们在扩充HashMap的时候,不需要重新计算hash,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”。可以看看下图为16扩充为32的resize示意图:

  这个设计确实非常的巧妙,既省去了重新计算hash值的时间,而且同时,由于新增的1bit是0还是1可以认为是随机的,因此resize的过程,均匀的把之前的冲突的节点分散到新的bucket了。
  具体代码如下:

  1. final Node<K,V>[] resize() {
  2. Node<K,V>[] oldTab = table;
  3. int oldCap = (oldTab == null) ? 0 : oldTab.length;
  4. int oldThr = threshold;
  5. int newCap, newThr = 0;
  6. if (oldCap > 0) { // 对应数组扩容
  7. //超过最大值就不再扩充了,就只好随你碰撞去吧
  8. if (oldCap >= MAXIMUM_CAPACITY) {
  9. threshold = Integer.MAX_VALUE;
  10. return oldTab;
  11. }
  12. // 没超过最大值,就扩充为原来的2倍
  13. else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
  14. oldCap >= DEFAULT_INITIAL_CAPACITY)
  15. // 将阈值扩大一倍
  16. newThr = oldThr << 1; // double threshold
  17. }
  18. else if (oldThr > 0) // 对应使用 new HashMap(int initialCapacity) 初始化后,第一次 put 的时候
  19. newCap = oldThr;
  20. else {// 对应使用 new HashMap() 初始化后,第一次 put 的时候
  21. newCap = DEFAULT_INITIAL_CAPACITY;
  22. newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
  23. }
  24. if (newThr == 0) {
  25. float ft = (float)newCap * loadFactor;
  26. newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
  27. (int)ft : Integer.MAX_VALUE);
  28. }
  29. threshold = newThr;
  30. // 用新的数组大小初始化新的数组
  31. Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
  32. table = newTab; // 如果是初始化数组,到这里就结束了,返回 newTab 即可
  33. if (oldTab != null) {
  34. // 开始遍历原数组,进行数据迁移。
  35. for (int j = 0; j < oldCap; ++j) {
  36. Node<K,V> e;
  37. if ((e = oldTab[j]) != null) {
  38. oldTab[j] = null;
  39. // 如果该数组位置上只有单个元素,那就简单了,简单迁移这个元素就可以了
  40. if (e.next == null)
  41. newTab[e.hash & (newCap - 1)] = e;
  42. // 如果是红黑树,具体我们就不展开了
  43. else if (e instanceof TreeNode)
  44. ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
  45. else {
  46. // 这块是处理链表的情况,
  47. // 需要将此链表拆成两个链表,放到新的数组中,并且保留原来的先后顺序
  48. // loHead、loTail 对应一条链表,hiHead、hiTail 对应另一条链表,代码还是比较简单的
  49. Node<K,V> loHead = null, loTail = null;
  50. Node<K,V> hiHead = null, hiTail = null;
  51. Node<K,V> next;
  52. do {
  53. next = e.next;
  54. if ((e.hash & oldCap) == 0) {
  55. if (loTail == null)
  56. loHead = e;
  57. else
  58. loTail.next = e;
  59. loTail = e;
  60. }
  61. else {
  62. if (hiTail == null)
  63. hiHead = e;
  64. else
  65. hiTail.next = e;
  66. hiTail = e;
  67. }
  68. } while ((e = next) != null);
  69. if (loTail != null) {
  70. loTail.next = null;
  71. // 第一条链表
  72. newTab[j] = loHead;
  73. }
  74. if (hiTail != null) {
  75. hiTail.next = null;
  76. // 第二条链表的新的位置是 j + oldCap,这个很好理解
  77. newTab[j + oldCap] = hiHead;
  78. }
  79. }
  80. }
  81. }
  82. }
  83. return newTab;
  84. }

6. get过程分析

  相对于 put 来说,get 真的太简单了。

  • 计算 key 的 hash 值,根据 hash 值找到对应数组下标: hash & (length-1)
  • 判断数组该位置处的元素是否刚好就是我们要找的,如果不是,走第三步
  • 判断该元素类型是否是 TreeNode,如果是,用红黑树的方法取数据,如果不是,走第四步
  • 遍历链表,直到找到相等(==或equals)的 key
  1. public V get(Object key) {
  2. Node<K,V> e;
  3. return (e = getNode(hash(key), key)) == null ? null : e.value;
  4. }
  5. final Node<K,V> getNode(int hash, Object key) {
  6. Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
  7. if ((tab = table) != null && (n = tab.length) > 0 &&
  8. (first = tab[(n - 1) & hash]) != null) {
  9. // 判断第一个节点是不是就是需要的
  10. if (first.hash == hash && // always check first node
  11. ((k = first.key) == key || (key != null && key.equals(k))))
  12. return first;
  13. if ((e = first.next) != null) {
  14. // 判断是否是红黑树
  15. if (first instanceof TreeNode)
  16. return ((TreeNode<K,V>)first).getTreeNode(hash, key);
  17. // 链表遍历
  18. do {
  19. if (e.hash == hash &&
  20. ((k = e.key) == key || (key != null && key.equals(k))))
  21. return e;
  22. } while ((e = e.next) != null);
  23. }
  24. }
  25. return null;
  26. }

三、线程安全性

待续

四、参考资料

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注