HashMap采用key/value存储结构,底层基于散列算法实现,HashMap 允许 null 键和 null 值,它是非线程安全的,且不保证元素存储的顺序,在计算哈键的哈希值时,null 键哈希值为 0。
在jdk1.8 中,HashMap的实现采用了数组 + 链表 + 红黑树的结构;在添加元素时,先根据hash值算出元素在数组中的位置,如果该位置没有元素,则直接把元素放置在此处,如果该位置有元素了,则把元素以链表的形式放置在链表的尾部。
当一个链表的元素个数达到一定的数量(且数组的长度达到一定的长度)后,则把链表转化为红黑树,从而提高效率;数组的查询效率为O(1),链表的查询效率是O(k),红黑树的查询效率是O(log k),k为桶中的元素个数。
流程: 1)当桶数组 table 为空时,通过扩容的方式初始化 table 2)查找要插入的键值对是否已经存在,存在的话根据条件判断是否用新值替换旧值 3)如果不存在,则将键值对链入链表中,并根据链表长度决定是否将链表转为红黑树 4)判断键值对数量是否大于阈值,大于的话则进行扩容操作
扩容机制 final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; // 桶数组 table 已经被初始化 if (oldCap > 0) { // 大于最大容量时,阈值也设置为最大值 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } // 否则容量与阈值均扩大为2倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } // threshold > 0,且桶数组未被初始化 // 调用 HashMap(int) 和 HashMap(int, float) 构造方法时会产生这种情况 else if (oldThr > 0) // initial capacity was placed in threshold // 如果旧容量为0且旧扩容门槛大于0,则把新容量赋值为旧门槛 newCap = oldThr; // 调用 HashMap() 构造方法会产生这种情况 // 桶数组未被初始化,且 threshold 为 0 else { // 阈值为默认容量与默认负载因子乘积 newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } // 第一个条件分支未计算 newThr 或嵌套分支在计算过程中导致 newThr 溢出归零 if (newThr == 0) { // 如果新扩容门槛为0,则计算为容量*装载因子,但不能超过最大容量 float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; // 创建新的桶数组,桶数组的初始化也是在这里完成的 @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { Node<K,V> e; // 如果旧的桶数组不为空,则遍历桶数组,并将键值对映射到新的桶数组中 if ((e = oldTab[j]) != null) { oldTab[j] = null; // 如果这个桶中只有一个元素,则计算它在新桶中的位置并把它搬移到新桶中 // 因为每次都扩容两倍,所以这里的第一个元素搬移到新桶的时候新桶肯定还没有元素 if (e.next == null) newTab[e.hash & (newCap - 1)] = e; // 如果第一个元素是树节点,则把这颗树打散成两颗树插入到新桶中去 else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // 遍历链表,并将链表节点按原顺序进行分组 // 则分化成两个链表插入到新的桶中去 // 1种在原链,1种在新链(高于当前index) Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; // (e.hash & oldCap) == 0的元素放在低位链表中 // 比如,3 & 4 == 0 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } // (e.hash & oldCap) != 0的元素放在高位链表中 // 比如,7 & 4 != 0 else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); // 遍历完成分化成两个链表了 // 低位链表在新桶中的位置与旧桶一样(即3和11还在三号桶中) if (loTail != null) { loTail.next = null; newTab[j] = loHead; } // 高位链表在新桶中的位置正好是原来的位置加上旧容量 if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }流程: 1) 计算新桶数组的容量 newCap 和新阈值 newThr 2) 根据计算出的 newCap 创建新的桶数组,桶数组 table 也是在这里进行初始化的 3) 将键值对节点重新映射到新的桶数组里。如果节点是 TreeNode 类型,则需要拆分红黑树。如果是普通节点,则节点按原顺序进行分组。
红黑树 final void treeifyBin(Node<K,V>[] tab, int hash) { int n, index; Node<K,V> e; // 桶数组容量小于 MIN_TREEIFY_CAPACITY,优先进行扩容而不是树化 if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY) resize(); else if ((e = tab[index = (n - 1) & hash]) != null) { TreeNode<K,V> hd = null, tl = null; do { TreeNode<K,V> p = replacementTreeNode(e, null); if (tl == null) hd = p; else { p.prev = tl; tl.next = p; } tl = p; } while ((e = e.next) != null); if ((tab[index] = hd) != null) // 将树形链表转换成红黑树 hd.treeify(tab); } } // 将普通节点替换成树形节点 TreeNode<K,V> replacementTreeNode(Node<K,V> p, Node<K,V> next) { return new TreeNode<>(p.hash, p.key, p.value, next); }在扩容过程中,树化要满足两个条件: 1) 链表长度大于等于 TREEIFY_THRESHOLD 2) 桶数组容量大于等于 MIN_TREEIFY_CAPACITY
由于树化过程需要比较两个键对象的大小,在键类没有实现 comparable 接口的情况下,怎么比较键与键之间的大小了就成了一个棘手的问题。为了解决这个问题,HashMap 是做了三步处理,确保可以比较出两个键的大小,如下: 1) 比较键与键之间 hash 的大小,如果 hash 相同,继续往下比较 2) 检测键类是否实现了 Comparable 接口,如果实现调用 compareTo 方法进行比较 3) 如果仍未比较出大小,就需要进行仲裁了,仲裁方法为 tieBreakOrder 链表转成红黑树后,原链表的顺序仍然会被引用仍被保留了,我们仍然可以按遍历链表的方式去遍历上面的红黑树。
红黑树扩容重映射 扩容后,普通节点需要重新映射,红黑树节点也不例外。按照一般的思路,我们可以先把红黑树转成链表,之后再重新映射链表即可。这种处理方式是大家比较容易想到的,但这样做会损失一定的效率。不同于上面的处理方式,HashMap 实现的思路则是上好佳(上好佳请把广告费打给我)。如上节所说,在将普通链表转成红黑树时,HashMap 通过两个额外的引用 next 和 prev 保留了原链表的节点顺序。这样再对红黑树进行重新映射时,完全可以按照映射链表的方式进行。这样就避免了将红黑树转成链表后再进行映射,无形中提高了效率。 final void split(HashMap<K,V> map, Node<K,V>[] tab, int index, int bit) { TreeNode<K,V> b = this; // Relink into lo and hi lists, preserving order TreeNode<K,V> loHead = null, loTail = null; TreeNode<K,V> hiHead = null, hiTail = null; int lc = 0, hc = 0; // 红黑树节点仍然保留了 next 引用,故仍可以按链表方式遍历红黑树 for (TreeNode<K,V> e = b, next; e != null; e = next) { next = (TreeNode<K,V>)e.next; e.next = null; if ((e.hash & bit) == 0) { if ((e.prev = loTail) == null) loHead = e; else loTail.next = e; loTail = e; ++lc; } else { if ((e.prev = hiTail) == null) hiHead = e; else hiTail.next = e; hiTail = e; ++hc; } } if (loHead != null) { if (lc <= UNTREEIFY_THRESHOLD) tab[index] = loHead.untreeify(map); else { tab[index] = loHead; if (hiHead != null) // (else is already treeified) loHead.treeify(tab); } } if (hiHead != null) { if (hc <= UNTREEIFY_THRESHOLD) tab[index + bit] = hiHead.untreeify(map); else { tab[index + bit] = hiHead; if (loHead != null) hiHead.treeify(tab); } } } 红黑树链化 final Node<K,V> untreeify(HashMap<K,V> map) { Node<K,V> hd = null, tl = null; // 遍历 TreeNode 链表,并用 Node 替换 for (Node<K,V> q = this; q != null; q = q.next) { Node<K,V> p = map.replacementNode(q, null); if (tl == null) hd = p; else tl.next = p; tl = p; } return hd; } Node<K,V> replacementNode(Node<K,V> p, Node<K,V> next) { return new Node<>(p.hash, p.key, p.value, next); }