原文地址: https://jygod.github.io/2018/04/05/HashMap%E5%BA%95%E5%B1%82%E5%8E%9F%E7%90%86%E8%A7%A3%E6%9E%90/
初始化
我们先来看看在初始化HashMap的时候会发生神马:
HashMap<String, Person> map = new HashMap<String, Person>();
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
只会初始化一个参数loadFactor(负载因子),DEFAULT_LOAD_FACTOR 是负载因子的默认值0.75f。
/**
* The load factor used when none specified in constructor.
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
那么我们可以知道初始化HashMap基本上什么都没干...
然后我们进行下一个语句 Person p = new Person("Jiang", 18);
和 map.put("jy", p);
这是put()方法源码:
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
然后是putVal()方法:
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else
...
... // 先过滤掉,反正刚开始不会往这里面走...
...
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
我们先来看看这里的table是什么?
/**
* The table, initialized on first use, and resized as
* necessary. When allocated, length is always a power of two.
* (We also tolerate length zero in some operations to allow
* bootstrapping mechanics that are currently not needed.)
*/
transient Node<K,V>[] table;
相当于是一个初始值为null的Node数组,再来看看Node的数据结构:
/**
* Basic hash bin node, used for most entries. (See below for
* TreeNode subclass, and in LinkedHashMap for its Entry subclass.)
*/
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
}
回到putVal()方法中...我们首次put元素的时候,这个table当然是null的,因此会执行 table = resize();
resize()
方法就是HashMap进行动态扩容的关键方法。
由于resize()
方法有点长..我仅把首次扩容的关键代码截下来...
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
...// 不会走这里
}
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY; // static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
threshold = newThr;
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
..... // 不会走这里
}
return newTab;
}
我们很清楚的知道,由于 table 是null,所以 oldCap = 0;所以有:
newCap = 1 << 4 = 16; newThr = 0.75f * 16 = 12;
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
这两行表示 table 现在就是正式在内存堆里面开辟的大小为16的Node数组了~
现在的状态差不多是介个样子滴:
我们的元素此时还没有加到map中,因为我们putVal()
方法还没有分析完,只是对底层的table进行了初始化的扩容,接下来我们继续分析putVal()
方法,看看具体怎么把元素塞进map中的。
为了防止往上翻代码....
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0) // 刚才我们分析道这儿了!!!
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null) // 现在从这儿开始...
tab[i] = newNode(hash, key, value, null);
else
...
... // 先过滤掉,反正刚开始不会往这里面走...
...
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
在resize()
扩容之后,通过 (n - 1) & hash 计算得到一个 0~15的下标值,得到的下标 i 正式我们元素应该放入的table中的位置,如果计算后的i在table中的位置 table[i] 为null, 证明当前位置还没有任何节点元素,我们需要new一个节点,并放在table[i]上。
所以现在的状态应该是这样了QAQ:
而每一次put()
元素的时候,如果在table[i]上元素为null, 将元素插入table[i]时,都会进行size++ 的操作, size对应上图HashMap对象的那个size:
if (++size > threshold)
resize();
因此,虽说在初始化时底层建立了一个16长度的数组,但是hashMap得逻辑长度最开始仍然是0, 只有在每次table[i]中有新元素到来的时候(并且table[i]为null)才会增加size;
而当size也就是添加的元素个数超过阈值threshold,就会进行resize()
底层数组的扩容~ 这个我们之后再详细说明。
HashMap的初始化操作就到这里了~
添加元素以及解决冲突
我们之前分析了向底层table添加新元素的过程,现在我们执行Person p1 = new Person("jiang", 20);
和map.put("jyjy", p1);
来模拟Hash冲突的情况。
还是先来分析putVal()方法:
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
.... // 省略
....
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else { // 这个时候应该是走这里啦
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k)))) // 如果发现要插入的元素的vale存在,则啥也不干..
e = p;
else if (p instanceof TreeNode) // 如果插入时发现是TreeNode结构的
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else { // 转换成红黑树前的插入操作
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
....
....
}
可以看到注释里写的,再插入时,有两种可能的结构。JDK1.7及以前版本中只会存在单链表的结构,而这种单链表的结构,一旦元素太多了,就会导致查询效率低下... 因此在JDK1.8的版本中,如果元素超过插入的阈值(8个),就会将单链表转换成红黑二叉树的结构,这里我们知道就好,具体的红黑二叉树转换和插入比较复杂,就不在这篇文章中分析了...
那么我们需要关注的实际就是这一段代码:
else { // 转换成红黑树前的插入操作
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) { //在最后一个位置new一个新节点
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // 超过阈值转换成红黑树
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
这段代码很好理解,从第一个节点开始向后遍历,在链表的末尾插入新的节点,如果超过阈值(8个),则转换成红黑二叉树。
因此现在的状态理论上是酱紫:
再来看最后执行的这段:
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
插入节点或是发现已有一样的节点后,e都不会为null(只有一开始table[i]为null的时候e才会是null),所以上一段必定会执行。
因此会直接return这个插入节点的value,而不会执行之后的size++;
扩容
在初始化的时候,我们看到putVal()这个方法里最后有这么一句话:
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
....
....// 前面省略
if (++size > threshold)
resize();
}
初始的时候 threshold 的值我们计算得到的是 0.75f * 16 = 12,因此如果插入到table的元素超过阈值时(现在阈值为12)会触发resize()对当前table数组扩容。
又来到了resize()方法,只不过这一次就是真的要对底层数组进行扩容了~
final Node<K,V>[] resize() {
.....
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
}
现在oldCap是16 > 0,因此往下走,newCap = 16 << 1 = 16 * 2 = 32,扩大两倍。而阈值也是扩大两倍。
继续往下面看...
final Node<K,V>[] resize() {
.....
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
...
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
}
是不是感觉有点长啊... 没事,慢慢来… ..这一段是在干什么呢?在底层table数组扩容一倍之后,需要重新计算每个元素的放置位置,在JDK1.7及以前,其实都是根据rehash()重新计算节点的hash值然后再 e.hash & (oldCap - 1) 来重新计算节点的下标位置,进而进行重新的节点排列。
而JDK1.8优化之后不需要再次对元素的hash值进行计算,而是只会将之前元素的hash值和oldCap值进行对比,观察其最高位的0,1情况,具体如下:
(e.hash & oldCap) 得到的是 元素的在数组中的位置是否需要移动,示例如下
示例1:
e.hash=10 0000 1010
oldCap=16 0001 0000
& =0 0000 0000 比较高位的第一位 0
结论:元素位置在扩容后数组中的位置没有发生改变
示例2:
e.hash=17 0001 0001
oldCap=16 0001 0000
& =1 0001 0000 比较高位的第一位 1
结论:元素位置在扩容后数组中的位置发生了改变,新的下标位置是原下标位置+原数组长度
将结果为0的存在以loHead为首的链表中, 将结果为1的存在以hiHead为首的链表中,然后分别放入table[i]和table[1 + oldCap]中。
这样做能够有效地将元素分散。