HashMap
HashMap是线程不安全的,在并发环境下,可能会造成环状链表(扩容时可能造成),导致get(key)
操作时,CPU空转负载达到100%,所以,在并发环境中使用HashMap是非常危险的。
HashMap初始容量大小为16,基于默认加载因子(0.75f
)其触发扩容容量水位为capacity * load factor
,每次扩容大小为当前容量两倍,直接尝试获取足够存储空间,并逐步迁移。
HashMap底层数据结构为数组+链表形式,当同一个数据槽中,数据节点个数超过8时,该数据槽的数据将由链表变迁成红黑树,便于查找搜索。
HashTable
HashTable实现原理几乎与HashMap一致,差别是HashTable不允许key和value为null,且它是线程安全的。
其线程安全策略相当粗暴,将get\put
所有相关操作都是采用synchronize
修饰,相当给整个哈希表加了一把锁,多线程访问的时候,只能有一个线程访问或操作该对象,其他线程只能阻塞,相当于将所有的线程串行化,在竞争激烈的并发场景中性能就会非常差。
ConcurrentHashMap
相较于HashTable在线程并发时性能差,其在对容器的数据加锁分散化,采用多把锁锁定一段数据,这样在线程访问不同段的数据时,就不会存在锁竞争了,有效的提高并发效率。
JDK1.7版本
JDK1.7版本采用segment+hashEntry
的方式进行实现。segment数组承载并发锁锁入口,其大小由concurrentLevel来决定的,但是却不一定等于concurrentLevel。
ConcurrentHashMap.put操作
基于key得到hash值,再向后移动segmentShift位,然后在于segmentMask做&
运算得到segment的索引i。
segment数组操作:
1、首先对key进行第一次hash,通过hash值确定segment的位置。
2、然后在segment内进行操作,获取独占锁。
3、接着获取当前segment的HashEntry数组,然后对key进行第二次hash,通过hash值确定在HashEntry数组索引位置。
4、然后对当前索引的hashEntry链进行遍历,如果有重复的key,则替换;如果没有重复的,则插入。
5、释放锁。
ConcurrentHashMap.size实现
由于其可以并发插入数据,计算元素时有一定难度。先采用不加锁的方式,连续计算元素的个数,最多计算3次:
1、如果前后两次计算结果相同,则说明计算出来的元素个数是正确的。
2、如果前后两次计算结果都不同,则给每个segment进行加锁,再计算一次元素个数。
JDK1.8版本
JDK1.8版本的实现已经抛弃了segment分段锁机制,利用CAS+synchronized来保证并发更新的安全,底层采用数组+链表+红黑树的存储结构。
ConcurrentHashMap.put操作
1、如果没有初始化就会先调用initTable(),方法来进行初始化过程。
2、如果没有hash冲突就直接CAS插入。
3、如果还在进行扩容操作就先进行扩容。
4、如果存在hash冲突,就加锁来保证线程安全,一种链表形式就直接遍历到尾部插入,一种是按红黑树结构插入。
5、最后一个如果该链表的数量大于阈值8,就要先转换成红黑树的结构,break再一次进行循环。
6、如果添加成功就调用addCount()方法统计size,并且检查是否需要扩容。
ConcurrentHashMap.get操作
1、计算hash值,定位到该table索引位置,如果是首节点符合就返回。
2、如果遇到扩容的时候,会调用标志正在扩容节点ForwardingNode的find方法,查找该节点,匹配返回。
3、以上都不符合的话,就往下遍历节点,匹配就返回,否则最后就返回null。
总结
1、JDK1.8的实现降低了锁粒度,JDK1.7版本锁的粒度是基于segment,包含多个HashEntry,而1.8锁的粒度就是HashEntry(数据首节点)
2、JDK1.8数据结构简单,采用CAS+sychronized来进行同步。
3、JDK1.8使用红黑树来优化链表。