- HashMap的实现
- 数据要存储
涉及到数据结构:数组、链表、栈、树、队列等等(发现hashmap使用的数组) - 数组的插入和查找
- 顺序查找:插入时按先后顺序插入,查找时轮询扫描进行对比
- 二分查找:插入时进行排序;查找时将N个元素分成大致相等的两部分,减少复杂度
- 分块查找:分块朝朝时二分查找和顺序查找的一种改进
- 哈希表:对元素的关键信息进行hash运算(针对是key),然后得出的数值,求出下表后直接插入或查找。常用的求下表的实现时
除留余数法
(hashmap使用的方式) - 除留余数法:例如计算出hash值是8当前用于存储的数组长度是6,那这个除留余数法算出来就是2
- 非线程安全
- 哈希冲突,数组位置已存在值
hash(key2)=hash(key1)。链地址法;ReHash1(key2)再次计算hash; - 合理控制数组和链表的长度:动态扩容resize()
-
JAVA8更新:链表中元素超过一个数量(8)后,转变为红黑树结构,而且只是当前链表变为红黑树,而不是所有链表都变化
如上图发现,除留余数法会同时出现不同的key算出来的余数相同即对应下标相同,如果相同首先判断是否有存数据,存了就创建链表,一层层关联;但是链表太长,虽然很容易定位(除留余数法)数组的下标,但是该下标对应的链表还是要详细比较(全比较而不是除留余数法了);所以链表太长性能也低;针对这个问题,hashmap进行了阈值判断,达到阈值系数计算的值对应的个数,则自动扩容,2阈值的形式扩容;扩容之后会重新计算之前的数据的下标等等。
- ConcurrentHashMap
线程安全的hashmap
HashTable
进入HashTable源码可以发现,是使用同步关键字实现的,而且是在方法上使用同步关键字,虽然线程安全,但是性能低,不推荐使用-
实现方式JDK1.7
如上图可知,1.7中实现方式是数组,数组内部默认16个segment,而且该数组不可扩容,存储查询操作同样使用除留余数法从而确定下标,只是此处segment不存储具体信息,内部包含一个lock,真正存储数据的是该segment对应的数组(没错,和hahsmap不同,此处使用的是双重数组的形式),如果内部的entry和hashmap其他操作相同。可发现,能同时容乃16个线程互不干扰的操作数据,虽然进入具体segment的lock之后还是需要加锁排队但是性能已经相比hashtable提高不少。
-
实现方式JDK1.8
如上图可知,1.8实现方式还是数组和链接形式类似于hashmap的实现,完全不同于1.7的实现,性能又提升一大步。其实这里也是除留余数法,首先判断在第一层数组是不是已经包含,不包含的时候为了保证线程安全也是通过cas无锁操作实现的,性能高;而且为了避免对应的下级链表过长,此处数组也是会扩容的,从而避免链表过长。而如果发现数组已经保存了,则进链表进行判断,此时是通过同步关键字
实现同步,因为有扩容,所以一般在第一级数组的cas处大部分已经存储了,虽然相比之下,同步关键字的性能低,但是因为进入链表的频率小,所以综合考虑性能相比1.7的实现方式更高效,而且因为可以动态扩容,理论上远不止16个并发操作,查询和增删都更快。
Thread-yield
Thread.yield()不会占用资源,会适当让出cpu,例如再while循环中可以使用Thread.yield从而达到不抢占CPU资源,导致CPU使用率飙高的问题ConcurrentSkipListMap
特点:有序链表实现,无锁实现;value不能为空;层级越高跳跃性越大,数据越少,查询理论变快。
- 通过cas实现线程安全
- 新的node是否抽出来作为index,随机决定;
- index对应的level由随机数决定(随机数比特位连续为1的数量)
- 每层的元素,headindex固定为所有node中最小的
- 查找数据时按照从上到下,从左往右的顺序查找
- 时间复杂度O(log n),空间复杂度O(n)
- 空间换时间,数据库索引类似的概念,skiplist在很多开源组件中有使用(level DB,redis)
如上图所示:真实存储数据是通过最下面一层的链表,但是链表过长的时候不论是查找还是插入都很麻烦,必须循环遍历;这时候会自动生成一个随机数(如果是偶数则创建索引,注意不是都创建,也不是隔一个创建一个);通过这个随机数创建索引之后索引内部也保存下面的node节点即node的映射关系,方便查找;但是此时发现,如果索引很多的话,同样会有数据多类似的问题;这时候提出了索引分级
解决方案;即生成的随机数偶数则创建索引,但是根据这个随机数的二进制连续为1的数量去把索引分成很多层级,这样一个开始不论是查找还是增删除,从入口的head index一旦开始,会从最上级的层级索引开始通过判断大小,新的数据大则往右继续找索引,如果右边没有索引了则通过down向下一级找索引,最终进去最底层的node处对比数据。可知,数据量越大,相比于循环查找速度就越快。
ConcurrentSkipListMap<String,String> concurrentSkipListMap=new ConcurrentSkipListMap<>(new Comparator<String>() {
@Override
public int compare(String o1, String o2) {
//可以通过这种方式自定义key
return 0;
}
});
- 面试题-比较
public class HashMapDemo {
public static void main(String[] args) {
HashMap<User,String>map=new HashMap<>();
User user=new User("tony");
map.put(user,"test");
System.out.println(map.get(user));//test
user=new User("tony");
System.out.println(map.get(user));//重写 hashcode和equals方法返回test,否则返回null
}
}
class User{
public String name;
public User(String name) {
this.name=name;
}
@Override
public boolean equals(Object obj) {
return name.equals(((User)obj).name);
}
@Override
public int hashCode() {
return name.hashCode();
}
}
说明:如果不重写hashcode和equals方法,则上面的第二个输出应该是null;之所以如此,是因为,hashmap的实现,其中需要用到hashcode方法计算哈希值然后计算数组下标;而且进入链表之后也会需要使用equals方法判断是否相等,然后进行相关存储和取出操作