HashMap,一个大小厂都会问的知识点。下面结合网上搜罗的一些信息,整理出一份比较全面的Hashmap相关面试资料:
- HashMap与HashTable的区别?
主要区别有三点:线程安全性,同步,以及速度。
HashTable是线程安全的,而HashMap不是;
HashMap中允许存在null键和null值,而HashTable中不允许
单线程环境下HashMap的速度快。多线程环境下,java 5提供了ConcurrentHashmap,它是HashTable的替代,比HashTable的扩展性更好。
2.HashMap的工作原理是什么?or HashMap的get()方法工作原理?
HashMap基于hashing原理,我们通过put()和get()方法储存和获取对象。当我们将键值对传递给put()方法时,它调用键对象的hashCode()方法来计算hashcode,让后找到bucket位置来储存值对象。当获取对象时,通过键对象的equals()方法找到正确的键值对,然后返回值对象。HashMap使用LinkedList来解决碰撞问题,当发生碰撞了,对象将会储存在LinkedList的下一个节点中。 HashMap在每个LinkedList节点中储存键值对对象。
3.两个对象的hashcode相同时会发生什么?
因为hashcode相同,所以它们的bucket位置相同,‘碰撞’会发生。它们会储存在同一个bucket位置的LinkedList中。键对象的equals()方法用来找到键值对。
4.两个键的hashcode相同时,如何获取值对象?
当我们调用get()方法,HashMap会使用键对象的hashcode找到bucket位置,然后获取值对象。如果有两个值对象储存在同一个bucket,会调用keys.equals()方法遍历LinkedList,直到找到正确的节点,最终找到要找的值对象。
5.如果HashMap的大小超过了负载因子定义的容量怎么办?
默认的负载因子大小为0.75,也就是说,当一个map填满了75%的bucket时候,和其它集合类(如ArrayList等)一样,将会创建原来HashMap大小的两倍的bucket数组,来重新调整map的大小,并将原来的对象放入新的bucket数组中。这个过程叫作rehashing,因为它调用hash方法找到新的bucket位置。
6.多线程环境下,重新调整HashMap大小存在什么问题?
多线程环境下,当重新调整HashMap大小的时候,存在条件竞争,因为如果两个线程都发现HashMap需要重新调整大小了,它们会同时试着调整大小。在调整大小的过程中,存储在LinkedList中的元素的次序会反过来,因为移动到新的bucket位置的时候,HashMap并不会将元素放在LinkedList的尾部,而是放在头部,这是为了避免尾部遍历(tail traversing)。如果条件竞争发生了,那么就死循环了。
所在,不能在多线程环境下使用Hashmap。
7.为什么String, Interger这样的wrapper类适合作为键?
如果两个不相等的对象返回不同的hashcode的话,那么碰撞的几率就会小些,这样就能提高HashMap的性能,也就适合做Hashmap的键。因为获取对象的时候要用到equals()和hashCode()方法,键对象正确的重写这两个方法是非常重要的。
因此,String,Interger这样的wrapper类作为HashMap的键是再适合不过了,而且String最为常用。因为String是不可变的,也是final的,而且已经重写了equals()和hashCode()方法了。其他的wrapper类也有这个特点。不可变性是必要的,因为为了要计算hashCode(),就要防止键值改变,如果键值在放入时和获取时返回不同的hashcode的话,那么就不能从HashMap中找到你想要的对象。
8.可以用自定义对象作为键吗?
这是前一个问题的延伸。当然你可能使用任何对象作为键,只要它遵守了equals()和hashCode()方法的定义规则,并且当对象插入到Map中之后将不会再改变了。如果这个自定义对象时不可变的,那么它已经满足了作为键的条件,因为当它创建之后就已经不能改变了。
9.可以使用CocurrentHashMap来代替HashTable吗?
可以。我们知道HashTable是synchronized的,但是ConcurrentHashMap同步性能更好,因为它仅仅根据同步级别对map的一部分进行上锁。ConcurrentHashMap当然可以代替HashTable,但是HashTable提供更强的线程安全性,效率要低。
10.能否让HashMap同步?
Hashmap可以通过下面的语句进行同步:
Map map = Collections.synchronizedMap(hashmap);
Collections 内部有一个实现了 Map 接口的 SynchronizedMap 内部类,这是一个实现线程同步的 map 类,具体线程同步就是在所有的方法实现中都使用 synhronized 块达到线程同步,不过具体的方法实现统统使用 synchronizedMap 方法传递进去 map 来完成。里面的实现是典型的装饰模式。
11.ConcurrentHashMap的并发机制?
ConcurrentHashMap 引入了分段锁的机制,该机制对并发控制做了优化 。
ConcurrentHashMap是支持并发读写的HashMap,它的特点是读取数据时无需加锁,写数据时可以保证加锁粒度尽可能的小。由于其内部采用“分段存储”,只需对要进行写操作的数据所在的“段”进行加锁。
ConcurrentHashMap 类中包含两个静态内部类 HashEntry 和 Segment。HashEntry 用来封装映射表的键 / 值对;Segment 用来充当锁的角色,每个 Segment 对象守护整个散列映射表的若干个桶。每个桶是由若干个 HashEntry 对象链接起来的链表。一个 ConcurrentHashMap 实例中包含由若干个 Segment 对象组成的数组。
通过减小请求同一个锁的频率和尽量减少持有锁的时间 ,使得 ConcurrentHashMap 的并发性相对于 HashTable 和用同步包装器包装的 HashMap有了质的提高。
===========================更正============================
1.上面的HashMap是基于JDK1.8之前的,1.8的下次分析后单独补上。
2.ArrayList扩容原理。翻看了下源码,当调用add()方法之后,会先判断是否存满了,如果满了,最终会调用如下方法进行扩容:
private static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
private void grow(int minCapacity) {
// overflow-conscious code
int oldCapacity = elementData.length;
int newCapacity = oldCapacity + (oldCapacity >> 1);
if (newCapacity - minCapacity < 0)
newCapacity = minCapacity;
if (newCapacity - MAX_ARRAY_SIZE > 0)
newCapacity = hugeCapacity(minCapacity);
// minCapacity is usually close to size, so this is a win:
elementData = Arrays.copyOf(elementData, newCapacity);
}
由上面可知,newCapacity = oldCapacity + (oldCapacity >> 1);这个是新的容量是原来的1.5倍,即初始是10,经过一次扩容后变为15。
本文原创发布于公众号《Android面试专栏》,欢迎搜索关注!也欢迎大家留言投稿!
动动手指吧 _