哈希:可以将任意长度的输入,通过散列算法,转化成固定长度的输出,这个输出称为哈希值。
哈希表:固定长度的数组。
散列算法(哈希):建立 数据的关键字 (key)和 数据在数组中的存放位置(即index)的关系的方法。
在HashMap中,对应的散列算法为:
index = hash(key) & (arr.length - 1)
哈希冲突:当不同key通过哈希函数,得到的index是一样的,称为哈希冲突。
解决哈希冲突的方法:
其中HashMap使用解决hash冲突的方法是链地址法。
HashMap的本质是一个Node数组和链表及红黑树的组合。Node 实现了Map.Entry接口,每次调用hashMap.put方法时,就是 创建一个Node,放在根据key的hashCode计算出来的index上。如果存在hash冲突,就会在index的位置创建一个链表。而当链表的长度>8时,会将链表转成红黑树以提高查找效率。所以HashMap的查询,插入的时间复杂度都是o(1)。
transient Node<K,V>[] table;
Node的基本结构:存储hash,key和value。
- static class Node<K,V> implements Map.Entry<K,V> {
- final int hash;
- final K key;
- V value;
- Node<K,V> next;
- }
一些常见的常量:
- static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;// 数组默认初始容量16
- static final int MAXIMUM_CAPACITY = 1 << 30;// 数组最大容量2^30
- static final float DEFAULT_LOAD_FACTOR = 0.75f;// 默认的负载因子,即当size > CAPACITY *DEFAULT_LOAD_FACTOR时,进行扩容
- static final int TREEIFY_THRESHOLD = 8;// 解决hash冲突时,当链表长度> TREEIFY_THRESHOLD,就将链表转化成红黑树
再看HashMap中两个重要的属性:
- // The next size value at which to resize (capacity * load factor).
- int threshold;
- // The load factor for the hash table.
- final float loadFactor;
根据注释可以看出 threshold = capacity * loadFactor
capacity 是数组的容量。
loadFactor 又叫负载因子,默认是DEFAULT_LOAD_FACTOR(0.75)。当创建Node的个数大于容量 * loadFactor时,就会进行扩容。
可能有人会问,既然都可以使用链表或红黑树去解决哈希冲突了,那就代表无论往数组里放多少个元素,都可以放得下。那为什么还需要扩容呢?
因为HashMap的生命力在于查询速度,虽然可以解决哈希冲突,但也代表查找元素的速度变慢了。所以需要进行数组扩容,减少哈希冲突,提高查询速度。
下面再看下在代码中,是怎么初始化这两个变量(threshold和loadFactor)的?它是不是按它说的做了(--> _-->)?
当调用put方法的时候,会调用putVal方法。
当tab == null,会调用resize方法。可以从resize方法看到对loadFactor,threshold等全局变量的初始化。
- final Node<K,V>[] resize() {// 扩容的方法,这里只用来解释loadFactor和threshold的意思,详细的后面再讲。
- Node<K,V>[] oldTab = table;
- int oldCap = (oldTab == null) ? 0 : oldTab.length;
- int oldThr = threshold;
- int newCap, newThr = 0;
- if (oldCap > 0) {/****/}
- else if (oldThr > 0) // initial capacity was placed in threshold
- newCap = oldThr;
- else {
- // 默认的初始化,会将数组长度newCap置为DEFAULT_INITIAL_CAPACITY:16,将newThr置为0.75*16=12,
- // newThr即threshold
- newCap = DEFAULT_INITIAL_CAPACITY;
- newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
- }
- if (newThr == 0) {
- float ft = (float)newCap * loadFactor;
- newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
- (int)ft : Integer.MAX_VALUE);
- }
- threshold = newThr;
- /****/
- return newTab;
- }
好的,从上面代码可以看出,确实是这么个关系,过。
散列算法的定义在第一段的时候已经说过了。就是根据hashcode计算index的方法。其实就是hashcode到index的映射。
一般映射方法也可以选用取余,即
index = hash % array.length
但是使用位运算会相对更迅速。因为数组长度会选择为2^n。所以当2^n-1以后,相当于一个n-1位的二进制全为1。这也是为什么数组长度需要是2^n的原因。
那么hash & (array.length - 1)就相当于取hash值二进制的后n-1位。
index = hash & (array.length - 1)
举个栗子:
假如数组长度为2^4 = 16,计算出来的hash值是01XXXXXXX1110,这时候通过2^4-1=15,转化为二进制为1111
hash & (array.length-1) 就可以只取hash值的后四位,并且index一定是< array.length的。
这种方法,既保证了速率,又保证了数组不越界,简直完美。
下面这个图是这个散列算法对应的代码。
put方法,前面说过,实际就是新建一个node放到key对应的index位置上去。如果存在哈希冲突(即index上已经有node了),就创建链表,必要时,将链表转成红黑树。
看下实际的代码
- // HashMap.java
- public V put(K key, V value) {
- return putVal(hash(key), key, value, false, true);// 对key求hash
- }
-
- final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
- boolean evict) {
- Node<K,V>[] tab; Node<K,V> p; int n, i;
- if ((tab = table) == null || (n = tab.length) == 0)// table为空,则新建一个table
- n = (tab = resize()).length;
- if ((p = tab[i = (n - 1) & hash]) == null)// 如果table[i] == null,直接新建一个节点
- tab[i] = newNode(hash, key, value, null);// 这个情况下e == null,后面mod++,resize
- else {
- Node<K,V> e; K k;
- if (p.hash == hash &&
- ((k = p.key) == key || (key != null && key.equals(k))))// 如果key相同,替换
- e = p;
- else if (p instanceof TreeNode) // 如果是树节点,putTree
- e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
- else {// 否则,是一个链表
- for (int binCount = 0; ; ++binCount) {
- if ((e = p.next) == null) {// 如果找到链表的最后都还没有找到这个key,这里也会导致e==null
- p.next = newNode(hash, key, value, null);// 就新建一个节点
- if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st,
- // 建完节点后,看链表的节点有没有超过阈值,默认TREEIFY_THRESHOLD=8
- treeifyBin(tab, hash);
- break;
- }
- if (e.hash == hash &&
- ((k = e.key) == key || (key != null && key.equals(k))))
- // 找到之后,找到的节点e
- break;
- p = e;
- }
- }
- if (e != null) { // existing mapping for key-->这里意味着map当中存在这个key,只要map存在这个key,size就不会++
- V oldValue = e.value;
- if (!onlyIfAbsent || oldValue == null)
- e.value = value;// 链表中找到的节点,在这里替换成新的值,直接替换,所以不
- // 会走resize
- afterNodeAccess(e);// 这个是给LinkedHashMap用的,存在这个key,调用afterNodeAccess,不存在,就调用下面的afterNodeInsertion
- return oldValue;
- }
- }
- ++modCount;
- if (++size > threshold)
- resize();
- afterNodeInsertion(evict);
- return null;
- }
所以对上面的代码做一个总结就是:
再次总结一下put方法
(这个图画得太好了,引用一下)
图来源:Java 8系列之重新认识HashMap - 美团技术团队
从上面的总结可以看出,HashMap另一个重要的方法,就是扩容。所以...
对于扩容,前面说过,扩容是为了减少哈希冲突,提升查询效率。
那么扩容的过程应该是怎样的?很容易想到,扩容就是扩大数组的大小。扩大大小的话,又不能在原来数组上追加,那就只好新建一个更大的数组了。那建更大的数组,原来数组的元素怎么办呢?它们应该移到新数组的哪个位置上去?
扩容之后,计算原数组中的元素(包括链表及树)在新数组中的位置的过程称为rehash。
原数组的index计算过程为
index = hash(key) & (arr.length - 1)
那么新数组扩容2倍之后,按道理hash的过程是不应该变的。确实,rehash的方法没变,但是速度上可以做提升吗?
我们知道,原数组长度为16,对应二进制10000,取的index为hash值的后4位。扩容两倍后,原数组长度变成32,对应二进制100000,arr.length - 1为11111。即取hash值后5位。
比如hash值计算出来为000..11011。那原数组计算出来的index为1011。新的数组index为11011。
11011 = 1011+10000
这里的10000就是原数组的长度。即newIndex = oldIndex + oldArr.length
但如果hash计算出来为000...01011。这时候newIndex = oldIndex + 0
从上面的推导过程可以推出一个结论:
newIndex = oldIndex + (hash & oldArr.length == 0? 0 : oldArr.length)
明白这一点,就很容易看懂源码了。
- final Node<K,V>[] resize() {
- Node<K,V>[] oldTab = table;
- int oldCap = (oldTab == null) ? 0 : oldTab.length;
- int oldThr = threshold;
- int newCap, newThr = 0;
- if (oldCap > 0) {
- if (oldCap >= MAXIMUM_CAPACITY) {// 如果扩容前table长度已经大于MAX_VALUE,不创建
- threshold = Integer.MAX_VALUE;
- return oldTab;
- }
- else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
- oldCap >= DEFAULT_INITIAL_CAPACITY)// DEFAULT_INICIAL_CAPACITY = 16
- // 初始table的容量
- newThr = oldThr << 1; // double threshold
- }// threshold*2,capacity * 2
- else if (oldThr > 0) // initial capacity was placed in threshold
- newCap = oldThr;
- else { // zero initial threshold signifies using defaults
- newCap = DEFAULT_INITIAL_CAPACITY;
- newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
- }
- if (newThr == 0) {
- float ft = (float)newCap * loadFactor;
- newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
- (int)ft : Integer.MAX_VALUE);
- }
- /**这里往前都是值的初始化,即所有的值放大成原来的两倍,往下才是数组的迁移过程**/
- threshold = newThr;
- @SuppressWarnings({"rawtypes","unchecked"})
- // 创建一个新的数组了
- Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
- table = newTab;
- if (oldTab != null) {
- for (int j = 0; j < oldCap; ++j) {// 遍历旧数组,开始进行元素迁移
- Node<K,V> e;
- if ((e = oldTab[j]) != null) {
- oldTab[j] = null;
- if (e.next == null)// 如果链表只有一个值,直接新建一个node
- newTab[e.hash & (newCap - 1)] = e;
- else if (e instanceof TreeNode)// 树节点
- ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
- else { // preserve order 链表,保持链表的顺序
- // loHead,loTail可以理解为在j位置链表的head和tail(lo代指low)
- Node<K,V> loHead = null, loTail = null;
- // hiHead,hiTail可以理解为在j+oldLength位置链表的head和tail(hi代指high)
- Node<K,V> hiHead = null, hiTail = null;
- Node<K,V> next;
- do {
- next = e.next;
- // 以下这段if else即为rehash,重新计算Node在新table中的索引
- if ((e.hash & oldCap) == 0) {// 构建将在j位置的链表
- if (loTail == null)
- loHead = e;
- else
- loTail.next = e;
- loTail = e;
- }
- else {// 构建将在j+oldLength位置的链表
- if (hiTail == null)
- hiHead = e;
- else
- hiTail.next = e;
- hiTail = e;
- }
- } while ((e = next) != null);// 循环遍历原链表
- if (loTail != null) {// 将链表放进相应的位置
- loTail.next = null;
- newTab[j] = loHead;
- }
- if (hiTail != null) {
- hiTail.next = null;
- newTab[j + oldCap] = hiHead;
- }
- }
- }
- }
- }
- return newTab;
- }
总结一下扩容的过程:
后端---java中hashmap多线程并发问题详解_lbxxzt的博客-CSDN博客_hashmap多线程读
HashMap在jdk1.8以前会在get的时候触发死循环,原因是putVal的时候多线程resize的时候会导致循环链表
在jdk1.8及之后,会在treeify方法的时候触发死循环。
并发-HashMap在jdk1.8也会出现死循环 - xuwc - 博客园
HashMap死循环分析
要看遍历顺序,重要的就是看构建的Iterator。
- abstract class HashIterator {
- Node<K,V> next; // next entry to return
- Node<K,V> current; // current entry
- int expectedModCount; // for fast-fail
- int index; // current slot
-
- HashIterator() {
- expectedModCount = modCount;
- Node<K,V>[] t = table;
- current = next = null;
- index = 0;
- if (t != null && size > 0) { // advance to first entry
- // 因为HashMap是hash->index映射,并不是按顺序存储Node的,
- //所以,会出现,某些index没有Node的情况
- // 所以初始化的时候,寻找table中第一个不为空的节点
- do {} while (index < t.length && (next = t[index++]) == null);
- }
- }
-
- public final boolean hasNext() {
- return next != null;
- }
-
- final Node<K,V> nextNode() {
- Node<K,V>[] t;
- Node<K,V> e = next;
- if (modCount != expectedModCount)
- throw new ConcurrentModificationException();
- if (e == null)
- throw new NoSuchElementException();
- // 获取e.next,如果e.next!= null,则设置next = e.next,返回e
- // 如果e.next == null,证明这个index对应的链表或树已经遍历完毕,寻找下一个不为空的index节点
- if ((next = (current = e).next) == null && (t = table) != null) {
- do {} while (index < t.length && (next = t[index++]) == null);
- }
- return e;
- }
-
- public final void remove() {
- Node<K,V> p = current;
- if (p == null)
- throw new IllegalStateException();
- if (modCount != expectedModCount)
- throw new ConcurrentModificationException();
- current = null;
- K key = p.key;
- removeNode(hash(key), key, null, false, false);
- expectedModCount = modCount;
- }
- }
还是这张熟悉的图,如果按HashMap的遍历顺序,那遍历的顺序就应该是:
所以可以得出结论,因为HashMap的插入是没有顺序的,所以HashMap的遍历也是没有顺序的。
最后的最后,可能会有人问,假如我想使用一个可以记录插入顺序的HashMap呢?
答案就是LinkedHashMap。
下一篇讲解为什么LinkedHashMap可以记录插入顺序。