下载链接:https://www.xibaopan.com/i/ZQ0fee9b724Xv
import org.junit.Test;
import java.util.HashMap;
import java.util.Map;
/**
* 一、Map的实现类的结构:
* |----Map:双列数据,存储key-value对的数据 ---类似于高中的函数:y = f(x)
* |----HashMap:作为Map的主要实现类;线程不安全的,效率高;存储null的key和value
* |----LinkedHashMap:保证在遍历map元素时,可以按照添加的顺序实现遍历。
* 原因:在原有的HashMap底层结构基础上,添加了一对指针,指向前一个和后一个元素。
* 对于频繁的遍历操作,此类执行效率高于HashMap。
* |----TreeMap:保证按照添加的key-value对进行排序,实现排序遍历。此时考虑key的自然排序或定制排序
* 底层使用红黑树
* |----Hashtable:作为古老的实现类;线程安全的,效率低;不能存储null的key和value
* |----Properties:常用来处理配置文件。key和value都是String类型
*
*
* HashMap的底层:数组+链表 (jdk7及之前)
* 数组+链表+红黑树 (jdk 8)
*
* 面试题:
* 1. HashMap的底层实现原理?
* 2. HashMap 和 Hashtable的异同?
* 3. CurrentHashMap 与 Hashtable的异同?(暂时不讲)
*
*/
public class MapTest {
@Test
public void test(){
Map map = new HashMap();
// map = new Hashtable();
map.put(null,123);
}
}
Map
与Collection
并列存在。用于保存具有映射关系的数据:key-value
Map
中的key
和value
都可以是任何引用类型的数据Map
中的key
用Set
来存放,不允许重复,即同一个Map
对象所对应的类,须重写hashCode()
和equals()
方法String
类作为Map
的“键”key
和value
之间存在单向一对一关系,即通过指定的key
总能找到唯一的、确定的value
Map
接口的常用实现类:HashMap、TreeMap、LinkedHashMap
和Properties
。其中,HashMap
是Map
接口使用频率最高的实现类 /**
* 二、Map结构的理解:
* Map中的key:无序的、不可重复的,使用Set存储所有的key ---> key所在的类要重写equals()和hashCode() (以HashMap为例)
* Map中的value:无序的、可重复的,使用Collection存储所有的value --->value所在的类要重写equals()
* 一个键值对:key-value构成了一个Entry对象。
* Map中的entry:无序的、不可重复的,使用Set存储所有的entry
*
*/
HashMap
是Map
接口使用频率最高的实现类。null
键和null
值,与HashSet
一样,不保证映射的顺序。key
构成的集合是Set
:无序的、不可重复的。所以,key
所在的类要重写:equals()
和hashCode()
value
构成的集合是Collection
:无序的、可以重复的。所以,value
所在的类要重写:equals()
key-value
构成一个entry
entry
构成的集合是Set
:无序的、不可重复的HashMap
判断两个key
相等的标准是:两个key
通过equals()
方法返回true
,hashCode
值也相等。HashMap
判断两个value
相等的标准是:两个value
通过equals()
方法返回true
。JDK 7及以前版本:HashMap是数组+链表结构(即为链地址法)
JDK 8版本发布以后:HashMap是数组+链表+红黑树实现。
HashMap源码中的重要常量
/*
* DEFAULT_INITIAL_CAPACITY : HashMap的默认容量,16
* DEFAULT_LOAD_FACTOR:HashMap的默认加载因子:0.75
* threshold:扩容的临界值,=容量*填充因子:16 * 0.75 => 12
* TREEIFY_THRESHOLD:Bucket中链表长度大于该默认值,转化为红黑树:8
* MIN_TREEIFY_CAPACITY:桶中的Node被树化时最小的hash表容量:64
*/
HashMap的
内部存储结构其实是数组和链表的结合。当实例化一个HashMap
时,系统会创建一个长度为Capacity
的Entry
数组,这个长度在哈希表中被称为容量(Capacity
),在这个数组中可以存放元素的位置我们称之为“桶”(bucket
),每个bucket
都有自己的索引,系统可以根据索引快速的查找bucket
中的元素。bucket
中存储一个元素,即一个Entry
对象,但每一个Entry
对象可以带一个引用变量,用于指向下一个元素,因此,在一个桶中,就有可能生成一个Entry
链。而且新添加的元素作为链表的head
。HashMap
中添加entry1(key,value)
,需要首先计算entry1
中key
的哈希值(根据key
所在类的hashCode()
计算得到),此哈希值经过处理以后,得到在底层Entry[]
数组中要存储的位置i
。i
上没有元素,则entry1
直接添加成功。i
上已经存在entry2
(或还有链表存在的entry3,entry4
),则需要通过循环的方法,依次比较entry1
中key
的hash
值和其他的entry
的hash
值。hash
值不同,则直接添加成功。hash
值相同,继续比较二者是否equals
。如果返回值为true
,则使用entry1
的value
去替换equals
为true
的entry
的value
。equals
返回都为false
,则entry1
仍可添加成功。entry1
指向原有的entry
元素。/*
* 三、HashMap的底层实现原理?以jdk7为例说明:
* HashMap map = new HashMap():
* 在实例化以后,底层创建了长度是16的一维数组Entry[] table。
* ...可能已经执行过多次put...
* map.put(key1,value1):
* 首先,调用key1所在类的hashCode()计算key1哈希值,此哈希值经过某种算法计算以后,得到在Entry数组中的存放位置。
* 如果此位置上的数据为空,此时的key1-value1添加成功。 ----情况1
* 如果此位置上的数据不为空,(意味着此位置上存在一个或多个数据(以链表形式存在)),比较key1和已经存在的一个或多个数据
* 的哈希值:
* 如果key1的哈希值与已经存在的数据的哈希值都不相同,此时key1-value1添加成功。----情况2
* 如果key1的哈希值和已经存在的某一个数据(key2-value2)的哈希值相同,继续比较:调用key1所在类的equals(key2)方法,比较:
* 如果equals()返回false:此时key1-value1添加成功。----情况3
* 如果equals()返回true:使用value1替换value2。
*
* 补充:关于情况2和情况3:此时key1-value1和原来的数据以链表的方式存储。
*
* 在不断的添加过程中,会涉及到扩容问题,当超出临界值(且要存放的位置非空)时,扩容。默认的扩容方式:扩容为原来容量的2倍,并将原有的数据复制过来。
*
*/
/**
* HashMap的扩容
* 当HashMap中的元素越来越多的时候,hash冲突的几率也就越来越高,
* 因为数组的长度是固定的。所以为了提高查询的效率,
* 就要对HashMap的数组进行扩容,而在HashMap数组扩容之后,
* 最消耗性能的点就出现了:原数组中的数据必须重新计算其在新数组中的位置,
* 并放进去,这就是resize。
*
* 那么HashMap什么时候进行扩容呢?
* 当HashMap中的元素个数超过数组大小(数组总大小length,
* 不是数组中个数size)*loadFactor时,就 会 进 行 数 组 扩 容,
* loadFactor的默认值(DEFAULT_LOAD_FACTOR)为0.75,这是一个折中的取值。
* 也就是说,默认情况下,数组大小(DEFAULT_INITIAL_CAPACITY)为16,
* 那么当HashMap中元素个数超过16*0.75=12(这个值就是代码中的threshold值,
* 也叫做临界值)的时候,就把数组的大小扩展为2*16=32,即扩大一倍,
* 然后重新计算每个元素在数组中的位置,而这是一个非常消耗性能的操作,
* 所以如果我们已经预知HashMap中元素的个数,
* 那么预设元素的个数能够有效的提高HashMap的性能。
*/
HashMap
的内部存储结构其实是数组+链表+红黑树的结合。当实例化一个HashMap
时,会初始化initialCapacity
和loadFactor
,在put
第一对映射关系时,系统会创建一个长度为initialCapacity
的Node
数组,这个长度在哈希表中被称为容量(Capacity
),在这个数组中可以存放元素的位置我们称之为“桶”(bucket
),每个bucket
都有自己的索引,系统可以根据索引快速的查找bucket
中的元素
每个bucket
中存储一个元素,即一个Node
对象,但每一个Node
对象可以带一个引用变量next
,用于指向下一个元素,因此,在一个桶中,就有可能生成一个Node
链。也可能是一个一个TreeNode
对象,每一个TreeNode
对象可以有两个叶子结点left
和right
,因此,在一个桶中,就有可能生成一个TreeNode
树。而新添加的元素作为链表的last
,或树的叶子结点。
那么HashMap什么时候进行扩容和树形化呢?
当HashMap
中的元素个数超过数组大小(数组总大小length,不是数组中个数size)*loadFactor
时,就会进行数组扩容,loadFactor
的默认值(DEFAULT_LOAD_FACTOR)为0.75
,这是一个折中的取值。也就是说,默认情况下,数组大小(DEFAULT_INITIAL_CAPACITY)为16,那么当HashMap中元素个数超过16*0.75=12
(这个值就是代码中的threshold
值,也叫做临界值)的时候,就把数组的大小扩展为2*16=32
,即扩大一倍,然后重新计算每个元素在数组中的位置,而这是一个非常消耗性能的操作,所以如果我们已经预知HashMap
中元素的个数,那么预设元素的个数能够有效的提高HashMap
的性能。
当HashMap
中的其中一个链的对象个数如果达到了8
个,此时如果capacity
没有达到64
,那么HashMap
会先扩容解决,如果已经达到了64
,那么这个链会变成红黑树,结点类型由Node
变成TreeNode
类型。当然,如果当映射关系被移除后,下次resize
方法时判断树的结点个数低于6
个,也会把红黑树再转为链表。
关于映射关系的key
是否可以修改?answer:不要修改
映射关系存储到HashMap
中会存储key
的hash
值,这样就不用在每次查找时重新计算每一个Entry
或Node(TreeNode)
的hash
值了,因此如果已经put
到Map
中的映射关系,再修改key
的属性,而这个属性又参与hashcode
值的计算,那么会导致匹配不上。