[关闭]
@w1992wishes 2018-05-10T09:35:50.000000Z 字数 14834 阅读 1647

java容器源码分析--HashMap(JDK1.8)

JAVA_java容器 源码分析


本篇结构:

一、前言

HashMap在日常软件开发中用得很多,它很方便,使用也简单,这样一个经常陪在我们身边的容器对象,当然应该好好研究一下啦,毕竟了解了本质,才能更好的相处。这和日常处朋友是一样的。

二、数据结构

2.1、基本数据结构

数据结构的知识是薄弱环节,这里就只简单介绍下HashMap的结构。

在JDK1.8之前,HashMap的实现是基于数组+链表的形式,当往一个HashMap中放数据时,根据key计算得到hashCode,经过进一步处理得到数组(Hash表)的下标,然后存放数据。

如果存在两个key,计算出相同的数组下标,即出现hash冲突,这时就通过一个链表来维持这个关系,后put的值放在链表的尾部。

大致是这样的结构:

为解决哈希碰撞后出现链表过程导致索引效率变慢的问题,JDK1.8之后引入了红黑树(链表的时间复杂度是O(n),红黑树为O(logn)),当链表长度大于8后,链表转为红黑树

ps:漫画算法:什么是红黑树?

2.2、HashMap数组元素和链表的节点

HashMap中存的是Key-Valve键值对。

1.数组元素和链表节点是采用Node类实现

Node类是HashMap中的一个静态内部类,实现了Map.Entry接口(在JDK1.8之前,是采用Entry类实现)。

可以看看Node类的源码:

  1. static class Node<K,V> implements Map.Entry<K,V> {
  2. final int hash; // 哈希值,HashMap根据该值确定记录的位置
  3. final K key; // key
  4. V value; // value
  5. Node<K,V> next; // 链表下一个节点
  6. Node(int hash, K key, V value, Node<K,V> next) {
  7. this.hash = hash;
  8. this.key = key;
  9. this.value = value;
  10. this.next = next;
  11. }
  12. public final K getKey() { return key; }
  13. public final V getValue() { return value; }
  14. public final String toString() { return key + "=" + value; }
  15. public final int hashCode() {
  16. return Objects.hashCode(key) ^ Objects.hashCode(value);
  17. }
  18. public final V setValue(V newValue) {
  19. V oldValue = value;
  20. value = newValue;
  21. return oldValue;
  22. }
  23. // 判断2个Node是否相等的依据是Key和Value都相等
  24. public final boolean equals(Object o) {
  25. if (o == this)
  26. return true;
  27. if (o instanceof Map.Entry) {
  28. Map.Entry<?,?> e = (Map.Entry<?,?>)o;
  29. if (Objects.equals(key, e.getKey()) &&
  30. Objects.equals(value, e.getValue()))
  31. return true;
  32. }
  33. return false;
  34. }
  35. }

2.红黑树节点是采用TreeNode类实现

TreeNode也是HashMap的静态内部类,继承LinkedHashMap.Entry,简单列下TreeNode中的属性:

  1. static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
  2. TreeNode<K,V> parent; // 父节点
  3. TreeNode<K,V> left; // 左子树
  4. TreeNode<K,V> right; // 右子树
  5. TreeNode<K,V> prev; // needed to unlink next upon deletion
  6. boolean red; //颜色
  7. TreeNode(int hash, K key, V val, Node<K,V> next) {
  8. super(hash, key, val, next);
  9. }
  10. /**
  11. * Returns root of tree containing this node.
  12. */
  13. final TreeNode<K,V> root() {
  14. for (TreeNode<K,V> r = this, p;;) {
  15. if ((p = r.parent) == null)
  16. return r;
  17. r = p;
  18. }
  19. }
  20. ...
  21. }

三、常用方法及遍历选择

V get(Object key); // 获得指定键的值
V put(K key, V value); // 添加键值对
void putAll(Map m); // 将指定Map中的键值对 复制到此Map中
V remove(Object key); // 删除该键值对
boolean containsKey(Object key); // 判断是否存在该键的键值对;是 则返回true boolean
containsValue(Object value); // 判断是否存在该值的键值对;是 则返回true
Set keySet(); // 单独抽取key序列,将所有key生成一个Set
Collection values(); // 单独value序列,将所有value生成一个Collection
void clear(); // 清除哈希表中的所有键值对
int size(); // 返回哈希表中所有键值对的数量 = 数组中的键值对 + 链表中的键值对
boolean isEmpty(); // 判断HashMap是否为空;size == 0时 表示为空

  1. public class HashMapTest {
  2. public static void main(String[] args) {
  3. // 1. new
  4. Map<String, Integer> map = new HashMap<String, Integer>();
  5. // 2. put
  6. map.put("Android", 1);
  7. map.put("Java", 2);
  8. map.put("iOS", 3);
  9. // 3. get
  10. System.out.println("key = Java:" + map.get("Java"));
  11. // 4. 遍历HashMap ------------ start
  12. // 核心思想:
  13. // 步骤1:获得key-value对(Entry) 或 key 或 value的Set集合
  14. // 步骤2:遍历上述Set集合(使用for循环 、 迭代器(Iterator)均可)
  15. // 方法共有3种:分别针对 key-value对(Entry) 或 key 或 value
  16. // 4.1:获得key-value的Set集合,再遍历
  17. iterate1(map);
  18. // 4.2:获得key的Set集合,再遍历
  19. iterator2(map);
  20. // 方法3:获得value的Set集合,再遍历
  21. iterator3(map);
  22. // 4. 遍历HashMap ------------ end
  23. }
  24. /**
  25. * 获得key-value的Set集合,再遍历
  26. * @param map
  27. */
  28. static void iterate1(Map<String, Integer> map){
  29. System.out.println("method 1: iterate Set<Entry<K, V>> start..........");
  30. // 1.获得key-value对(Entry)的Set集合
  31. Set<Map.Entry<String, Integer>> entrySet = map.entrySet();
  32. // 2.遍历Set集合,从而获取key-value
  33. // 3.for循环
  34. for(Map.Entry<String, Integer> entry : entrySet){
  35. System.out.print(entry.getKey());
  36. System.out.println(entry.getValue());
  37. }
  38. System.out.println("method 1: iterate Set<Entry<K, V>> end..........");
  39. }
  40. /**
  41. * 获得key的Set集合,再遍历
  42. * @param map
  43. */
  44. static void iterator2(Map<String, Integer> map){
  45. System.out.println("method 2: iterate Set<Key> start..........");
  46. // 1.获得key的Set集合
  47. Set<String> keySet = map.keySet();
  48. // 2.遍历Set集合,从而获取key,再获取value
  49. // 3.for循环
  50. for(String key : keySet){
  51. System.out.print(key);
  52. System.out.println(map.get(key));
  53. }
  54. System.out.println("method 2: iterate Set<Key> end..........");
  55. }
  56. /**
  57. * 获得value的Set集合,再遍历
  58. * @param map
  59. */
  60. static void iterator3(Map<String, Integer> map){
  61. System.out.println("method 3: iterate Set<Value> start..........");
  62. // 1. 获得value的Set集合
  63. Collection valueSet = map.values();
  64. // 2. 遍历Set集合,从而获取value
  65. // 2.1 获得values 的Iterator
  66. Iterator iter = valueSet.iterator();
  67. // 2.2 通过遍历,直接获取value
  68. while (iter.hasNext()) {
  69. System.out.println(iter.next());
  70. }
  71. System.out.println("method 3: iterate Set<Value> end..........");
  72. }
  73. }

对于遍历方式,具体的情况有不同的选择:

  1. 如果只是遍历key,使用keySet是最好的选择,遍历Map.Entry效率相差不大;
  2. 如果只遍历Value,遍历Map.Entry和valueSet都可,而通过keySet的方式效率会稍差,因为要通过get(key)的方式获取value(get的时间复杂度取决于for循环的次数),会多出一部分消耗;
  3. 如果既要Key,又要Value,遍历Map.Entry。

四、重要参数

  1. // 默认容量16(1<<4 = 00001中的1向左移4位 = 10000 = 十进制的2^4=16)
  2. static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
  3. // 最大容量 = 2的30次方
  4. static final int MAXIMUM_CAPACITY = 1 << 30;
  5. // 实际加载因子
  6. final float loadFactor;
  7. // 默认加载因子 = 0.75
  8. static final float DEFAULT_LOAD_FACTOR = 0.75f;
  9. // 空的存储实体
  10. transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;
  11. // 扩容阈值(threshold):当哈希表的大小 ≥ 扩容阈值时,就会扩容哈希表(即扩充HashMap的容量)
  12. // a. 扩容 = 对哈希表进行resize操作(即重建内部数据结构),从而哈希表将具有大约两倍的桶数
  13. // b. 扩容阈值 = 容量 x 加载因子
  14. int threshold;
  15. // 存储数据的Node类型数组,长度 = 2的幂;数组的每个元素 = 1个单链表
  16. transient Node<K,V>[] table;
  17. // HashMap中存储的键值对的数量
  18. transient int size;
  19. //用于快速失败,由于HashMap非线程安全,在对HashMap进行迭代时,如果期间其他线程的参与导致HashMap的结构发生变化了(比如put,remove等操作),需要抛出异常ConcurrentModificationException
  20. transient int modCount;
  21. /**
  22. * 与红黑树相关的参数
  23. */
  24. // 1. 桶的树化阈值:即 链表转成红黑树的阈值,在存储数据时,当链表长度 > 该值时,则将链表转换成红黑树
  25. static final int TREEIFY_THRESHOLD = 8;
  26. // 2. 桶的链表还原阈值:即 红黑树转为链表的阈值,当在扩容(resize())时(此时HashMap的数据存储位置会重新计算),在重新计算存储位置后,当原有的红黑树内数量 < 6时,则将 红黑树转换成链表
  27. static final int UNTREEIFY_THRESHOLD = 6;
  28. // 3. 最小树形化容量阈值:即 当哈希表中的容量 > 该值时,才允许树形化链表 (即 将链表 转换成红黑树)
  29. // 否则,若桶内元素太多时,则直接扩容,而不是树形化
  30. // 为了避免进行扩容、树形化选择的冲突,这个值不能小于 4 * TREEIFY_THRESHOLD
  31. static final int MIN_TREEIFY_CAPACITY = 64;

五、源码分析

5.1、构造方法

在常规构造器中,并没有马上为数组table分配内存空间(有一个入参为指定Map的构造器例外),事实上是在执行第一次put操作的时候才真正构建table数组。

先看看如何实例化一个HashMap:

  1. public class HashMapConstructor {
  2. public static void main(String[] args) {
  3. Map<String, String> map = constructorMap1();
  4. }
  5. static <K, V> Map<K, V> constructorMap1(){
  6. return new HashMap<>();
  7. }
  8. static <K, V> Map<K, V> constructorMap2(int capacity){
  9. // 实际上是调用指定“容量大小”和“加载因子”的构造函数
  10. return new HashMap<>(capacity);
  11. }
  12. static <K, V> Map<K, V> constructorMap3(int capacity, float loadFactor){
  13. return new HashMap<>(capacity, loadFactor);
  14. }
  15. static <K, V> Map<K, V> constructorMap4(Map<K, V> map){
  16. return new HashMap<>(map);
  17. }
  18. }

再来看具体的源码:

  1. /**
  2. * 构造函数1:默认构造函数(无参)
  3. * 加载因子 & 容量(默认) = 0.75、16
  4. */
  5. public HashMap() {
  6. this.loadFactor = DEFAULT_LOAD_FACTOR;
  7. }
  8. /**
  9. * 构造函数2:指定“容量大小”的构造函数
  10. * 加载因子(默认)= 0.75 、容量 = 指定大小
  11. * 注:此处不是真正的阈值,仅仅只是将传入的容量大小转化为:>传入容量大小的最小的2的幂,该阈值后面会重新计算
  12. */
  13. public HashMap(int initialCapacity) {
  14. // 实际上是调用指定“容量大小”和“加载因子”的构造函数
  15. // 只是在传入的加载因子参数 = 默认加载因子
  16. this(initialCapacity, DEFAULT_LOAD_FACTOR);
  17. }
  18. /**
  19. * 构造函数3:指定“容量大小”和“加载因子”的构造函数
  20. * 注:此处不是真正的阈值,仅仅只是将传入的容量大小转化为:>传入容量大 小的最小的2的幂,该阈值后面会重新计算
  21. */
  22. public HashMap(int initialCapacity, float loadFactor) {
  23. if (initialCapacity < 0)
  24. throw new IllegalArgumentException("Illegal initial capacity: " +
  25. initialCapacity);
  26. if (initialCapacity > MAXIMUM_CAPACITY)
  27. initialCapacity = MAXIMUM_CAPACITY;
  28. if (loadFactor <= 0 || Float.isNaN(loadFactor))
  29. throw new IllegalArgumentException("Illegal load factor: " +
  30. loadFactor);
  31. this.loadFactor = loadFactor;
  32. this.threshold = tableSizeFor(initialCapacity);
  33. }
  34. /**
  35. * 将传入的容量大小转化为:>大于传入容量大小的最小的2的幂
  36. */
  37. static final int tableSizeFor(int cap) {
  38. int n = cap - 1;
  39. n |= n >>> 1;
  40. n |= n >>> 2;
  41. n |= n >>> 4;
  42. n |= n >>> 8;
  43. n |= n >>> 16;
  44. return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
  45. }
  46. /**
  47. * 构造函数4:包含“子Map”的构造函数
  48. * 即 构造出来的HashMap包含传入Map的映射关系
  49. * 加载因子 & 容量(默认) = 0.75、16
  50. */
  51. public HashMap(Map<? extends K, ? extends V> m) {
  52. this.loadFactor = DEFAULT_LOAD_FACTOR;
  53. // 将传入的子Map中的全部元素逐个添加到HashMap中
  54. putMapEntries(m, false);
  55. }
  56. final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
  57. int s = m.size();
  58. if (s > 0) {
  59. // 判断table是否已经初始化
  60. if (table == null) { // pre-size
  61. // 未初始化,s为m的实际元素个数
  62. float ft = ((float)s / loadFactor) + 1.0F;
  63. int t = ((ft < (float)MAXIMUM_CAPACITY) ?
  64. (int)ft : MAXIMUM_CAPACITY);
  65. // 计算得到的t大于阈值,则初始化阈值
  66. if (t > threshold)
  67. threshold = tableSizeFor(t);
  68. }
  69. // 已初始化,并且m元素个数大于阈值,进行扩容处理
  70. else if (s > threshold)
  71. resize();
  72. // 将m中的所有元素添加至HashMap中
  73. for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
  74. K key = e.getKey();
  75. V value = e.getValue();
  76. putVal(hash(key), key, value, false, evict);
  77. }
  78. }
  79. }

5.2、put

  1. public V put(K key, V value) {
  2. return putVal(hash(key), key, value, false, true);
  3. }
  4. final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
  5. Node<K,V>[] tab; Node<K,V> p; int n, i;
  6. // 1.table未初始化或者长度为0,进行扩容
  7. // 这里可以发现初始化哈希表的时机 = 第1次调用put函数时,即调用resize() 初始化创建
  8. if ((tab = table) == null || (n = tab.length) == 0)
  9. n = (tab = resize()).length;
  10. // 2.计算插入存储的数组索引i:(n - 1) & hash
  11. // 3.取出数组中该索引处的元素(也是链表中的第一个Node元素),若为空,则直接在该数组位置新建节点,插入完毕
  12. if ((p = tab[i = (n - 1) & hash]) == null)
  13. tab[i] = newNode(hash, key, value, null);
  14. // 4.若不为空,即该索引处已经有节点元素存在,需判断是否有hash冲突
  15. else {
  16. Node<K,V> e; K k;
  17. // a.如果桶中第一个元素(即链表中的第一个节点,也即数组中的节点)和新加入的元素的hash值相等,key相等,会直接用新值替换旧值
  18. if (p.hash == hash &&
  19. ((k = p.key) == key || (key != null && key.equals(k))))
  20. // 将第一个元素赋值给e
  21. e = p;
  22. // b.若新插入的元素与桶中第一个元素hash值不相等,即key不相等,需判断是链表还是红黑树
  23. // 若为红黑树,调用相应方法加入
  24. else if (p instanceof TreeNode)
  25. // 放入树中
  26. e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
  27. // 若是为链表
  28. else {
  29. // 遍历链表
  30. for (int binCount = 0; ; ++binCount) {
  31. // (e = p.next) == null表示到达链表的尾部,如果成立,说明链表中没有节点的Key值和新加入的元素的Key值相同
  32. if ((e = p.next) == null) {
  33. // 在链表最末插入结点
  34. p.next = newNode(hash, key, value, null);
  35. // 结点数量达到阈值,转化为红黑树
  36. if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
  37. treeifyBin(tab, hash);
  38. // 跳出循环
  39. break;
  40. }
  41. // 判断链表中结点的key值与插入的元素的key值是否相等
  42. if (e.hash == hash &&
  43. ((k = e.key) == key || (key != null && key.equals(k))))
  44. // 相等,跳出循环
  45. break;
  46. // 用于遍历桶中的链表,与前面的e = p.next组合,可以遍历链表
  47. p = e;
  48. }
  49. }
  50. // 表示在桶中找到key值、hash值与插入元素相等的结点
  51. if (e != null) { // existing mapping for key
  52. V oldValue = e.value;
  53. if (!onlyIfAbsent || oldValue == null)
  54. //用新值替换旧值
  55. e.value = value;
  56. // 访问后回调,默认实现为空
  57. afterNodeAccess(e);
  58. // 返回旧值
  59. return oldValue;
  60. }
  61. }
  62. // 结构性修改,用于多线程时抛出异常
  63. ++modCount;
  64. if (++size > threshold)
  65. resize();
  66. afterNodeInsertion(evict); // 默认实现为空
  67. return null;
  68. }

put方法大致过程:

1.如果是第一次调用put,会先调用resize方法初始化table数组,默认容量16;
2.计算插入存储的数组索引i,判断该索引下数组是否有Node节点,若没有,直接插入;
3.若存在,需判断是否有hash冲突:
a.若新插入的Key和数组中该索引下的Node元素Key(链表中的第一个Node元素)相同(hash相同,Key也相同),则直接替换;
b.若新插入的Key与链表中的第一个Node元素Key不相同,就接着遍历,分链表和红黑树两种形式,都是存在就替换,不存在就加入;
4.插入成功后,判断实际存在的键值对数量size > 最大容量threshold,进而决定是否需要扩容。

5.3、get

  1. public V get(Object key) {
  2. Node<K,V> e;
  3. return (e = getNode(hash(key), key)) == null ? null : e.value;
  4. }
  5. final Node<K,V> getNode(int hash, Object key) {
  6. Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
  7. // table已经初始化,长度大于0,并且根据hash寻找table中的项(也即链表中的首节点)也不为空
  8. if ((tab = table) != null && (n = tab.length) > 0 &&
  9. (first = tab[(n - 1) & hash]) != null) {
  10. // 桶中第一项(数组元素)相等,直接返回
  11. if (first.hash == hash && // always check first node
  12. ((k = first.key) == key || (key != null && key.equals(k))))
  13. return first;
  14. // 否则遍历桶中的节点
  15. if ((e = first.next) != null) {
  16. // 为红黑树节点,在红黑树中查找
  17. if (first instanceof TreeNode)
  18. return ((TreeNode<K,V>)first).getTreeNode(hash, key);
  19. // 否则,在链表中查找
  20. do {
  21. if (e.hash == hash &&
  22. ((k = e.key) == key || (key != null && key.equals(k))))
  23. return e;
  24. } while ((e = e.next) != null);
  25. }
  26. }
  27. return null;
  28. }

5.4、resize

  1. final Node<K,V>[] resize() {
  2. // 保存之前table为old table
  3. Node<K,V>[] oldTab = table;
  4. // 保存之前table大小
  5. int oldCap = (oldTab == null) ? 0 : oldTab.length;
  6. // 保存之前table阈值
  7. int oldThr = threshold;
  8. int newCap, newThr = 0;
  9. // 之前table大小大于0
  10. if (oldCap > 0) {
  11. // 之前table大于最大容量
  12. if (oldCap >= MAXIMUM_CAPACITY) {
  13. // 阈值为最大整形,直接返回
  14. threshold = Integer.MAX_VALUE;
  15. return oldTab;
  16. }
  17. // 容量翻倍(使用左移,效率更高)后,小于最大容量
  18. else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
  19. oldCap >= DEFAULT_INITIAL_CAPACITY)
  20. // 阈值翻倍,使用左移,效率更高
  21. newThr = oldThr << 1; // double threshold
  22. }
  23. // 之前阈值大于0
  24. else if (oldThr > 0) // initial capacity was placed in threshold
  25. newCap = oldThr;
  26. // 之前容量oldCap = 0并且之前阈值oldThr = 0,使用缺省值(如使用HashMap()构造函数,之后再插入一个元素会调用resize函数,会进入这一步)
  27. else { // zero initial threshold signifies using defaults
  28. newCap = DEFAULT_INITIAL_CAPACITY;
  29. newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
  30. }
  31. // 新阈值为0
  32. if (newThr == 0) {
  33. float ft = (float)newCap * loadFactor;
  34. newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
  35. (int)ft : Integer.MAX_VALUE);
  36. }
  37. // 更新阈值
  38. threshold = newThr;
  39. @SuppressWarnings({"rawtypes","unchecked"})
  40. // 新初始化一个newCap容量大小的table
  41. Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
  42. // 更新table数组
  43. table = newTab;
  44. // 之前的table已经初始化过
  45. if (oldTab != null) {
  46. // 复制元素,重新进行hash
  47. for (int j = 0; j < oldCap; ++j) {
  48. Node<K,V> e;
  49. if ((e = oldTab[j]) != null) {
  50. oldTab[j] = null;
  51. if (e.next == null)
  52. newTab[e.hash & (newCap - 1)] = e;
  53. else if (e instanceof TreeNode)
  54. ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
  55. else { // preserve order
  56. Node<K,V> loHead = null, loTail = null;
  57. Node<K,V> hiHead = null, hiTail = null;
  58. Node<K,V> next;
  59. do {
  60. next = e.next;
  61. if ((e.hash & oldCap) == 0) {
  62. if (loTail == null)
  63. loHead = e;
  64. else
  65. loTail.next = e;
  66. loTail = e;
  67. }
  68. else {
  69. if (hiTail == null)
  70. hiHead = e;
  71. else
  72. hiTail.next = e;
  73. hiTail = e;
  74. }
  75. } while ((e = next) != null);
  76. if (loTail != null) {
  77. loTail.next = null;
  78. newTab[j] = loHead;
  79. }
  80. if (hiTail != null) {
  81. hiTail.next = null;
  82. newTab[j + oldCap] = hiHead;
  83. }
  84. }
  85. }
  86. }
  87. }
  88. return newTab;
  89. }

进行扩容,会伴随着一次重新hash分配,并且会遍历hash表中所有的元素,是非常耗时的。在编写程序中,要尽量避免resize。

六、疑问解答

6.1、HashMap的长度为什么要是2的n次方?

1.效率更高

一般利用hash码计算出一个数组的索引,常用方式是"h % length",也就是求余的方式,但这种方式效率不如位运算,恰好又有"当容量是2^n时,h & (length - 1) == h % length"。

2.更符合Hash算法均匀分布,减少碰撞

length-1的值是所有二进制位全为1,这种情况下,index 的结果等同于 HashCode 后几位的值,只要输入的 HashCode 本身分布均匀,Hash 算法的结果就是均匀的。

HashMap的长度为什么设置为2的n次方

6.2、modCount变量的作用

  1. public void forEach(BiConsumer<? super K, ? super V> action) {
  2. Node<K,V>[] tab;
  3. if (action == null)
  4. throw new NullPointerException();
  5. if (size > 0 && (tab = table) != null) {
  6. int mc = modCount;
  7. for (int i = 0; i < tab.length; ++i) {
  8. for (Node<K,V> e = tab[i]; e != null; e = e.next)
  9. action.accept(e.key, e.value);
  10. }
  11. if (modCount != mc)
  12. throw new ConcurrentModificationException();
  13. }
  14. }

从forEach循环中可以发现 modCount 参数的作用。就是在迭代器迭代Map中的元素时,不能编辑(增加,删除,修改)Map中的元素。如果在迭代时修改,则抛出ConcurrentModificationException异常。

6.3、为什么在计算数组下标前,需对哈希码进行二次处理:扰动处理?

  1. static final int hash(Object key) {
  2. int h;
  3. return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
  4. }

这是JDK1.8中根据Key计算hash值的方法,然后用这个hash值去计算数组下标(hash & (length-1)),观察上面的 hash 方法,发现并不是直接用 hashCode 与 length-1 做位运算,而是(h = key.hashCode()) ^ (h >>> 16),为什么这么处理?

是为了加大哈希码低位的随机性(因为 length 是2的n次方, length-1 的二进制全是1,这样同 hash 值与运算时,数组下标就取决于 hash 值的低位),使得分布更均匀,从而提高对应数组存储下标位置的随机性 & 均匀性,最终减少Hash冲突

6.4、为什么 HashMap 中 String、Integer 这样的包装类适合作为 key 键

因为String是不可变的,而且已经重写了equals()和hashCode()方法了。其他的包装类也有这个特点。

不可变性是必要的,因为为了要计算hashCode(),就要防止键值改变,如果键值在放入时和获取时返回不同的hashcode的话,那么就不能从HashMap中找到你想要的对象。

不可变性还有其他的优点如线程安全。如果可以仅仅通过将某个field声明成final就能保证hashCode是不变的,那么请这么做吧。因为获取对象的时候要用到equals()和hashCode()方法,那么键对象正确的重写这两个方法是非常重要的。如果两个不相等的对象返回不同的hashcode的话,那么碰撞的几率就会小些,这样就能提高HashMap的性能。

6.5、重新调整HashMap大小存在什么问题吗?

当多线程的情况下,可能产生条件竞争,如果两个线程都发现HashMap需要重新调整大小了,它们会同时试着调整大小。

JDK1.7中,在调整大小的过程中,存储在链表中的元素的次序会反过来,因为移动到新的bucket位置的时候,HashMap并不会将元素放在链表的尾部,而是放在头部,这是为了避免尾部遍历(tail traversing)。

此时若(多线程)并发执行 put()操作,一旦出现扩容情况,则 容易出现 环形链表,从而在获取数据、遍历链表时 形成死循环(Infinite Loop),即 死锁的状态。

JDK1.7相关扩容:

  1. void resize(int newCapacity) {
  2. // 1. 保存旧数组(old table)
  3. Entry[] oldTable = table;
  4. // 2. 保存旧容量(old capacity ),即数组长度
  5. int oldCapacity = oldTable.length;
  6. // 3. 若旧容量已经是系统默认最大容量了,那么将阈值设置成整型的最大值,退出
  7. if (oldCapacity == MAXIMUM_CAPACITY) {
  8. threshold = Integer.MAX_VALUE;
  9. return;
  10. }
  11. // 4. 根据新容量(2倍容量)新建1个数组,即新table
  12. Entry[] newTable = new Entry[newCapacity];
  13. // 5. (重点分析)将旧数组上的数据(键值对)转移到新table中,从而完成扩容 ->>分析1.1
  14. transfer(newTable);
  15. // 6. 新数组table引用到HashMap的table属性上
  16. table = newTable;
  17. // 7. 重新设置阈值
  18. threshold = (int)(newCapacity * loadFactor);
  19. }
  20. /**
  21. * 作用:将旧数组上的数据(键值对)转移到新table中,从而完成扩容
  22. * 过程:按旧链表的正序遍历链表、在新链表的头部依次插入
  23. */
  24. void transfer(Entry[] newTable) {
  25. // 1. src引用了旧数组
  26. Entry[] src = table;
  27. // 2. 获取新数组的大小 = 获取新容量大小
  28. int newCapacity = newTable.length;
  29. // 3. 通过遍历 旧数组,将旧数组上的数据(键值对)转移到新数组中
  30. for (int j = 0; j < src.length; j++) {
  31. // 3.1 取得旧数组的每个元素
  32. Entry<K, V> e = src[j];
  33. if (e != null) {
  34. // 3.2 释放旧数组的对象引用(for循环后,旧数组不再引用任何对象)
  35. src[j] = null;
  36. do {
  37. // 3.3 遍历 以该数组元素为首 的链表
  38. // 注:转移链表时,因是单链表,故要保存下1个结点,否则转移后链表会断开
  39. Entry<K, V> next = e.next;
  40. // 3.3 重新计算每个元素的存储位置
  41. int i = indexFor(e.hash, newCapacity);
  42. // 3.4 将元素放在数组上:采用单链表的头插入方式 = 在链表头上存放数据 = 将数组位置的原有数据放在后1个指针、将需放入的数据放到数组位置中
  43. // 即 扩容后,可能出现逆序:按旧链表的正序遍历链表、在新链表的头部依次插入
  44. e.next = newTable[i];
  45. newTable[i] = e;
  46. // 访问下1个Entry链上的元素,如此不断循环,直到遍历完该链表上的所有节点
  47. e = next;
  48. } while (e != null);
  49. // 如此不断循环,直到遍历完数组上的所有数据元素
  50. }
  51. }
  52. }

JDK 1.8 转移数据操作 = 按旧链表的正序遍历链表、在新链表的尾部依次插入,所以不会出现链表 逆序、倒置的情况,故不容易出现环形链表的情况。但 JDK 1.8 还是线程不安全,因为无加同步锁保护。

参考博文:

Java源码分析:关于 HashMap 1.8 的重大更新

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注