当前位置:   article > 正文

Java集合框架:HashMap

Java集合框架:HashMap

Java集合框架概述

  Java集合框架无论是在工作、学习、面试中都会经常涉及到,相信各位也并不陌生,其强大也不用多说,博主最近翻阅java集合框架的源码以及搜索一些相关资料整理出Java集合框架的系列。一方面是做一个总结,方便以后查阅,另一方面希望各位小伙伴能够提出不足之处,我会及时更新修改。
这里写图片描述
  博主从网上抠了一张图,觉得画得还是比较形象的,给大家参考一下。
  上述类图中,实线边框的是实现类,比如ArrayList,LinkedList,HashMap等,折线边框的是抽象类,比如AbstractCollection,AbstractList,AbstractMap等,而点线边框的是接口,比如Collection,Iterator,List等。
  发现一个特点,上述所有的集合类,都实现了Iterator接口,这是一个用于遍历集合中元素的接口,主要包含hasNext(), next(), remove()三种方法。它的一个子接口LinkedIterator在它的基础上又添加了三种方法,分别是add(),previous(),hasPrevious()。也就是说如果是先Iterator接口,那么在遍历集合中元素的时候,只能往后遍历,被遍历后的元素不会在遍历到,通常无序集合实现的都是这个接口,比如HashSet,HashMap;而那些元素有序的集合,实现的一般都是LinkedIterator接口,实现这个接口的集合可以双向遍历,既可以通过next()访问下一个元素,又可以通过previous()访问前一个元素,比如ArrayList。
  本篇首先对HashMap进行详解,后续内容慢慢跟进。


HashMap定义

  如无特殊说明,本文以jdk7为准进行说明。

  1. package java.util;
  2. import java.io.*;
  3. public class HashMap<K,V>
  4. extends AbstractMap<K,V>
  5. implements Map<K,V>, Cloneable, Serializable{
  6. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

HashMap概述

  工作原理:通过hash的方法,通过put和get存储和获取对象。存储对象时,我们将K/V传给put方法时,它调用hashCode计算hash从而得到bucket位置,进一步存储,HashMap会根据当前bucket的占用情况自动调整容量(超过Load Factor则resize为原来的2倍)。获取对象时,我们将K传给get,它调用hashCode计算hash从而得到bucket位置,并进一步调用equals()方法确定键值对。如果发生碰撞的时候,Hashmap通过链表将产生碰撞冲突的元素组织起来,在Java 8中,如果一个bucket中碰撞冲突的元素超过某个限制(默认是8),则使用红黑树来替换链表,从而提高速度。
  以Entry[]数组实现的哈希桶数组,用Key的哈希值取模桶数组的大小可得到数组下标。

  1. static final Entry<?,?>[] EMPTY_TABLE = {};
  2. transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;
  • 1
  • 2

  基于Map接口实现、允许null键/值、非同步、不保证有序(比如插入的顺序)、也不保证序不随时间变化。HashMap存储着Entry(hash, key, value, next)对象
  当key==null时,存在table[0]即第一个桶中,hash值为0。HashMap对key==null的键值对会做单独处理,譬如:

  1. private V getForNullKey();
  2. private V putForNullKey(V value);
  • 1
  • 2

  这两个方法。
  在HashMap中有两个很重要的参数,容量(Capacity)和负载因子(Load factor)。
  Capacity的默认值为16
  static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
   负载因子的默认值为0.75
  static final float DEFAULT_LOAD_FACTOR = 0.75f;
  简单的说,Capacity就是bucket的大小,Load factor就是bucket填满程度的最大比例。如果对迭代性能要求很高的话不要把Capacity设置过大,也不要把load factor设置过小。当bucket中的entries的数目大于capacity*load factor时就需要调整bucket的大小为当前的2倍。
  可以设置初始容量Capacity,但是在HashMap处理过程中,是会把Capacity扩充成2的倍数,怎么理解?比如你设置的初始值17,但是17不是2的整数倍,会扩容成32,再比如你初始设置的是15,会扩容成16,具体的实现在下面:

  1. private static int roundUpToPowerOf2(int number) {
  2. // assert number >= 0 : "number must be non-negative";
  3. return number >= MAXIMUM_CAPACITY
  4. ? MAXIMUM_CAPACITY
  5. : (number > 1) ? Integer.highestOneBit((number - 1) << 1) : 1;
  6. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

  HashMap中有一个成员变量modCount,这个用来实现“fast-fail”机制(也就是快速失败)。所谓快速失败就是在并发集合中,其进行迭代操作时,若有其他线程对其结构性的修改,这是迭代器会立马感知到,并且立刻抛出ConcurrentModificationException异常,而不是等待迭代完成之后才告诉你已经出错。


HashMap的遍历

  举个例子来表述下Map的遍历,具体的可以参考《 Java中如何遍历Map对象

  1. Map<String,Integer> map = new HashMap<>();
  2. map.put("s1", 1);
  3. map.put("s2", 2);
  4. map.put("s3", 3);
  5. map.put("s4", 4);
  6. map.put("s5", 5);
  7. map.put(null, 9);
  8. map.put("s6", 6);
  9. map.put("s7", 7);
  10. map.put("s8", 8);
  11. for(Map.Entry<String,Integer> entry:map.entrySet())
  12. {
  13. System.out.println(entry.getKey()+":"+entry.getValue());
  14. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

  输出结果:

  1. null:9
  2. s2:2
  3. s1:1
  4. s7:7
  5. s8:8
  6. s5:5
  7. s6:6
  8. s3:3
  9. s4:4
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

  存储结构如图(ppt画的图,比较简陋~):
这里写图片描述

put函数大致的思路为

  1. 先判断table(存放bullet的数组,初始类定义:transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;)是否为空,如果为空则扩充table,其中包括确保table的大小为2的整数倍。
  2. 如果key值为null,则特殊处理,调用putForNullKey(V value),hash值为0,存入table中,返回。
  3. 如果key值不为null,则计算key的hash值;
  4. 然后计算key在table中的索引index;
  5. 遍历table[index]的链表,如果发现链表中有bullet中的键的hash值与key相等,并且调用equals()方法也返回true,则替换旧值(oldValue),保证key的唯一性;
  6. 如果没有,在插入之前先判断table中阈值的大小,如果table中的bullet个数size超过阈值(threshold)则扩容(resize)两倍;注意扩容的顺序,扩容之前old1->old2->old3,扩容之后old3->old2->old1,扩展之前和扩容之后的table的index不一定相同,但是对于原bullet中的链表中的数据在扩容之后肯定还在一个链表中,因为hash值是一样的。
  7. 插入新的bullet。注意插入的顺序,原先table[index]的链表比如 old1->old2->old3,插入新值之后为new1->old1->old2->old3.
  1. public V put(K key, V value) {
  2. if (table == EMPTY_TABLE) {
  3. inflateTable(threshold);
  4. }
  5. if (key == null)
  6. return putForNullKey(value);
  7. int hash = hash(key);
  8. int i = indexFor(hash, table.length);
  9. for (Entry<K,V> e = table[i]; e != null; e = e.next) {
  10. Object k;
  11. if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
  12. V oldValue = e.value;
  13. e.value = value;
  14. e.recordAccess(this);
  15. return oldValue;
  16. }
  17. }
  18. modCount++;
  19. addEntry(hash, key, value, i);
  20. return null;
  21. }
  22. void addEntry(int hash, K key, V value, int bucketIndex) {
  23. if ((size >= threshold) && (null != table[bucketIndex])) {
  24. resize(2 * table.length);
  25. hash = (null != key) ? hash(key) : 0;
  26. bucketIndex = indexFor(hash, table.length);
  27. }
  28. createEntry(hash, key, value, bucketIndex);
  29. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31

注:在jdk8中,新增默认为8的閥值(TREEIFY_THRESHOLD),当一个桶里的Entry超过閥值,就不以单向链表而以红黑树来存放以加快Key的查找速度。

get函数的大致思路为

  1. 判断key值是否为null,如果是则特殊处理(在table[0]的链表中寻找)
  2. 否则计算hash值,进而获得table中的index值
  3. 在table[index]的链表中寻找,根据hash值和equals()方法获得相应的value。
  1. public V get(Object key) {
  2. if (key == null)
  3. return getForNullKey();
  4. Entry<K,V> entry = getEntry(key);
  5. return null == entry ? null : entry.getValue();
  6. }
  7. final Entry<K,V> getEntry(Object key) {
  8. if (size == 0) {
  9. return null;
  10. }
  11. int hash = (key == null) ? 0 : hash(key);
  12. for (Entry<K,V> e = table[indexFor(hash, table.length)];
  13. e != null;
  14. e = e.next) {
  15. Object k;
  16. if (e.hash == hash &&
  17. ((k = e.key) == key || (key != null && key.equals(k))))
  18. return e;
  19. }
  20. return null;
  21. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

hash和indexFor方法:

  1. final int hash(Object k) {
  2. int h = hashSeed;
  3. if (0 != h && k instanceof String) {
  4. return sun.misc.Hashing.stringHash32((String) k);
  5. }
  6. h ^= k.hashCode();
  7. h ^= (h >>> 20) ^ (h >>> 12);
  8. return h ^ (h >>> 7) ^ (h >>> 4);
  9. }
  10. public native int hashCode();
  11. static int indexFor(int h, int length) {
  12. // assert Integer.bitCount(length) == 1 : "length must be a non-zero power of 2";
  13. return h & (length-1);
  14. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

看懂没?还是实地检验下比较形象~
譬如key==”key”,那么key的hashCode为(十进制数为106079):
0000 0000 0000 0001 1001 1110 0101 1111
执行h ^= (h >>> 20) ^ (h >>> 12);的时候
h>>>20:
0000 0000 0000 0000 0000 0000 0000 0000
h>>>12:
0000 0000 0000 0000 0000 0000 0001 1001
h ^= (h >>> 20) ^ (h >>> 12):
0000 0000 0000 0001 1001 1110 0100 0110
执行h ^ (h >>> 7) ^ (h >>> 4)的时候
h >>> 7:
0000 0000 0000 0000 0000 0011 0011 1100
h>>>4:
0000 0000 0000 0000 0001 1001 1110 0100
h ^ (h >>> 7) ^ (h >>> 4):
0000 0000 0000 0001 1000 0100 1001 1110(十进制表示为99486)
假设Capacity是默认16,那么
h&(length-1):
0000 0000 0000 0001 1000 0100 1001 1110 &
0000 0000 0000 0000 0000 0000 0000 1111 =
0000 0000 0000 0000 0000 0000 0000 1110 = 14
我们可以通过eclipse的debug工作中的Variables查看相关细节:

这里写图片描述
   可以看到key=”key”果然在table[14]当中。
  h & (length-1)这种取模用位运算的方式比较快,这个需要数组的大小永远是2的N次方来保证其有效性。

jdk8中hash函数的实现:(key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);


使用自定义的对象作为键

  可以使用任何对象作为键,只要它遵守了equals()和hashCode()方法的定义规则,并且当对象插入到Map中之后将不会再改变了。如果这个自定义对象时不可变的,那么它已经满足了作为键的条件,因为当它创建之后就已经不能改变了。
  如下:

  1. package collections;
  2. public class StringOther
  3. {
  4. private String name;
  5. public StringOther(String name)
  6. {
  7. this.name = name;
  8. }
  9. @Override
  10. public int hashCode()
  11. {
  12. return name.hashCode();
  13. }
  14. @Override
  15. public boolean equals(Object obj)
  16. {
  17. if(obj == this)
  18. return true;
  19. if(!(obj instanceof StringOther))
  20. return false;
  21. StringOther so = (StringOther)obj;
  22. return so.getName().equals(name);
  23. }
  24. public String getName()
  25. {
  26. return this.name;
  27. }
  28. @Override
  29. public String toString()
  30. {
  31. return "["+this.name+":"+this.hashCode()+"]";
  32. }
  33. }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39

  测试代码:

  1. Map<StringOther,String> maps = new HashMap<>(16);
  2. StringOther so1 = new StringOther("so1");
  3. StringOther so2 = new StringOther("so2");
  4. maps.put(so1,"1");
  5. maps.put(so2,"2");
  6. System.out.println(maps);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

  输出结果:{[so1:114005]=1, [so2:114006]=2}
  注意重写equals方法的时候一定要写成:

@Override public boolean equals(Object obj)
  • 1

的形式,注意注解Override和参数类型Object obj,如写成@Override public boolean equals(StringOther obj)这样会出现意想不到的错误,如果对其不解,可在下方留言。
  并且在每个覆盖了equals方法的类中也必须覆盖hashCode方法,如果不这样做的话,就会违反Object.hashCode的通用约定,从而导致该类无法结合所有基于散列的集合一起正常运转,这样的集合包括HashMap, HashSet和Hashtable.


序列化

  细心的朋友可能注意到HashMap实现了Serializable接口,但是对table的定义(transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;)却是transient的。然后又自己实现了writeObject()和readObject()两个方法。

假设我们已经知道的事实:声明为transient的变量不再是对象持久化的一部分。如果不清楚java序列化相关细节,可以参考《JAVA序列化》。

  那么这是为什么呢?原因有两点:

  1. HashMap的put与get基于hashCode的实现,而hashCode是native方法,对每一个不同的java环境来说,同一个key所计算的hashCode是不相同的,所以反序列化后table的index会发生变化,无法还原
  2. HashMap默认size到达阈值threshold之后进行扩容,很明显HashMap不可能保证每一个bullet都有数据,很多都为null,如果对这部分数据进行序列化则造成不必要的资源浪费。

  由于Java自身的序列化有明显的缺点:占用空间大以及低效,博主建议采用其他的方法进行序列化,譬如json或者protobuff等,详细可以参考《浅析若干Java序列化工具


与Hashtable的区别

  由于Hashtable逐渐退出历史舞台,故不会另起一篇进行重点解析,只在这里与HashMap区别一下。
  HashMap和Hashtable都实现了Map接口,但决定用哪一个之前先要弄清楚它们之间的分别。

  1. HashMap几乎可以等价于Hashtable,除了HashMap是非synchronized的,并可以接受null(HashMap可以接受为null的键值(key)和值(value),而Hashtable的key和value都不能为null,否则会报NullPointException)。
  2. HashMap是非synchronized,而Hashtable是synchronized,这意味着Hashtable是线程安全的,多个线程可以共享一个Hashtable;而如果没有正确的同步的话,多个线程是不能共享HashMap的。Java 5提供了ConcurrentHashMap,它是HashTable的替代,比HashTable的扩展性更好。
  3. 由于Hashtable是线程安全的也是synchronized,所以在单线程环境下它比HashMap要慢。如果你不需要同步,只需要单一线程,那么使用HashMap性能要好过Hashtable。
  4. HashMap不能保证随着时间的推移Map中的元素次序是不变的。
  5. Hashtable和HashMap它们两个内部实现方式的数组的初始大小和扩容的方式。HashTable中hash数组默认大小是11,增加的方式是 old*2+1。HashMap中hash数组的默认大小是16,而且一定是2的指数。

  HashMap可以通过下面的语句进行同步:Map m = Collections.synchronizeMap(hashMap);
  Hashtable和HashMap有几个主要的不同:线程安全以及速度。仅在你需要完全的线程安全的时候使用Hashtable,而如果你使用Java 5或以上的话,请使用ConcurrentHashMap吧。


HashMap常见问题总结

  1. HashMap的工作原理?(见开篇)
  2. 你知道get和put的原理吗?equals()和hashCode()的都有什么作用?
    答:通过对key的hashCode()进行hashing,并计算下标( n-1 & hash),从而获得buckets的位置。如果产生碰撞,则利用key.equals()方法去链表或树中去查找对应的节点。
  3. 为什么String, Interger这样的wrapper类适合作为键?
    String, Interger这样的wrapper类作为HashMap的键是再适合不过了,而且String最为常用。因为String是不可变的,也是final的,而且已经重写了equals()和hashCode()方法了。其他的wrapper类也有这个特点。不可变性是必要的,因为为了要计算hashCode(),就要防止键值改变,如果键值在放入时和获取时返回不同的hashcode的话,那么就不能从HashMap中找到你想要的对象。不可变性还有其他的优点如线程安全。如果你可以仅仅通过将某个field声明成final就能保证hashCode是不变的,那么请这么做吧。因为获取对象的时候要用到equals()和hashCode()方法,那么键对象正确的重写这两个方法是非常重要的。如果两个不相等的对象返回不同的hashcode的话,那么碰撞的几率就会小些,这样就能提高HashMap的性能。

参考资料:
1. 《Java HashMap工作原理及实现
2. 《关于Java集合的小抄
3. 《HashMap和Hashtable的区别
4. 《Java 集合类详解
5. 《Effective Java(Second Edition)》. Joshua Bloch.

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号