HashMap(JDK 1.7)
哈希表(hash table),也叫做 散列表,是一种非常重要的数据结构,引用场景及其丰富,许多缓存技术(比如 memcached)的核心其实就是在内存中维护一张大的哈希表,接下来会对 Java 集合框架中的 HashMap 的实现原理进行解析,主要针对的是 JDK7。
什么是哈希表
在讨论哈希表之前,我们先大概了解下其他数据结构在新增,查找等基础操作执行性能:
**数组:**采用一段连续的存储单元来存储数据。对于指定下标的查找,时间复杂度为O(1);通过给定值进行查找,需要遍历数组,逐一比对给定的关键字和数组元素,时间复杂度为O(n);如果是有序数组,则可采用二分查找
,插值查找
,斐波拉契查找
等方式,可将查找复杂度提高为O(logn);对于一般的插入删除操作,以及数组元素的移动,其平均时间复杂度也为O(n)。
**线性链表:**对于链表的新增,删除等操作(在找到指定操作位置后),仅需处理节点间的引用关系即可,时间复杂度为O(1),而查找操作需要遍历链表逐一对比,其平均时间复杂度为O(n)。
**二叉树:**对一棵相对平衡的有序二叉树,对其进行插入、查找、删除等操作,平均时间复杂度为O(logn)。
**哈希表:**相比上述几种数据结构,在哈希表中进行添加,删除,查找等操作,性能十分之高,不考虑哈希冲突的情况下,仅需一次定位即可,时间复杂度为O(1)。接下来就来看看哈希表是如何实现时间复杂度为O(1)的。
众所周知,数据结构的物理存储结构只有两种:顺序存储结构和链式存储结构(像栈、队列、树、图都是从逻辑结构中抽象出来并映射到内存中,但都是这两种物理结构组成)。在顺序存储结构,数组这种数据结构可以使用下标查询某个元素,并且是一步到位,哈希表也利用了数组的这种特性,即哈希表的主干就是使用数组实现的。当需要往哈希表中新增或者查找某个元素时,只需要通过把当前元素的关键字通过某个函数映射到数组中的某个位置,通过数组下标一次定位即可完成操作。
这个用来映射的函数可以简单描述为:存储位置 = f(关键字),函数 f 被称为哈希函数;哈希函数的设计好坏直接影响到哈希表的优劣。举个列子,比如要在哈希表中执行插入操作:
插入过程如下图所示:

查找操作同理,先通过哈希函数计算出实际存储地址,然后从数组中对应地址取出即可。
什么是哈希冲突?
哈希冲突,又叫哈希碰撞,它产生的原因与上诉说过的哈希函数有关。当有两个元素需要执行新增操作时,通过哈希函数计算得出的实际存储地址相同,也就是说这两个元素都需要插入到同一内存地址中,此时就被成为哈希冲突。由此可见,哈希函数的设计对于哈希表的重要性,好的哈希函数需要尽可能保证计算简单,并且散列地址分布均匀,但是再好的哈希函数都不可能保证得到的存储地址不会发生冲突。那么应该如何解决哈希冲突呢?
- 开放地址法:如果发生哈希冲突,继续寻找下一块未被占用的存储地址。
- 再散列函数法:提供多个散列函数进行计算。
- 链地址法:在哈希表的每一个存储单元中设置链表,当发生哈希冲突时,将新元素存放到目标地址对应的链表中。
HashMap 就是采用的链地址法,也就是数组+链表的方式。
HashMap 实现原理
HashMap 的主干是一个 Entry 数组。Entry 是 HashMap 的基本组成单元,每一个 Entry 包含一个 key - value 键值对。(所谓 Map 其实就是保存了两个对象之间映射关系的一种集合)
//HashMap的主干数组,可以看到就是一个Entry数组,初始值为空数组{},主干数组的长度一定是2的次幂。
//至于为什么这么做,后面会有详细分析。
transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;
Entry 是 HashMap 中的一个静态内部类。代码如下:
static class Entry<K,V> implements Map.Entry<K,V> {
final K key;
V value;
Entry<K,V> next;//存储指向下一个Entry的引用,单链表结构
int hash;//对key的hashcode值进行hash运算后得到的值,存储在Entry,避免重复计算
/**
* Creates new entry.
*/
Entry(int h, K k, V v, Entry<K,V> n) {
value = v;
next = n;
key = k;
hash = h;
}
}
所以,HashMap 的总体结构如下:

简单来说,HashMap 由数组 + 链表组成的,数组是 HashMap 的主体,链表则是主要为了解决哈希冲突而存在的,如果定位到的数组为知不含链表(当前 Entry 的 next 指向 null),那么查找,添加等操作很快,仅需一次寻址即可;如果定位到的数组包含链表,对于添加操作,其时间复杂度为 O(n),首先遍历链表,存在即覆盖,否则新增;对于查找操作来讲,仍需遍历链表,然后通过 key 对象的 equals 方法逐一对比查找。所以,性能考虑,HashMap 中的链表出现越少,性能才会越好。
其它几个重要字段:
/** 实际存储的 key-value 键值对的个数 */
transient int size;
/**
* 阈值,当table == {}时,该值为初始容量(初始容量默认为16);当table被填充了,也就是为table分配内存空间后,
* threshold一般为 capacity * loadFactory。HashMap 在进行扩容时需要参考 threshold,后面会详细谈到
*/
int threshold;
/**
* 负载因子,代表了table的填充度有多少,默认是0.75
* 加载因子存在的原因,还是因为减缓哈希冲突,如果初始桶为16,等到满16个元素才扩容,某些桶里可能就有不止一个元素了。
* 所以加载因子默认为0.75,也就是说大小为16的HashMap,到了第13个元素,就会扩容成32。
*/
final float loadFactor;
/**
* HashMap被改变的次数,由于HashMap非线程安全,在对HashMap进行迭代时,
* 如果期间其他线程的参与导致HashMap的结构发生变化了(比如put,remove等操作),
* 需要抛出异常ConcurrentModificationException
*/
transient int modCount;
HashMap 有 4 个构造器,其它构造器如果用户没有传入 initialCapacity 和 loadFactor 这两个参数,则 initialCapacity默认为 16,loadFactory 默认为 0.75 去初始化。
public HashMap(int initialCapacity, float loadFactor) {
//此处对传入的初始容量进行校验,最大不能超过MAXIMUM_CAPACITY = 1<<30(1073741824)
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
this.loadFactor = loadFactor;
threshold = initialCapacity;
init();//init方法在HashMap中没有实际实现,不过在其子类如 linkedHashMap中就会有对应实现
}
从上面这段代码我们可以看出,在常规构造器中,没有为数组 table 分配内存空间(有一个入参为指定 Map 的构造器例外),而是在执行 put 操作的时候才真正构建 table 数组。
public V put(K key, V value) {
// 如果 table 数组为空数组 {},进行数组填充(为 table 分配实际内存空间),入参为 threshold,
// 此时 threshold 为 initialCapacity 默认是1<<4(16)
if (table == EMPTY_TABLE) {
inflateTable(threshold);
}
// 如果 key 为 null,存储位置为 table[0] 或 table[0] 的冲突链上
if (key == null)
return putForNullKey(value);
int hash = hash(key);// 对 key 的 hashcode 进一步计算,确保散列均匀
int i = indexFor(hash, table.length);// 获取在 table 中的实际位置
for (Entry<K,V> e = table[i]; e != null; e = e.next) {
// 如果该对应数据已存在,执行覆盖操作。用新 value 替换旧 value,并返回旧 value
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++; // 保证并发访问时,若 HashMap 内部结构发生变化,快速响应失败
addEntry(hash, key, value, i);// 新增一个 entry
return null;
}
inflateTable
这个方法用于为主干数组 table 在内存中分配存储空间,通过 roundUpToPowerOf2(toSize) 可以确保 capacity 为大于或等于 toSize 的最接近 toSize 的二次幂,比如 toSize=13,capacity=16;to_size=16,capacity=16;to_size=17,capacity=32。
private void inflateTable(int toSize) {
int capacity = roundUpToPowerOf2(toSize);//capacity一定是2的次幂
// 此处为threshold赋值,取capacity*loadFactor和MAXIMUM_CAPACITY+1的最小值,
// capaticy一定不会超过MAXIMUM_CAPACITY,除非loadFactor大于1
threshold = (int) Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1);
table = new Entry[capacity];
initHashSeedAsNeeded(capacity);
}
roundUpToPowerOf2
中的这段处理使得数组的长度一定为 2 的次幂,Integer.highestOneBit
是用来获取最左边的 bit (其它 bit 位为 0)所代表的数值。
private static int roundUpToPowerOf2(int number) {
// assert number >= 0 : "number must be non-negative";
return number >= MAXIMUM_CAPACITY
? MAXIMUM_CAPACITY
: (number > 1) ? Integer.highestOneBit((number - 1) << 1) : 1;
}
hash 函数
/**
* 这是一个神奇的函数,用了很多的异或,移位等运算对 key 的 hashcode 进一步进行计算以及二进制位的调整等来保证最终获取的存储位置尽量分布均匀
*/
final int hash(Object k) {
int h = hashSeed;
if (0 != h && k instanceof String) {
return sun.misc.Hashing.stringHash32((String) k);
}
h ^= k.hashCode();
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
以上 hash 函数计算出的值,通过 indexFor
函数进一步处理来获取实际的存储位置。
/**
* 返回数组下标
*/
static int indexFor(int h, int length) {
return h & (length-1);
}
h &(length - 1)保证获取的 index 一定在数组范围内,举个例子,默认容量16,length - 1=15,h=18,转换成二进制计算为 index = 2。位运算对计算机来说,性能更高一些( HashMap 中有大量位运算)。
所以最终存储位置的确定流程是这样的:

再来看看 addEntry 的实现:
void addEntry(int hash, K key, V value, int bucketIndex) {
if ((size >= threshold) && (null != table[bucketIndex])) {
// 当 size 超过临界阈值 threshold,并且即将发生哈希冲突时进行扩容
resize(2 * table.length);
hash = (null != key) ? hash(key) : 0;
bucketIndex = indexFor(hash, table.length);
}
createEntry(hash, key, value, bucketIndex);
}
通过以上代码能够得知,当发生哈希冲突并且 size 大于阈值的时候,需要进行数组扩容,扩容时,需要新建一个长度为之前数组 2 倍的新的数组,然后将当前的 Entry 数组中的元素全部传输过去,扩容后的新数组长度为之前的 2 倍,所以扩容相对来说是个耗资源的操作。
为什么 HashMap 的数组长度一定是 2 的次幂?
我们来继续看上面提到的 resize
方法。
void resize(int newCapacity) {
Entry[] oldTable = table;
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return;
}
Entry[] newTable = new Entry[newCapacity];
transfer(newTable, initHashSeedAsNeeded(newCapacity));
table = newTable;
threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
}
如果数组进行扩容,数组长度发生变化,而存储位置 index = h & (length - 1)
,index 也可能会发生变化,需要重新计算 index,先来看看 transfer
这个方法。
void transfer(Entry[] newTable, boolean rehash) {
int newCapacity = newTable.length;
// for 循环中的代码,逐个遍历链表,重新计算索引位置,将老数组数据复制到新数组中去(数组不存储实际数据,所以仅仅是拷贝引用而已)
for (Entry<K,V> e : table) {
while(null != e) {
Entry<K,V> next = e.next;
if (rehash) {
e.hash = null == e.key ? 0 : hash(e.key);
}
int i = indexFor(e.hash, newCapacity);
// 将当前 entry 的 next 链指向新的索引位置,newTable[i] 有可能为空,有可能也是个 entry 链,如果是 entry 链,直接在链表头部插入。
e.next = newTable[i];
newTable[i] = e;
e = next;
}
}
}
这个方法将老数组中的数组逐个链表的遍历,扔到新的扩容后的数组中,我们的数组索引位置的计算是通过对 key 值得 hashCode 进行 hash 扰乱运算后,再通过和 length - 1 进行位运算得到最终数组索引位置的。
HashMap 的数组长度一定保持 2 的次幂,比如 16 的二进制表示为 10000,那么 length - 1 就是 15,二进制为 01111,同理扩容后的数组长度为 32,二进制表示为 100000,length - 1 为 31,二进制表示为 011111。从下图可以看到这样会保证了数组长度的二进制地位全为 1,而扩容后前后长度二进制只有一个差异,这样在 通过 h & (length - 1)
运算的时候,只要 h 对应的最左边的哪一个差异为 0,就能保证新的数组索引和老数组索引一致(大大减少了之前已经散列良好的老数组的数据位置重新调换)。
-P9p5G4mz.png)
还有,数组长度保持 2 的次幂,length - 1 的地位都为 1,会使得获得的数组索引 index 更加均匀。

我们看到,上面的 & 与运算,高位是不会对结果产生影响的(hash 函数采用各种位运算可能也是为了使得低位更加散列),我们只关注地位 bit,如果地位全为 1 ,那么对于 h 地位部分来说,任何一位的变化都会对结果产生影响,也就是说,要得到 index = 21 这个存储位置,h 的低位只有这一种组合。这也就是数组长度为什么要设计为 2 的次幂的原因。

如果不是 2 的次幂,也就是低位不是全为 1 ,此时,要使得 index = 21,h 的低位部分就不再具有唯一性了,哈希冲突的几率会变得更大,同时,index 对应的这个 bit 位无论如何不会等于 1 了,而对应的那些数组位置也就被白白浪费了。
get 方法
public V get(Object key) {
// 如果 key 为 null,则直接去 table[0] 处去检索即可。
if (key == null)
return getForNullKey();
Entry<K,V> entry = getEntry(key);
return null == entry ? null : entry.getValue();
}
get 方法通过 key 值返回对应 value,如果 key 为 null,直接去 table[0] 处检索。我们再看一下 getEntry 这个方法。
final Entry<K,V> getEntry(Object key) {
if (size == 0) {
return null;
}
//通过key的hashcode值计算hash值
int hash = (key == null) ? 0 : hash(key);
//indexFor (hash&length-1) 获取最终数组索引,然后遍历链表,通过equals方法比对找出对应记录
for (Entry<K,V> e = table[indexFor(hash, table.length)];
e != null;
e = e.next) {
Object k;
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
}
return null;
}
get 方法的实现相对简单,key(hashcode)–>hash–>indexFor–>最终索引位置,找到对应位置 table[i],再查看是否有链表,遍历链表,通过 key 的 equals 方法对比查找对应的记录。要注意的是,有人觉得上面在定位到数组位置之后,然后在遍历链表的时候,e.hash == hash
这个判断没有必要,仅通过 equals 判断就可以。其实不然,试想一下,如果传入的 key 对象重写了 equals 方法却没有重写 hashCode,而恰巧此对象定位到这个数组位置,如果仅仅用 equals 方法判断可能是相等的,但 hashCode 和当前对象不一致,这种情况,根据 Object 的 hashCode 的约定,不能返回当前对象,而应该返回 null。
重写 equals 方法需要同时重写 hashCode 方法
下面这段代码演示的是,重写了 equals 方法,但没有重写 hashCode 方法。
public class MyTest {
private static class Person{
int idCard;
String name;
public Person(int idCard, String name) {
this.idCard = idCard;
this.name = name;
}
@Override
public boolean equals(Object o) {
if (this == o) {
return true;
}
if (o == null || getClass() != o.getClass()){
return false;
}
Person person = (Person) o;
//两个对象是否等值,通过idCard来确定
return this.idCard == person.idCard;
}
}
public static void main(String []args){
HashMap<Person,String> map = new HashMap<Person, String>();
Person person = new Person(1234,"乔峰");
//put到hashmap中去
map.put(person,"天龙八部");
//get取出,从逻辑上讲应该能输出“天龙八部”
System.out.println("结果:"+map.get(new Person(1234,"萧峰")));
}
}
实际输出结果:null
如果我们已经对 HashMap 的原理有了一定了解,这个结果就不难理解了。尽管我们在进行 get 和 put 操作的时候,使用的 key 从逻辑上讲是等值的(通过 equals 比较是相等的),但由于没有重写 hashCode 方法,所以 put 操作时,key(hashcode1) –> hash –> indexFor –> 最终索引位置 ,而通过 key 取出 value 的时候 key(hashcode1) –> hash –> indexFor –> 最终索引位置,由于 hashcode1 不等于 hashcode2,导致没有定位到一个数组位置而返回逻辑上错误的值null(也有可能碰巧定位到一个数组位置,但是也会判断其 entry 的 hash 值是否相等,上面 get 方法中有提到。)
所以,在重写 equals 的方法的时候,必须注意重写 hashCode 方法,同时还要保证通过 equals 判断相等的两个对象,调用 hashCode 方法要返回同样的整数值。而如果 equals 判断不相等的两个对象,其 hashCode 可以相同(只不过会发生哈希冲突,应尽量避免)。
JDK 1.8 中 HashMap 的性能优化
假如一个数组槽位上链上数据过多(即拉链过长的情况)导致性能下降该怎么办? JDK1.8在JDK1.7的基础上针对增加了红黑树来进行优化。即当链表超过8时,链表就转换为红黑树,利用红黑树快速增删改查的特点提高HashMap的性能,其中会用到红黑树的插入、删除、查找等算法。
附:HashMap put方法逻辑图(JDK1.8)

摘自:https://blog.csdn.net/woshimaxiao1/article/details/83661464