散列表用的是数组支持按照下标随机访问数据的特性,时间复杂度是O(1)
,所以散列表其实就是数组的一种扩展,由数组演化而来。可以说,如果没有数组,就没有散列表。
散列表两个核心问题是散列函数设计和散列冲突解决。散列函数设计的好坏决定了散列冲突的概率,也就决定散列表的性能。
Microsoft Word中拼写检查功能的实现。
常用的英文单词有 20 万个左右,假设单词的平均长度是 10 个字母,平均一个单词占用 10 个字节的内存空间,那 20 万英文单词大约占 2MB 的存储空间,就算放大 10 倍也就是 20MB。
对于现在的计算机来说,这个大小完全可以放在内存里面,所以可以用散列表来存储整个英文单词词典。
借助散列表这种数据结构,可以轻松实现快速判断是否存在拼写错误。
散列函数在散列表中起着非常关键的作用,它是一个函数,把它定义成 hash(key)
,其中 :
key
表示元素的键值hash(key)
的值表示经过散列函数计算得到的散列值散列函数设计的三点基本要求:
key1 = key2
,那 hash(key1) == hash(key2)
key1 ≠ key2
,那 hash(key1) ≠ hash(key2)
对于第三点看起来合情合理,但是在真实的情况下,要想找到一个不同的 key 对应的散列值都不一样的散列函数,几乎是不可能的。
即便像业界著名的MD5、SHA、CRC等哈希算法,也无法完全避免这种散列冲突。而且,因为数组的存储空间有限,也会加大散列冲突的概率。
所以几乎无法找到一个完美的无冲突的散列函数,即便能找到,付出的时间成本、计算成本也是很大的,所以针对散列冲突问题,需要通过其他途径来解决。
再好的散列函数也无法避免散列冲突,常用的散列冲突解决方法有两类:
开放寻址法的核心思想是,如果出现了散列冲突,就重新探测一个空闲位置,将其插入。
如何重新探测新的位置,比较简单的探测方法,线性探测(Linear Probing)。
当往散列表中插入数据时,如果某个数据经过散列函数散列之后,存储位置已经被占用了,就从当前位置开始,依次往后查找,看是否有空闲位置,直到找到为止。
在散列表中查找元素的过程有点儿类似插入过程。
散列表跟数组一样,不仅支持插入、查找操作,还支持删除操作。
对于使用线性探测法解决冲突的散列表,删除操作稍微有些特别。不能单纯地把要删除的元素设置为空。
因为在查找的时候,一旦通过线性探测方法,找到一个空闲位置,就可以认定散列表中不存在这个数据。但是,如果这个空闲位置是后来删除的,就会导致原来的查找算法失效。本来存在的数据,会被认定为不存在。
因此将删除的元素,特殊标记为 deleted
。当线性探测查找的时候,遇到标记为 deleted
的空间,并不是停下来,而是继续往下探测。
线性探测法存在很大问题,当散列表中插入的数据越来越多时,散列冲突发生的可能性就会越来越大,空闲位置会越来越少,线性探测的时间就会越来越久。
极端情况下,可能需要探测整个散列表,所以最坏情况下的时间复杂度为
O(n)
。同理,在删除和查找时,也有可能会线性探测整张散列表,才能找到要查找或者删除的数据。
为了解决开放寻址冲突的问题,所谓二次探测,跟线性探测很像:
1
,探测的下标序列就是 hash(key)+0
,hash(key)+1
,hash(key)+2
……hash(key)+0
,hash(key)+1^2
,hash(key)+2^2
……为了解决开放寻址冲突的问题,所谓双重散列,就是不仅要使用一个散列函数。
使用一组散列函数 hash1(key)
,hash2(key)
,hash3(key)
……
先用第一个散列函数,如果计算得到的存储位置已经被占用,再用第二个散列函数,依次类推,直到找到空闲的存储位置。
不管采用哪种探测方法,当散列表中空闲位置不多的时候,散列冲突的概率就会大大提高。为了尽可能保证散列表的操作效率,一般情况下,会尽可能保证散列表中有一定比例的空闲槽位,用装载因子(load factor)来表示空位的多少。
装载因子的计算公式是:散列表的装载因子=填入表中的元素个数/散列表的长度
,装载因子越大,说明空闲位置越少,冲突越多,散列表的性能会下降。
链表法是一种更常用的散列冲突解决办法,相比开放寻址法,它要简单很多。
如下图所示,在散列表中,每个“桶(bucket)”或者“槽(slot)”会对应一条链表,所有散列值相同的元素都放到相同槽位对应的链表中。
O(1)
。查找或删除这两个操作的时间复杂度跟链表的长度 k
成正比即O(k)
。对于散列比较均匀的散列函数来说,理论上讲,\(k=\frac{n}{m}\),其中 n
表示散列中数据的个数,m
表示散列表中“槽”的个数。
散列表的查询效率并不能笼统地说成是 O(1)
,这与散列函数、装载因子、散列冲突等都有关系。如果散列函数设计得不好,或者装载因子过高,都可能导致散列冲突发生的概率升高,查询效率下降。
在极端情况下,恶意攻击者通过精心构造的数据,使得所有的数据都散列到同一个槽里。如果使用的是基于链表的冲突解决方法,那散列表就会退化为链表,查询的时间复杂度就从
O(1)
急剧退化为O(n)
。
- 如果散列表中有 10 万个数据,退化后的散列表查询的效率就下降了 10 万倍。
- 如果之前运行 100 次查询只需要
0.1
秒,那现在就需要10000
秒。这样有可能因为查询操作消耗大量 CPU 或者线程资源,导致系统无法响应其他请求,从而达到拒绝服务攻击(DoS)的目的。这就是散列表碰撞攻击的基本原理。
需要设计一个可以应对各种异常情况的工业级散列表,来避免在散列冲突的情况下,散列表性能的急剧下降,并且能抵抗散列碰撞攻击。
散列函数设计的好坏,决定了散列表冲突的概率大小,也直接决定了散列表的性能:
实际工作中,还需要综合考虑各种因素:关键字的长度、特点、分布、还有散列表的大小等。
装载因子越大,说明散列表中的元素越多,空闲位置越少,散列冲突的概率就越大:
对于没有频繁插入和删除的静态数据集合,根据数据的特点、分布等,设计出完美的、极少冲突的散列函数。
对于动态散列表,数据集合频繁变动,事先无法预估将要加入的数据个数,所以无法事先申请一个足够大的散列表。随着数据慢慢加入,装载因子就会慢慢变大。当装载因子大到一定程度之后,散列冲突就会变得不可接受。
当装载因子过大时,进行动态扩容重新申请一个更大的散列表,将数据搬移到新散列表中。
假设每次扩容都申请一个原来散列表大小两倍的空间。如果原来散列表的装载因子是
0.8
,那经过扩容之后,新散列表的装载因子就下降为原来的一半,变成了0.4
。
散列表中插入一个数据:
O(1)
。O(n)
。用摊还分析法,均摊情况下,时间复杂度接近最好情况,就是 O(1)
。
实际上,对于动态散列表,随着数据的删除,散列表中的数据会越来越少,空闲空间会越来越多:
当散列表的装载因子超过某个阈值时,就需要进行扩容,装载因子阈值需要选择得当:
装载因子阈值的设置要权衡时间、空间复杂度:
大部分情况下,动态散列表插入数据的效率很高,只有在装载因子到达阈值需要先扩容在插入,这时插入数据很慢甚至无法接受。散列表中已有的数据越多,扩容越慢,需要重新计算每一个值的位置。
为了解决一次性扩容耗时过多的情况,可以将扩容操作穿插在插入操作的过程中,分批完成。当装载因子触达阈值之后,只申请新空间,但并不将老的数据搬移到新散列表中。
这样没有集中的一次性数据搬移,插入操作就都变得很快了。
为了兼容了新、旧散列表中的数据:
通过这样均摊的方法,将一次性扩容的代价,均摊到多次插入操作中,就避免了一次性扩容耗时过多的情况。这种实现方式,任何情况下,插入一个数据的时间复杂度都是 O(1)
。
在实际的软件开发中,开放寻址法和链表法是非常常用的两种解决散列冲突的方法,如:
LinkedHashMap
采用链表法解决冲突ThreadLocalMap
采用线性探测的开放寻址法解决冲突下面对这两种冲突解决版本优劣和适用场景进行比较。
优点:数据都存储在数组中,有效地利用 CPU 缓存加快查询速度。这种方法实现的散列表,序列化起来比较简单(链表法包含指针,序列化起来就没那么容易),序列化在很多场合都会用到。
缺点:删除数据的时候比较麻烦,需要特殊标记已经删除掉的数据。所有的数据都存储在一个数组中,冲突的代价更高。所以,使用开放寻址法解决冲突的散列表,装载因子的上限不能太大。这也导致这种方法比链表法更浪费内存空间。
当数据量比较小、装载因子小的时候,适合采用开放寻址法。这也是 Java 中的 ThreadLocalMap
使用开放寻址法解决散列冲突的原因。
优点:
缺点:
实际上,对链表法稍加改造,可以实现更加高效的散列表,将链表改造为其他高效的动态数据结构,比如跳表、红黑树。这样,即便出现散列冲突,极端情况下,所有的数据都散列到同一个桶内,那最终退化成的散列表的查找时间也只不过是 O(logn)
,这样有效避免了散列碰撞攻击。
基于链表的散列冲突处理方法比较适合存储大对象、大数据量的散列表,而且,它更加灵活,支持更多的优化策略,比如用红黑树代替链表。
Java中的HashMap
。
16
,这个默认值可以设置,如果事先知道大概的数据量,可以通过修改默认初始大小,减少动态扩容的次数,这样会大大提高 HashMap 的性能。0.75
,当元素个数超过 0.75*capacity
(capacity
表示散列表的容量)时,会启动扩容,每次扩容都会扩容为原来的两倍大小。散列函数:
int hash(Object key) {
int h = key.hashCode(); // 返回 Java 对象的 hash code
return (h ^ (h >>> 16)) & (capicity -1); // capicity表示散列表的大小
}
public int hashCode() {
int var1 = this.hash;
if(var1 == 0 && this.value.length > 0) {
char[] var2 = this.value;
for(int var3 = 0; var3 < this.value.length; ++var3) {
var1 = 31 * var1 + var2[var3];
}
this.hash = var1;
}
return var1;
}
利用红黑树快速增删改查的特点,提高 HashMap 的性能。在数据量较小的情况下,红黑树要维护平衡,比起链表来,性能上的优势并不明显。
工业级的散列表应该具有的特性:
实现这样的散列表从这三个方面来考虑:
还要结合具体的业务场景、具体的业务员数据来具体分析。
借助散列表,可以把 LRU 缓存淘汰算法的时间复杂度降低为 O(1)
。
通过链表实现 LRU 缓存淘汰算法的,需要维护一个按照访问时间从大到小有序排列的链表结构。
- 当缓存空间不够,需要淘汰一个数据,就直接将链表头部的结点删除。
- 当要缓存某个数据时,先在链表中查找这个数据。如果没有找到,则直接将数据放到链表的尾部;如果找到了,就把它移动到链表的尾部。查找数据需要遍历链表,所以单纯用链表实现的 LRU 缓存淘汰算法的时间复杂是
O(n)
。
一个缓存(cache)系统主要包含下面这三个操作:
这三个操作都要涉及“查找”操作,如果单纯采用链表,时间复杂度只能是 O(n)
。
如果将散列表和链表组合使用,可以将这三个操作的时间复杂度都降低到 O(1)
,如下图所示:
使用双向链表存储数据,链表中的每个结点包括:
data
prev
next
hnext
LRU中的散列表是通过链表法解决散列冲突的,所以每个结点会在两条链中:
hnext
指针是为了将结点串在散列表的拉链中使用散列表和双向链表的组合存储结果,实现一个换成系统三个操作的时间复杂度是O(1)
:
O(1)
,找到数据后将它移动到双向链表的尾部(LRU是从头开始删除的)O(1)
,借助双向链表删除数据时间复杂度O(1)
整个过程中,查找操作都借助散列表在O(1)
完成,添加和删除操作都借助双向链表在O(1)
完成。所以通过散列表和双向链表的组合使用,实现了一个高效的、支持 LRU 缓存淘汰算法的缓存系统原型。
在有序集合中,每个成员对象有两个重要的属性,key
(键值)和 score
(分值)。不仅会通过 score
来查找数据,还通过 key
来查找数据。
所以Redis有序集合的操作包括:
如果仅按照分值将成员对象组织成跳表的结构,那按照键值来删除、查询成员对象就会很慢。
解决方法与 LRU 缓存淘汰算法的解决方法类似。
按照分值构建跳表后再按照键值构建散列表,这样按照 key 来删除、查找一个成员对象的时间复杂度就变成了 O(1)
。同时,借助跳表结构,其他操作也非常高效。
实际上,Redis 有序集合的操作还有查找成员对象的排名(Rank)或者根据排名区间查找成员对象。这个功能单纯用这种组合结构就无法高效实现了。
HashMap
底层是通过散列表实现的LinkedHashMap
底层是通过散列表和双向链表组合在一起实现的(Linked
指双向链表而不是用链表解决散列冲突)在新建LinkedHashMap是可以传参设定是否按照访问时间排序,即是否启用LRU缓存淘汰策略。
散列表和链表经常一起使用的原因: