赞
踩
目录
如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。
当向该结构中:
插入元素:根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放
搜索元素:对元素的关键码进行同样的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜索成功
该方式即为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称为哈希表(HashTable)(或者称散列表)
例如:数据集合{1,7,6,4,5,9};哈希函数设置为:hash(key) = key % capacity; capacity为存储元素底层空间总的大小。
用该方法进行搜索不必进行多次关键码的比较,因此搜索的速度比较快。
对于两个数据元素的关键字 和 (i != j),有 != ,但有:Hash( ) == Hash( ),即:不同关键字通过相同哈希哈数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞。
由于我们哈希表底层数组的容量往往是小于实际要存储的关键字的数量的,这就导致一个问题,冲突的发生是必然的,但我们能做的应该是尽量的降低冲突率。
引起哈希冲突的一个原因可能是:哈希函数设计不够合理。
1. 直接定制法
取关键字的某个线性函数为散列地址:Hash(Key)= A*Key + B
优点:简单、均匀
缺点:需要事先知道关键字的分布情况
使用场景:适合查找比较小且连续的情况
2. 除留余数法
设散列表中允许的地址数为m,取一个不大于m,但最接近或者等于m的质数p作为除数,按照哈希函数:Hash(key) = key% p(p将关键码转换成哈希地址
所以,哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是无法避免哈希冲突
负载因子和冲突率的关系粗略演示
所以当冲突率达到一个无法忍受的程度时,我们需要通过降低负载因子来变相的降低冲突率。
已知哈希表中已有的关键字个数是不可变的,那我们能调整的就只有哈希表中的数组的大小。
解决哈希冲突两种常见的方法是:闭散列和开散列
闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去。
线性探测
二次探测
研究表明:当表的长度为质数且表装载因子a不超过0.5时,新的表项一定能够插入,而且任何一个位置都不会被探查两次。因此只要表中有一半的空位置,就不会存在表满的问题。在搜索时可以不考虑表装满的情况,但在插入时必须确保表的装载因子a不超过0.5,如果超出必须考虑增容。
因此:闭散列最大的缺陷就是空间利用率比较低,这也是哈希的缺陷。
开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。
从上图可以看出,开散列中每个桶中放的都是发生哈希冲突的元素。
开散列,可以认为是把一个在大集合中的搜索问题转化为在小集合中做搜索了。
刚才我们提到了,哈希桶其实可以看作将大集合的搜索问题转化为小集合的搜索问题了,那如果冲突严重,就意味着小集合的搜索性能其实也时不佳的,这个时候我们就可以将这个所谓的小集合搜索问题继续进行转化。
例如:
1. 每个桶的背后是另一个哈希表
2. 每个桶的背后是一棵搜索树
- public class HashBuck {
- static class Node {
- public int key;
- public int val;
- public Node next;
-
- public Node(int key, int val) {
- this.key = key;
- this.val = val;
- }
- }
- public Node[] array;
-
- public int usedSize;//存放的数据的个数
-
- public static final double DEFAULT_LOAD_FACTOR = 0.75;//默认的负载因子
-
- public HashBuck () {
- array = new Node[8];
- }
-
- public boolean put(int key,int val) {
-
- Node node = new Node(key,val);
- //1、位置
- int index = key % array.length;
-
- //2、遍历这个下标的链表
- Node cur = array[index];//就是一个链表的头节点
- while (cur != null) {
- if(cur.key == key) {
- cur.val = val;//更新val值
- return false;
- }
- cur = cur.next;
- }
- //3、遍历完成了当前下标的链表,开始进行插入
- node.next = array[index];
- array[index] = node;
- this.usedSize++;
- //4、存放元素之后,判断当前哈希桶当中的负载因子 是否超过了默认的负载因子
- if(loadFactor() >= DEFAULT_LOAD_FACTOR) {
- //5、扩容
- resize();
- }
- return true;
- }
-
- //扩容的同时 要进行重新哈希
- private void resize() {
- //1、重新申请2倍的数组
- Node[] tmp = new Node[array.length*2];
- //2、遍历原来的数组,把每个下标的链表的节点,都重新进行哈希
- for (int i = 0; i < array.length; i++) {
- Node cur = array[i];
- while (cur != null) {
- int newIndex = cur.key % tmp.length;//新的数组的下标
- Node curNext = cur.next;//先要记录下来下一个
- cur.next = tmp[newIndex];
- tmp[newIndex] = cur;
- cur = curNext;//这里注意
- }
- }
- array = tmp;
- }
-
- public int get(int key) {
- //1、确定位置
- int index = key % array.length;
- Node cur = array[index];
- while (cur != null) {
- if(cur.key == key) {
- return cur.val;
- }
- cur = cur.next;
- }
- return -1;
- }
-
- //计算当前哈希桶当中的负载因子
- private double loadFactor() {
- return this.usedSize*1.0 / this.array.length;
- }
-
- }
我们还可以实现一个存放引用类型的哈希表
- public class HashBuck2<K,V> {
- static class Node<K,V> {
- public K key;
- public V val;
- public Node<K,V> next;
-
- public Node(K key,V val) {
- this.key = key;
- this.val = val;
- }
- }
- public Node<K,V>[] array = (Node<K,V>[])new Node[8];
-
- public int usedSize;
-
- public void put(K key,V val) {
- Node<K,V> node = new Node<>(key,val);
- int hash = key.hashCode();//可以把key变成一个整数
- int index = hash % array.length;
-
- Node<K,V> cur = array[index];
- while (cur != null) {
- if(cur.key.equals(key)) {
- cur.val = val;//更新val值
- return ;
- }
- cur = cur.next;
- }
- //3、遍历完成了当前下标的链表,开始进行插入
- node.next = array[index];
- array[index] = node;
- this.usedSize++;
- }
-
- public V get(K key) {
- int hash = key.hashCode();//可以把key变成一个整数
- int index = hash % array.length;
- Node<K,V> cur = array[index];
- while (cur != null) {
- if(cur.key.equals(key)) {
- return cur.val;
- }
- cur = cur.next;
- }
- return null;
- }
- }
虽然哈希表一直在和冲突做斗争,但在实际使用过程中,我们认为哈希表的冲突率是不高的,冲突个数是可控的,也就是每个桶中的链表的长度是一个常数,所以,通常意义下,我们认为哈希表的插入/删除/查找时间复杂度是O(1) 。
1. HashMap 和 HashSet 即 java 中利用哈希表实现的 Map 和 Set
2. java 中使用的是哈希桶方式解决冲突的
3. java 会在冲突链表长度大于一定阈值后,将链表转变为搜索树(红黑树)
4. java 中计算哈希值实际上是调用的类的 hashCode 方法,进行 key 的相等性比较是调用 key 的equals 方法。所以如果要用自定义类作为 HashMap 的 key 或者 HashSet 的值,必须覆写 hashCode 和equals 方法,而且要做到 equals 相等的对象,hashCode 一定是一致的。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。