赞
踩
目录
unordered系列的关联式容器之所以效率比较高,是因为其底层使用了哈希结构。
顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即O(log2N),搜索的效率取决于搜索过程中元素的比较次数。
理想的搜索方法是能够直接从表中获取要搜索的元素,而不需要进行比较。
哈希方法通过构造一种存储结构,并使用一个哈希函数(hashFunc)使元素的存储位置与其关键码之间建立一一映射的关系。这样,在查找时可以通过哈希函数快速找到元素。
在哈希方法中,当向结构中:
这种方式称为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称为哈希表(Hash Table)或散列表。
例如,对于数据集合{1, 7, 6, 4, 5, 9},可以设置哈希函数为hash(key) = key % capacity,其中capacity表示存储元素的底层空间总大小。
用该方法进行搜索不必进行多次关键码的比较,因此搜索的速度比较快.
引起哈希冲突的一个原因可能是哈希函数设计不够合理。
哈希函数设计原则:
1. 哈希函数的定义域必须包括需要存储的全部关键码,而值域必须在0到m-1之间,其中m是散列表的地址数量。
2. 哈希函数计算出来的地址应该能够均匀分布在整个地址空间中。
3. 哈希函数应该比较简单。
常见的哈希函数包括:
1. 直接定址法(常用):使用关键字的某个线性函数作为散列地址,即 Hash(Key) = A*Key + B。
优点:简单且均匀。
缺点:需要事先知道关键字的分布情况。
使用场景:适合查找比较小且连续的情况,例如字符串中第一个只出现一次的字符。
2. 除留余数法(常用):选择一个不大于散列表地址数量m的质数p作为除数,通过哈希函数 Hash(key) = key % p (p <= m) 将关键码转换成哈希地址。
解决哈希冲突两种常见的方法是: 闭散列和开散列
闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去。 那如何寻找下一个空位置呢?
比如上图中的场景,现在需要插入元素44,先通过哈希函数计算哈希地址, hashAddr为4, 因此44理论上应该插在该位置,但是该位置已经放了值为4的元素,即发生哈希冲突。
线性探测:从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。
插入
通过哈希函数获取待插入元素在哈希表中的位置
如果该位置中没有元素则直接插入新元素,如果该位置中有元素发生哈希冲突, 使用线性探测找到下一个空位置,插入新元素
删除
采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素 会影响其他元素的搜索。比如删除元素4,如果直接删除掉, 44查找起来可能会受影响。因此线性探测采用标记的伪删除法来删除一个元素。
- namespace openAddress
- {
- enum State
- {
- EMPTY,
- EXIST,
- DELETE
- };
-
- template<class K, class V>
- struct HashData
- {
- pair<K, V> _kv;
- State _state = EMPTY;
- };
- }
首先,定义了一个枚举类型 State
,表示哈希表中每个元素的状态。它有三个可能的取值:
EMPTY
:表示该位置为空,没有存储任何数据。EXIST
:表示该位置存储了有效的键值对数据。DELETE
:表示该位置存储的数据已被删除。接下来,定义了一个模板结构体 HashData
,用于存储哈希表中的每个元素的数据。它包含了一个键值对 _kv
,用于存储键和值的对应关系,以及一个 _state
,表示该元素的状态,默认为 EMPTY
。
然后,定义了一个模板类HashTable,用于存放键值对。
- namespace openAddress
- {
- template<class K, class V>
- class HashTable
- {
- private:
- vector<HashData<K, V>> _tables;
- size_t _n = 0;
- };
- }
HashTable
类中,有一个私有成员变量_tables
,它是一个存储HashData<K, V>
类型的向量,用于存储实际的数据。HashTable
类还有一个私有成员变量_n
,用于记录存储的数据个数。- bool Insert(const pair<K, V>& kv)
- {
- if (Find(kv.first))
- return false;
-
- // 负载因子超过0.7就扩容
- //if ((double)_n / (double)_tables.size() >= 0.7)
- if (_tables.size() == 0 || _n * 10 / _tables.size() >= 7) {
- size_t newsize = _tables.size() == 0 ? 10 : _tables.size() * 2;
- HashTable<K, V> newht;
- newht._tables.resize(newsize);
-
- // 遍历旧表,重新映射到新表
- for (auto& data : _tables)
- {
- if (data._state == EXIST)
- {
- newht.Insert(data._kv);
- }
- }
-
- _tables.swap(newht._tables);
- }
-
- size_t hashi = kv.first % _tables.size();
- size_t i = 1, index = hashi;
- while (_tables[index]._state == EXIST) {
- index = hashi + i;
- index %= _tables.size();
- i++;
- }
- _tables[index]._kv = kv;
- _tables[index]._state = EXIST;
- _n++;
- return true;
- }
Find
函数查找是否已存在相同的键,如果存在则返回 false,表示插入失败。newht
,将旧表中的数据重新映射到新表中。hashi
,并使用线性探测法解决哈希冲突,找到合适的插入位置。EXIST
,同时更新元素个数 _n
。插入成功后返回 true。- HashData<K, V>* Find(const K& key)
- {
- if (_tables.size() == 0)
- return nullptr;
-
- size_t hashi = key % _tables.size();
- size_t i = 1, index = hashi;
- while (_tables[index]._state != EMPTY) {
- if (_tables[index]._state == EXIST
- && _tables[index]._kv.first == key) {
- return &_tables[index];
- }
- index = hashi + i++;
- index %= _tables.size();
-
- //如果已经查找一圈,则说明全是存在+删除
- if (index == hashi)
- break;
- }
- return nullptr;
- }
hashi
,并使用线性探测法查找对应的位置。EXIST
的元素且键匹配,则返回该元素的指针。- bool Erase(const K& key)
- {
- HashData<K, V>* ret = Find(key);
- if (ret)
- {
- ret->_state = DELETE;
- --_n;
- return true;
- }
- else
- {
- return false;
- }
- }
Find
函数查找要删除的元素,如果找到了则将其状态设置为 DELETE
,同时更新元素个数 _n
。删除成功返回 true,否则返回 false。线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关系,因为找空位置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题, 找下一个空位置的方法为:
其中:i =1,2,3… ,H0是通过散列函数Hash(x)对元素的关键码 key 进行计算得到的位置,m是表 的大小。对于2.1中如果要插入44,产生冲突,使用解决后的情况为:
研究表明: 当表的长度为质数且表装载因子a不超过0.5时,新的表项一定能够插入,而且任何一个位置都不会被探查两次。因此只要表中有一半的空位置,就不会存在表满的问题。在搜索时可以不考虑表装满的情况,但在插入时必须确保表的装载因子a不超过0.5 ,如果超出必须考虑增容。
因此,哈希表的一个主要缺陷是空间利用率相对较低。
开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地 址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链 接起来,各链表的头结点存储在哈希表中。
这是一个使用链地址法解决冲突的哈希表实现。链地址法是一种常见的哈希冲突解决方法,它将哈希到同一槽位的元素链接在一起,形成一个链表。
这个哈希表的主要组成部分有:
HashNode
:哈希节点,包含一个键值对和一个指向下一个节点的指针。
- template<class K,class V>
- struct HashNode
- {
- HashNode<K, V>* _next;
- pair<K, V> _kv;
- HashNode(const pair<K,V>& kv)
- :_next(nullptr)
- ,_kv(kv)
- {}
- };
HashFunc
:哈希函数,用于计算键的哈希值。这里提供了一个默认的实现,直接返回键本身作为哈希值。另外,还提供了一个特化版本,用于处理字符串键,采用BKDR哈希算法。
- template<class K>
- struct HashFunc
- {
- size_t operator()(const K& key)
- {
- return key;
- }
- };
-
- template<>
- struct HashFunc<string>
- {
- //BKDR
- size_t operator()(const string& s)
- {
- size_t hash = 0;
- for (auto ch : s)
- {
- hash += ch;
- hash *= 31;
- }
- return hash;
- }
- };
HashTable
:哈希表,包含一个哈希节点的向量,每个元素是一个链表的头节点。哈希表还包含一些基本操作,如插入、查找、删除等。
- template<class K,class V,class Hash = HashFunc<K>>
- class HashTable
- {
- typedef HashNode<K, V> Node;
- private:
- vector<Node*> _tables;
- size_t _n = 0;
- public:
- ~HashTable()
- Node* Find(const K& key)
- bool Erase(const K& key)
- size_t GetNextPrime(size_t prime)
- bool Insert(const pair<K, V>& kv)
首先检查键是否已经存在,如果存在则插入失败。然后检查哈希表是否需要扩容,如果需要则进行扩容。最后,计算键的哈希值,找到对应的链表,然后在链表头部插入新的节点。
- bool Insert(const pair<K, V>& kv)
- {
- if (Find(kv.first))
- {
- return false;
- }
- Hash hash;
- // 负载因因子==1时扩容
- if (_n == _tables.size())
- {
- size_t newsize = _tables.size() == 0 ? 10 : _tables.size() * 2;
- vector<Node*> newtables(newsize, nullptr);
- //for (Node*& cur : _tables)
- for (auto& cur : _tables)
- {
- while (cur)
- {
- Node* next = cur->_next;
-
- size_t hashi = hash(cur->_kv.first) % newtables.size();
-
- // 头插到新表
- cur->_next = newtables[hashi];
- newtables[hashi] = cur;
-
- cur = next;
- }
- }
-
- _tables.swap(newtables);
- }
-
- size_t hashi = hash(kv.first) % _tables.size();
- // 头插
- Node* newnode = new Node(kv);
- newnode->_next = _tables[hashi];
- _tables[hashi] = newnode;
-
- ++_n;
- return true;
- }
首先,通过调用Find
函数来检查待插入的键是否已经存在于哈希表中。如果存在,则直接返回false
,表示插入失败。
接下来,创建一个哈希函数对象hash
,用于计算键的哈希值。
然后,判断当前哈希表的负载因子是否达到了扩容的条件。负载因子是指哈希表中已存储元素的数量与哈希表大小的比值。在这段代码中,负载因子等于1时触发扩容操作。
如果需要进行扩容,首先计算新的哈希表大小newsize
。如果当前哈希表大小为0,则将新的哈希表大小设置为10;否则,将新的哈希表大小设置为当前哈希表大小的两倍。
创建一个新的哈希表newtables
,其大小为newsize
,并初始化所有槽位为nullptr
。
遍历旧的哈希表_tables
,对每个槽位中的链表进行处理。通过循环遍历链表中的每个节点,将节点从旧表中取出,并根据节点的键重新计算哈希值,得到在新表中的槽位索引hashi
。
将节点插入到新表的对应槽位中,采用头插法将节点插入链表中。
完成旧表中所有节点的处理后,使用swap
函数将新表newtables
和旧表_tables
交换,使得新表成为当前的哈希表。
计算待插入键的哈希值,得到在当前哈希表中的槽位索引hashi
。
创建一个新的节点newnode
,将待插入的键值对kv
存储在节点中。
将新节点插入到当前哈希表的槽位hashi
的链表中,采用头插法将节点插入链表中。
增加哈希表中元素的数量_n
。
返回true
,表示插入成功。
Find
:查找操作,首先计算键的哈希值,然后对哈希表的大小取模,得到槽位索引。然后在对应的链表中查找键。
- Node* Find(const K& key)
- {
- if (_tables.size() == 0)
- return nullptr;
- Hash hash;
- size_t hashi = hash(key) % _tables.size();
- Node* cur = _tables[hashi];
- while (cur)
- {
- if (cur->_kv.first == key)
- return cur;
- cur = cur->_next;
- }
- return nullptr;
- }
Erase
:删除操作,同样首先找到键对应的链表,然后在链表中查找并删除节点。
- bool Erase(const K& key)
- {
- Hash hash;
- size_t hashi = hash(key) % _tables.size();
- Node* prev = nullptr;
- Node* cur = _tables[hashi];
- while (cur)
- {
- if (cur->_kv.first == key)
- {
- if(prev==nullptr)
- _tables[hashi] = cur->_next;
- else
- prev->_next = cur->_next;
-
- delete cur;
- return true;
- }
- else
- {
- prev = cur;
- cur = cur->_next;
- }
- }
- return false;
- }
在类模板的析构函数中,首先遍历哈希表的每个桶(bucket),然后释放每个桶中的链表节点(HashNode),最后将桶指针置为空指针。这样可以确保在析构哈希表时,释放了所有的节点内存。
- ~HashTable()
- {
- for (auto& cur : _tables)
- {
- while (cur)
- {
- Node* next = cur->_next;
- delete cur;
- cur = next;
- }
-
- cur = nullptr;
- }
- }
在哈希表的扩容过程中,通常会选择一个比当前容量更大的新容量。选择合适的新容量大小对于哈希表的性能和效率非常重要。这里使用了一个预定义的质数列表__stl_prime_list
,其中包含了一系列递增的质数。
通过调用GetNextPrime
函数,可以根据当前容量选择一个比它更大的质数作为新的容量。这样做的目的是为了减少哈希冲突的发生,提高哈希表的性能。质数的选择可以使得哈希函数的分布更加均匀,减少冲突的可能性。
- // size_t newsize = GetNextPrime(_tables.size());
- size_t GetNextPrime(size_t prime)
- {
- // SGI
- static const int __stl_num_primes = 28;
- static const unsigned long __stl_prime_list[__stl_num_primes] =
- {
- 53, 97, 193, 389, 769,
- 1543, 3079, 6151, 12289, 24593,
- 49157, 98317, 196613, 393241, 786433,
- 1572869, 3145739, 6291469, 12582917, 25165843,
- 50331653, 100663319, 201326611, 402653189, 805306457,
- 1610612741, 3221225473, 4294967291
- };
-
- size_t i = 0;
- for (; i < __stl_num_primes; ++i)
- {
- if (__stl_prime_list[i] > prime)
- return __stl_prime_list[i];
- }
-
- return __stl_prime_list[i];
- }
MaxBucketSize
:返回哈希表中最长链表的长度,这可以用来评估哈希表的负载情况。如果某个链表过长,可能意味着哈希函数的分布性不好,或者哈希表的大小不够。
- size_t MaxBucketSize()
- {
- size_t max = 0;
- for (size_t i = 0; i < _tables.size(); i++)
- {
- auto cur = _tables[i];
- size_t size = 0;
- while (cur)
- {
- size++;
- cur = cur->_next;
- }
- if (size > max)
- max = size;
- }
- return max;
- }
- void TestHashTableMax()
- {
- size_t N = 900000;
- HashTable<int, int> ht;
- srand(time(0));
- for (size_t i = 0; i < N; ++i)
- {
- size_t x = rand() + i;
- ht.Insert(make_pair(x, x));
- }
-
- cout << ht.MaxBucketSize() << endl;
- }
1. 负载因子控制:
负载因子(load factor)是指已存储元素数量与哈希表大小的比值。负载因子控制是为了保持哈希表的性能和效率。当负载因子超过一定阈值(通常为0.7)时,表示哈希表中的元素数量接近或超过了哈希表的容量,此时冲突的可能性会增加。为了避免冲突过多,可以进行哈希表的扩容操作,即增加哈希表的大小,以减少负载因子。通过控制负载因子,可以平衡哈希表的空间利用率和性能。
2. 单个桶超过一定长度,改为红黑树:
在哈希表中,每个桶(bucket)存储一定数量的元素。当某个桶中的元素数量超过一定长度(通常为8或者更多)时,为了提高查找效率,可以将该桶中的元素改为使用红黑树进行存储。红黑树是一种自平衡的二叉搜索树,可以在O(logN)的时间复杂度内进行查找、插入和删除操作。通过将超过一定长度的桶改为红黑树,可以避免在长链表中进行线性查找,提高了哈希表的性能。
使用联合体来实现将单个桶超过一定长度改为挂载红黑树的操作可以通过以下步骤实现:
1. 定义一个联合体,包含两个成员:链表指针和红黑树指针。这样的联合体可以用来存储桶中的元素。
- union BucketData{
- LinkedListNode* linkedList;
- RedBlackTree* redBlackTree;
- };
2. 在哈希表的每个桶中,使用上述定义的联合体类型来存储元素。初始时,将桶中的元素存储为链表。
- struct Bucket{
- BucketData data;
- int length; // 记录桶中元素的数量
- };
3. 当桶中的元素数量超过一定长度时,将联合体中的链表指针转换为红黑树指针,并将元素逐个插入红黑树中。
- if (bucket.length > threshold) {
- // 创建红黑树
- RedBlackTree* tree = createRedBlackTree();
-
- // 将链表中的元素逐个插入红黑树
- LinkedListNode* currentNode = bucket.data.linkedList;
- while (currentNode != NULL) {
- insertIntoRedBlackTree(tree, currentNode->data);
- currentNode = currentNode->next;
- }
-
- // 更新桶中的数据为红黑树指针
- bucket.data.redBlackTree = tree;
- }
4. 在进行查找、插入或删除操作时,根据桶中的数据类型进行相应的操作。
- if (bucket.data.linkedList != NULL) {
- // 链表操作
- // ...
- } else if (bucket.data.redBlackTree != NULL) {
- // 红黑树操作
- // ...
- }
通过使用联合体,可以在同一内存空间中存储链表和红黑树,根据需要进行切换。这样可以实现将单个桶超过一定长度改为挂载红黑树的操作,并在操作时根据桶中的数据类型选择相应的操作方式。这种方式可以提高哈希表的性能和效率。
- #pragma once
- #include <vector>
- #include <iostream>
- using namespace std;
- namespace openAddress
- {
- enum State
- {
- EMPTY,
- EXIST,
- DELETE
- };
-
- template<class K, class V>
- struct HashData
- {
- pair<K, V> _kv;
- State _state = EMPTY;
- };
-
- template<class K, class V>
- class HashTable
- {
- public:
- bool Insert(const pair<K, V>& kv)
- {
- if (Find(kv.first))
- return false;
-
- // 负载因子超过0.7就扩容
- //if ((double)_n / (double)_tables.size() >= 0.7)
- if (_tables.size() == 0 || _n * 10 / _tables.size() >= 7) {
- size_t newsize = _tables.size() == 0 ? 10 : _tables.size() * 2;
- HashTable<K, V> newht;
- newht._tables.resize(newsize);
-
- // 遍历旧表,重新映射到新表
- for (auto& data : _tables)
- {
- if (data._state == EXIST)
- {
- newht.Insert(data._kv);
- }
- }
-
- _tables.swap(newht._tables);
- }
-
- size_t hashi = kv.first % _tables.size();
- size_t i = 1, index = hashi;
- while (_tables[index]._state == EXIST) {
- index = hashi + i;
- index %= _tables.size();
- i++;
- }
- _tables[index]._kv = kv;
- _tables[index]._state = EXIST;
- _n++;
- return true;
- }
- HashData<K, V>* Find(const K& key)
- {
- if (_tables.size() == 0)
- return nullptr;
-
- size_t hashi = key % _tables.size();
- size_t i = 1, index = hashi;
- while (_tables[index]._state != EMPTY) {
- if (_tables[index]._state == EXIST
- && _tables[index]._kv.first == key) {
- return &_tables[index];
- }
- index = hashi + i++;
- index %= _tables.size();
-
- if (index == hashi)
- break;
- }
- return nullptr;
- }
-
- bool Erase(const K& key)
- {
- HashData<K, V>* ret = Find(key);
- if (ret)
- {
- ret->_state = DELETE;
- --_n;
- return true;
- }
- else
- {
- return false;
- }
- }
-
- private:
- vector<HashData<K, V>> _tables;
- size_t _n = 0;
- };
-
- void TestHashTable()
- {
- HashTable<int, std::string> ht;
-
- // 插入键值对
- ht.Insert(std::make_pair(1, "One"));
- ht.Insert(std::make_pair(2, "Two"));
- ht.Insert(std::make_pair(3, "Three"));
- ht.Insert(std::make_pair(4, "Four"));
- ht.Insert(std::make_pair(5, "Five"));
-
- // 查找键值对
- HashData<int, std::string>* data = ht.Find(3);
- if (data)
- {
- std::cout << "Key: " << data->_kv.first << ", Value: " << data->_kv.second << std::endl;
- }
- else
- {
- std::cout << "Key not found." << std::endl;
- }
-
- // 删除键值对
- bool erased = ht.Erase(4);
- if (erased)
- {
- std::cout << "Key 4 erased successfully." << std::endl;
- }
- else
- {
- std::cout << "Key 4 not found." << std::endl;
- }
-
- // 再次查找键值对
- data = ht.Find(4);
- if (data)
- {
- std::cout << "Key: " << data->_kv.first << ", Value: " << data->_kv.second << std::endl;
- }
- else
- {
- std::cout << "Key not found." << std::endl;
- }
- }
- }
-
- namespace HashBucket1
- {
- template<class K,class V>
- struct HashNode
- {
- HashNode<K, V>* _next;
- pair<K, V> _kv;
- HashNode(const pair<K,V>& kv)
- :_next(nullptr)
- ,_kv(kv)
- {}
- };
-
- template<class K>
- struct HashFunc
- {
- size_t operator()(const K& key)
- {
- return key;
- }
- };
-
- template<>
- struct HashFunc<string>
- {
- //BKDR
- size_t operator()(const string& s)
- {
- size_t hash = 0;
- for (auto ch : s)
- {
- hash += ch;
- hash *= 31;
- }
- return hash;
- }
- };
-
- template<class K,class V,class Hash = HashFunc<K>>
- class HashTable
- {
- typedef HashNode<K, V> Node;
- private:
- vector<Node*> _tables;
- size_t _n = 0;
- public:
- ~HashTable()
- {
- for (auto& cur : _tables)
- {
- while (cur)
- {
- Node* next = cur->_next;
- delete cur;
- cur = next;
- }
- cur = nullptr;
- }
- }
-
- Node* Find(const K& key)
- {
- if (_tables.size() == 0)
- return nullptr;
- Hash hash;
- size_t hashi = hash(key) % _tables.size();
- Node* cur = _tables[hashi];
- while (cur)
- {
- if (cur->_kv.first == key)
- return cur;
- cur = cur->_next;
- }
- return nullptr;
- }
-
- bool Erase(const K& key)
- {
- Hash hash;
- size_t hashi = hash(key) % _tables.size();
- Node* prev = nullptr;
- Node* cur = _tables[hashi];
- while (cur)
- {
- if (cur->_kv.first == key)
- {
- if(prev==nullptr)
- _tables[hashi] = cur->_next;
- else
- prev->_next = cur->_next;
-
- delete cur;
- return true;
- }
- else
- {
- prev = cur;
- cur = cur->_next;
- }
- }
- return false;
- }
-
- // size_t newsize = GetNextPrime(_tables.size());
- size_t GetNextPrime(size_t prime)
- {
- // SGI
- static const int __stl_num_primes = 28;
- static const unsigned long __stl_prime_list[__stl_num_primes] =
- {
- 53, 97, 193, 389, 769,
- 1543, 3079, 6151, 12289, 24593,
- 49157, 98317, 196613, 393241, 786433,
- 1572869, 3145739, 6291469, 12582917, 25165843,
- 50331653, 100663319, 201326611, 402653189, 805306457,
- 1610612741, 3221225473, 4294967291
- };
-
- size_t i = 0;
- for (; i < __stl_num_primes; ++i)
- {
- if (__stl_prime_list[i] > prime)
- return __stl_prime_list[i];
- }
-
- return __stl_prime_list[i];
- }
-
- bool Insert(const pair<K, V>& kv)
- {
- if (Find(kv.first))
- {
- return false;
- }
- Hash hash;
- // 负载因因子==1时扩容
- if (_n == _tables.size())
- {
- size_t newsize = _tables.size() == 0 ? 10 : _tables.size() * 2;
- vector<Node*> newtables(newsize, nullptr);
- //for (Node*& cur : _tables)
- for (auto& cur : _tables)
- {
- while (cur)
- {
- Node* next = cur->_next;
-
- size_t hashi = hash(cur->_kv.first) % newtables.size();
-
- // 头插到新表
- cur->_next = newtables[hashi];
- newtables[hashi] = cur;
-
- cur = next;
- }
- }
-
- _tables.swap(newtables);
- }
-
- size_t hashi = hash(kv.first) % _tables.size();
- // 头插
- Node* newnode = new Node(kv);
- newnode->_next = _tables[hashi];
- _tables[hashi] = newnode;
-
- ++_n;
- return true;
- }
-
- size_t MaxBucketSize()
- {
- size_t max = 0;
- for (size_t i = 0; i < _tables.size(); i++)
- {
- auto cur = _tables[i];
- size_t size = 0;
- while (cur)
- {
- size++;
- cur = cur->_next;
- }
- if (size > max)
- max = size;
- }
- return max;
- }
- };
-
- void TestHashTableMax()
- {
- size_t N = 900000;
- HashTable<int, int> ht;
- srand(time(0));
- for (size_t i = 0; i < N; ++i)
- {
- size_t x = rand() + i;
- ht.Insert(make_pair(x, x));
- }
-
- cout << ht.MaxBucketSize() << endl;
- }
-
- void TestHashTable()
- {
- // 创建哈希表对象
- HashBucket1::HashTable<int, std::string> ht;
-
- // 插入元素
- ht.Insert(std::make_pair(1, "One"));
- ht.Insert(std::make_pair(2, "Two"));
- ht.Insert(std::make_pair(3, "Three"));
- ht.Insert(std::make_pair(4, "Four"));
- ht.Insert(std::make_pair(5, "Five"));
-
- // 查找元素
- HashBucket1::HashNode<int, std::string>* node = ht.Find(3);
- if (node) {
- std::cout << "Found: " << node->_kv.second << std::endl;
- }
- else {
- std::cout << "Not found" << std::endl;
- }
-
- // 删除元素
- bool erased = ht.Erase(4);
- if (erased) {
- std::cout << "Element erased successfully" << std::endl;
- }
- else {
- std::cout << "Element not found" << std::endl;
- }
-
- // 获取哈希表中最长链表的长度
- size_t maxBucketSize = ht.MaxBucketSize();
- std::cout << "Max bucket size: " << maxBucketSize << std::endl;
-
- }
- }
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。