赞
踩
位图,就是用每一位来存放某种状态,适用于海量数据,数据无重复的场景。通常是用来判断某个数据存不存在的。
给40亿个不重复的无符号整数,没排过序。给一个无符号整数,如何快速判断一个数是否在这40亿个数中。
这两个方案存在一个致命的缺陷——40亿个数据量太大内存存不下
补充:
1G=1024MB
1MB=1024KB
1KB=1024byte
1byte=8bit
1G大约是10亿个字节
template<size_t N> class bitset { public: bitset() { _bits.resize(N / 8 + 1, 0); } bool test(size_t x) { size_t i = x / 8; size_t j = x % 8; //return _bits[i] & (1 << j); return ((_bits[i] & (1 << j)) == 0) ? false : true; } void set(size_t x) { size_t i = x / 8; size_t j = x % 8; _bits[i] |= (1 << j); } void reset(size_t x) { size_t i = x / 8; size_t j = x % 8; _bits[i] &= (~(1 << j)); } private: vector<char> _bits; };
这道题跟上面的题类似,利用位图解决:找出只出现一次的整数(无非有三种情况:0次、1次、2次及以上)
template<size_t N> class FindOnceValSet { public: void set(size_t x) { if (_bs1.test(x) == false && _bs2.test(x) == true) { _bs1.set(x); _bs2.reset(x); } else if(_bs1.test(x) == false && _bs2.test(x) == false) _bs2.set(x); } void print_once_num() { for (size_t i = 0;i < N;i++) { if (_bs1.test(i) == false && _bs2.test(i) == true) cout << i << " "; } } private: bitset<N> _bs1; bitset<N> _bs2; };
就是把同一个数据在两个为位图都是11的找出来
跟第一道题类似(无非有四种情况:0次、1次、2次、3次及以上)
template<size_t N> class FindValSet { public: void set(size_t x) { if (_bs1.test(x) == false && _bs2.test(x) == true) { _bs1.set(x); _bs2.reset(x); } else if (_bs1.test(x) == false && _bs2.test(x) == false) _bs2.set(x); else if (_bs1.test(x) == true && _bs2.test(x) == false) _bs2.set(x); } void print_num() { for (size_t i = 0;i < N;i++) { if (_bs1.test(i) == true && _bs2.test(i) == true|| _bs1.test(i) == false && _bs2.test(i) == false) continue; else cout << i << " "; } } private: bitset<N> _bs1; bitset<N> _bs2; };
注意:这三道题也可以用哈希切割来解决
给一个超过100G大小的log file, log中存着IP地址, 设计算法找到出现次数最多的IP地址? 与上题条件相同,如何找到top K的IP?如何直接用Linux系统命令实现?
这里大文件不能统计次数,要想办法切分成小文件,但是不能平均切分,平均切分统计不出次数。先创建100个小文件,分别叫0.txt 1.txt …99.txt。然后读取100G long file,依次获取每个ip用一个字符串哈希算法,把ip转换成整形。比如使用BKDR size_t num = BKDRHash(ip)% 100(相同的ip,一定会进入编号相同的小文件。),然后这个ip就进行num.txt号小文件,依次对所有ip,进行处理,进入对应的小文件。依次读取每个小文件,比如先读取0.txt中ip,map<string, int>统计次数。这里ip的次数就是他最终次数,将map中ip次数依次与top k(k个数小堆)中的比较,比推顶的的ip次数大替换堆顶ip,然后在clear掉map中值,在读取1.txt,继续统计次数,不断走下去。比如要找出出现次数最多的ip,那就记录一下,每次统计出的次数最多ip,比较记录下最多即可
ps∶极端情况如果某个小文件过大,可以考虑再次对他切分,可以换一个字符串哈希算法。(用递归)
Linux命令,假设top 10:sort log_file | uniq -c | sort -nr k1,1 | head -10
布隆过滤器是由布隆(Burton Howard Bloom)在1970年提出的 一种紧凑型的、比较巧妙的概率型数据结构,特点是高效地插入和查询,可以用来告诉你 “某样东西一定不存在或者可能存在”,它是用多个哈希函数,将一个数据映射到位图结构中。此种方式不仅可以提升查询效率,也可以节省大量的内存空间。
1亿个ip字符串,现在给你一个ip,需要快速判断这个ip在不在上面的1亿ip中?
注意:布隆过滤器存在的问题(不可避免)
像一些登录系统,注册的时候需要每个用户取一个昵称,要求昵称不能重复。那么注册时候,输入一个昵称以后,就要判断一下这个昵称是否被注册。这时可以使用一个布隆过滤器存储所有昵称,快速判断一个昵称是否使用过–容许误判,因为当判断为注册,但昵称不一定用过(但是系统可以判定为用过,这样用户也不知道这个昵称没用过(只是不让用罢了));判断为未注册,昵称一定未用过,可以使用。从而快速判断出结果
判断一个手机号是否注册当前系统,,判断手机号在不在布隆过滤器,如果不在,则返回未注册;如果在,则需要在服务器数据库中查找是否存在,存在则返回注册过,不存在则返回未注册
注意:布隆过滤器如果说某个元素不存在时,该元素一定不存在,如果该元素存在时,该元素可能存在,因为有些哈希函数存在一定的误判。 比如:在布隆过滤器中查找"alibaba"时,假设3个哈希函数计算的哈希值为:1、3、7,刚好和其他元素的比特位重叠,此时布隆过滤器告诉该元素存在,但实该元素是不存在的。
布隆过滤器不能直接支持删除工作,因为在删除一个元素时,可能会影响其他元素。
比如:删除上图中"tencent"元素,如果直接将该元素所对应的二进制比特位置0,“baidu”元素也被删除了,因为这两个元素在多个哈希函数计算出的比特位上刚好有重叠。
一种支持删除的方法:将布隆过滤器中的每个比特位扩展成一个小的计数器,插入元素时给k个计数器(k个哈希函数计算出的哈希地址)加一,删除元素时,给k个计数器减一,通过多占用几倍存储空间的代价来增加删除操作。
缺陷:
- 无法确认元素是否真正在布隆过滤器中
- 存在计数回绕
总结: 一般情况不支持删除,多个值可能会标记一个位,删除可能会影响其他key。 如果非要支持删除的话,标记不再使用一个比特位,可以使用多个比特位,进行计数多少个值映射到这个比特位, 但是这种方法是杀敌一千,自损八百的做法,因为消耗的更多的空间。
很显然,过小的布隆过滤器很快所有的 bit 位均为 1,那么查询任何值都会返回“可能存在”,起不到过滤的目的了。布隆过滤器的长度会直接影响误报率,布隆过滤器越长其误报率越小。
另外,哈希函数的个数也需要权衡,个数越多则布隆过滤器 bit 位置位 1 的速度越快,且布隆过滤器的效率越低;但是如果太少的话,那我们的误报率会变高。
struct HashStr1 { size_t operator()(const string& s) { size_t hash = 0; // BKDR for (size_t i = 0; i < s.size(); ++i) { hash *= 131; hash += s[i]; } return hash; } }; struct HashStr2 { size_t operator()(const string& s) { size_t hash = 0; // SDBMHash for (size_t i = 0; i < s.size(); ++i) { hash *= 65599; hash += s[i]; } return hash; } }; struct HashStr3 { size_t operator()(const string& s) { size_t hash = 0; // RSHash size_t magic = 63689; for (size_t i = 0; i < s.size(); ++i) { hash *= magic; hash += s[i]; magic *= 378551; } return hash; } }; template<size_t N,class K=string, class Hash1 = HashStr1,class Hash2 = HashStr2,class Hash3 = HashStr3> class BloomFilter { public: bool Test(const K& key) { size_t index1 = HashStr1()(key) % _len; if (_bs.test(index1) == false) return false; size_t index2 = HashStr2()(key) % _len; if (_bs.test(index2) == false) return false; size_t index3 = HashStr3()(key) % _len; if (_bs.test(index3) == false) return false; return true; } void Set(const K& key) { size_t index1 = HashStr1()(key) % _len; _bs.set(index1); size_t index2 = HashStr2()(key) % _len; _bs.set(index2); size_t index3 = HashStr3()(key) % _len; _bs.set(index3); } // 一般情况不支持删除,why?->多个值可能会标记一个位,删除可能会影响其他key // 如果非要支持删除的话,标记不再使用一个比特位,可以使用多个比特位,进行计数多少个值映射的这个比特位 // 但是这种方法是杀敌一千,自损八百的做法,因为消耗的更多的空间。 private: bitset<5 * N> _bs; size_t _len = 5 * N; };
1. 给两个文件,分别有100亿个query,我们只有1G内存,如何找到两个文件交集?分别给出精确算法和近似算法(这道题跟哈希切割那道题类似)
假设一个query平均20byte,100亿个query大概是2000亿Byte,大概200G。依次读取A的文件中query,然后使用字符串哈希算法转成整形,size_t val = HashStr(query);size_t i = val%200;该query算出的结果进入Ai.txt号小文件.依次读取B的文件中query,然后使用字符串哈希算法转成整形,size_t val = HashStr(query);size_t i = val%200;该query算出的结果进入Bi.txt号小文件. A和B中,相同的query进入编号相同的小文件,只需要编号相同的小文件找交集即可。Ai.txt读进一个setA,Bi.txt读一个setB,setA和setB相同的query就是交集,依次遍历i的值最终得到交集的结果
2. 如何扩展BloomFilter使得它支持删除元素的操作
标记多个比特位(这些比特位不作为标记位),进行计数多少个值映射到这个比特位
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。