当前位置:   article > 正文

文本相似度(tf-idf 和 bm25的算法讲解)_bm25算法 归一化

bm25算法 归一化

1.关于tf-idf:

(使用tf-idf和向量空间模型)

TF: 文档 j 中的关键词 i 的归一化词频值

描述某一词在一篇文档中出现的频繁程度。

(为了阻止更长的文档得到更高的相关度权值,必须进行文档长度的某种归一化

 

  • TF=freq(i,j) / maxOthers(i,j)      ###(maxxOthers = max(freq(z,j)) 

IDF : 逆文档频率。

降低所有文档中几乎都会出现的关键词的权重。(例如的,了等)

 

  • IDF = log(N /n(i))   ###N 为所有可能推荐文档的数量,n(i)为N中关键词 i 出现过得文档的数量。

TF-IDF权值 = TF*IDF

 

 

2.关于BM25:(可插拔的相似度算法)

BM25源于概率相关模型,而非向量空间模型

BM25同样使用词频,逆文档频率以及字段长度归一化,但是每个因子的定义都有细微差别

(###TF-IDF没有考虑词频上限的问题,因为高频停用词已经被移除了)

(###BM25 有一个上限,文档里出现5-10次的词会比那些只出现一两次的对相关度有显著影响),参见词频饱和度图:

字段长度的归一化:

字段某个词的频率所带来的重要性会被这个字段长度抵消,但是在实际的评分函数中会将所有字段以同等方式对待,认为所有较短的title 比较长的body 字段更重要。

BM25 当然也认为较短字段应该有更多的权重,但是它会分别考虑每个字段内容的平均长度,这样就能区分短 title 字段和  title 字段。

 

 

在 查询时权重提升 中,已经说过 title 字段因为其长度比 body 字段 自然 有更高的权重提升值。由于字段长度的差异只能应用于单字段,这种自然的权重提升会在使用 BM25 时消失。

 

不像 TF/IDF ,BM25 有一个比较好的特性就是它提供了两个可调参数:

k1

这个参数控制着词频结果在词频饱和度中的上升速度。默认值为 1.2 。值越小饱和度变化越快,值越大饱和度变化越慢。

b

这个参数控制着字段长归一值所起的作用, 0.0 会禁用归一化, 1.0 会启用完全归一化。默认值为 0.75 。

在实践中,调试 BM25 是另外一回事, k1 和 b 的默认值适用于绝大多数文档集合,但最优值还是会因为文档集不同而有所区别,为了找到文档集合的最优值,就必须对参数进行反复修改验证。

数学公式:

        idf  : 

    

        tf:

 

    sim = tf*idf

BM25算法代码:

  1. class BM25(object):
  2. def __init__(self, docs):
  3. self.D = len(docs)
  4. self.avgdl = sum([len(doc)+0.0 for doc in docs]) / self.D
  5. self.docs = docs
  6. self.f = [] # 列表的每一个元素是一个dict,dict存储着一个文档中每个词的出现次数
  7. self.df = {} # 存储每个词及出现了该词的文档数量
  8. self.idf = {} # 存储每个词的idf值
  9. self.k1 = 1.5 #参数1,默认值是1.2 #####调参就是调这里的啦
  10. self.b = 0.75   #参数1,默认值为0.75
  11.     
  12. self.init()
  13. def init(self):
  14. for doc in self.docs:
  15. tmp = {}
  16. for word in doc:
  17. tmp[word] = tmp.get(word, 0) + 1 # 存储每个文档中每个词的出现次数
  18. self.f.append(tmp)
  19. for k in tmp.keys():
  20. self.df[k] = self.df.get(k, 0) + 1        #分母+1,平滑处理,避免出现log(0)
  21. for k, v in self.df.items():
  22. self.idf[k] = math.log(self.D-v+0.5)-math.log(v+0.5)     #IDF的计算
  23. def sim(self, doc, index):
  24. score = 0
  25. for word in doc:
  26. if word not in self.f[index]:
  27. continue
  28. d = len(self.docs[index]) #k1
  29. score += (self.idf[word]*self.f[index][word]*(self.k1+1)
  30. / (self.f[index][word]+self.k1*(1-self.b+self.b*d
  31. / self.avgdl)))
  32. return score
  33. def simall(self, doc):
  34. scores = []
  35. for index in range(self.D):
  36. score = self.sim(doc, index)
  37. scores.append(score)
  38. return scores

 

25 公式中包含 3 个自由调节参数 ,除了调节因子 b 外 ,还有针对词频的调节因子 k1和 k2。(我们这里不考虑k2,一般只调节k1)

 k1的作用是对查询词在文档中的词频进行调节,如果将 k1设定为 0,则第二部分计算因子成了整数 1,即不考虑词频的因素,退化成了二元独立模型。 

如果将 k1设定为较大值, 则第二部分计算因子基本和词频 fi保持线性增长,即放大了词频的权值,根据经验,一般将 k1设定为 1.2。调节因子 k2和 k1的作用类似,不同点在于其是针对查询词中的词频进行调节,一般将这个值设定在 0 到 1000 较大的范围内。之所以如此,是因为查询往往很短,所以不同查询词的词频都很小,词频之间差异不大,较大的调节参数数值设定范围允许对这种差异进行放大。

 

参考文献: 《Elasticsearch权威指南》中文版-可插拔的相似度算法权威讲解

                    BM25算法详解具体的公式

在 查询时权重提升 中,已经说过 title 字段因为其长度比 body 字段 自然 有更高的权重提升值。由于字段长度的差异只能应用于单字段,这种自然的权重提升会在使用 BM25 时消失。

 

芦荟胶产品,

https://s.click.taobao.com/3rljuFw

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/秋刀鱼在做梦/article/detail/870487
推荐阅读
相关标签
  

闽ICP备14008679号