当前位置:   article > 正文

python文本相似度分析:TF-IDF方法

文本相似度分析

一、前言

TF-IDF方法的主要思想是:如果某个词或短语在一篇文章中出现的频率(TF) 高,并且在其他文章中很少出现(IDF高),则认为此词或者短语具有很好的类别区分能力。

二、步骤

首先对文档进行特征提取操作:

(1)分割句子:按照空格进行分割,去除数字以及标点符号,并将所有字符全部小写;

(2)去除词汇:去除代词、冠词等功能词;

(3)词干提取:去除单词的复数、过去式、比较级、最高级等形式。

然后对生成的语料库进行每个文档的词频计算、反文档频率计算操作,从而构建出TF-IDF映射表。此时,每个文档都能够用一个单词向量表示。

最终对两个文档的单词向量使用余弦公式进行相似度计算即可。流程图如下所示:

三、函数实现

0.数据准备

我们需要将待处理的文本数据,全部用txt格式保存。如果原始数据是doc或者docx文件,建议先使用word的替换功能,替换掉原始文本数据中的换行符、段落标记等,替换成空格再保存到txt文件里,常用特殊符号的替换方法如下:

输入符号含义
^p段落标记
^l手动换行符
^m手动分页符
^s不间断空格
^+长划线
^=短划线
^~不间断连字符

 1.导包

  1. import re
  2. import nltk.stem.snowball as sb
  3. import pandas as pd
  4. import math
  5. from scipy import spatial
包名用途
re正则表达式

nltk.stem.snowball

词干提取

pandas

输出格式控制

math

数学计算

spatial

计算余弦相似度

2.控制台输出

  1. pd.set_option('display.max_columns', 1000)
  2. pd.set_option('display.width', 1000)
  3. pd.set_option('display.max_colwidth', 1000)

注意:用于控制台输出多行多列数据,而不是省略号,更方便我们确定数据的正确性和完整性。

3.分割句子

  1. def sentence_divide(path):
  2. data = []
  3. with open(path, "r", encoding='utf-8') as f:
  4. for line in f.readlines():
  5. # 1.去除数字,标点,且所有字符全部小写
  6. line = re.sub(r'[.,"\'-?:!;]', '', line).lower()
  7. line = line.strip("\n")
  8. # 2.按照空格分隔
  9. line = line.split()
  10. data.append(line)
  11. return data[0]

注意:这里最后return data[0],因为我提前将文本存储为一行,如果你的txt自动换行,可以关闭这个功能,或者把return data[0]改为return data

4.去除词汇

  1. def delete_word(wordlist):
  2. stop_words = ['i', 'me', 'my', 'myself', 'we', 'is', 'for', 'the', 'those', 'a', 'of', 'he', 'so', 'they', 'may',
  3. 'all', 'which', 'shall', 'towards', 'being', 'been', 'had', 'have', 'having', 'whose', 'was',
  4. 'she', 'it', 'then', 'and', 'by', 'if', 'where', 'when', 'how', 'would', 'not', 'such', 'through',
  5. 'do', 'their', 'be', 'were', 'an',
  6. 'as', 'this', 'that', 'in', 'on', 'to', 'but', 'there', 'into', 'or', 'should']
  7. words = []
  8. for word in wordlist:
  9. if word not in stop_words:
  10. words.append(word)
  11. return words

注意:这里的stop_words相当与nltk库里的stop_words停止词,就是过滤掉我们原始文档中存在的这些没有实际意义的介词、连词等。下载nltk库里的stop_words会出问题,建议和我一样,自己制定就行。

5.词干提取

  1. def standard_word(wordlist):
  2. words = []
  3. # 词干提取
  4. sb_stemmer = sb.SnowballStemmer('english')
  5. for word in wordlist:
  6. words.append(sb_stemmer.stem(word))
  7. return words

6.建立语料库

  1. def word_lib(wordlist1, wordlist2, wordlist3, wordlist4):
  2. lib = wordlist1+wordlist2+wordlist3+wordlist4
  3. lib = set(lib)
  4. return lib

注意:这里的wordlist1, wordlist2, wordlist3, wordlist4,是因为我有四个文档需要对比,因此就放在了一起,你有几个文档,就写几个。

7.TF词频计算

  1. def token_fre(wordlist, wordslib):
  2. d = {}
  3. corpusCount = len(wordlist)
  4. for w in wordslib:
  5. d[w] = 0
  6. for word in wordlist:
  7. d[word] += 1
  8. for word, c in d.items():
  9. d[word] = c / float(corpusCount)
  10. return d

注意:词频计算TF = \frac{n}{sum}n为该词在当前文本中出现的次数,sum为当前文本的总词数。实质就是就是计算文档中每个词汇在单个文本中出现的频率。

8.IDF文档频率计算

  1. def idf_fre(wordlist):
  2. idfDict = {}
  3. N = len(wordlist)
  4. idfDict = dict.fromkeys(wordlist[0].keys(), 0)
  5. for word, val in idfDict.items():
  6. idfDict[word] = math.log10(N / (float(val) + 1))
  7. return (idfDict)

注意:文档频率计算IDF = log10(\frac{N}{n + 1})其中N为文档总个数,n为包含该词的文档个数,加1是为了防止分母为0

9.TF-IDF计算

  1. def computeTFIDF(tfBow, idfs):
  2. tfidf = {}
  3. for word, val in tfBow.items():
  4. tfidf[word] = val * idfs[word]
  5. return tfidf

注意:TF-IDF = TF*IDF

10.计算余弦相似度

  1. def cosine_cal(v1, v2):
  2. cos_sim = 1 - spatial.distance.cosine(v1, v2)
  3. return cos_sim

四、总结

文本相似度分析的方法还有其他,以后有机会再学习

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/酷酷是懒虫/article/detail/743974
推荐阅读
相关标签
  

闽ICP备14008679号