赞
踩
TF-IDF是Term Frequency - Inverse Document Frequency的缩写,即“词频-逆文本频率”。它由两部分组成,TF和IDF。
TF策略我在之前的高频词提取文章中进行过使用,TF用来表示词频,也就是某个词在文章中出现的总次数,也就是:
TF=某个词在文章中出现的总次数
但是考虑到每篇文章的长短是不同的,所以我们可以把上述内容进行一个标准化:
TF=某个词在文章中出现的总次数/文章的总词数
IDF用来表示逆文档频率,所谓逆文档频率其实是用来反映一个词在所有文档中出现的频率,当一个词在很多文档中出现的时候,其所对应的IDF值也应该变低,当一个词在很少的文档中出现的时候,其所对应的IDF值就会变高,用一个式子来表述一下:
IDF=log(语料库中的文档总数/(包含该词的文档数+1))
在这里我们+1的目的是为了当没有词语在文档中时来避免分母为0。
现在我们知道了TF,IDF分别代表什么,那么我们也可以得到TF-IDF:
TF-IDF=TF*IDF
并且根据上述的性质我们可以得出:TF-IDF与一个词在文档中的出现次数成正比,与该词在整个语料库中的出现次数成反比。
我们了解了TF-IDF代表什么之后,下面我们来用不同的方式来实现一下该算法。
首先我们来设定一个语料库并进行分词处理:
- # 建立一个语料库
- corpus = [
- "what is the weather like today",
- "what is for dinner tonight",
- "this is a question worth pondering",
- "it is a beautiful day today"
- ]
- # 进行分词
- words = []
- for i in corpus:
- words.append(i.split(" "))
- print(words)
得到的结果如下:
接下来我们来计算一下每个词语在当前文档中出现的次数:
- # 给每一个词一个ID并统计每个词在当前文档中出现的次数
- dic = corpora.Dictionary(words)
- new_corpus = [dic.doc2bow(text) for text in words]
- print(new_corpus)
- print(dic.token2id)
得到的结果如下:
doc2bow函数主要用于让dic中的内用变为bow词袋模型,其中每个括号中的第一个数代表词的ID第二个数代表在当前文档中出现的次数。(可能例子选择的不佳,这里每个词出现的次数都为1)
token2id主要用于输出一种字典类型的数据,其数据格式为:{词,对应的单词id}
如果是id2token则为:{单词id,对应的词},这里用那种形式都可以。
然后我们要训练gensim模型并保存,并加以测试:
- # 训练模型并保存
- tfidf = models.TfidfModel(new_corpus)
- tfidf.save("my_model.tfidf")
-
- # 载入模型
- tfidf = models.TfidfModel.load("my_model.tfidf")
-
- # 使用训练好的模型计算TF-IDF值
- string = "i like the weather today"
- string_bow = dic.doc2bow(string.lower().split())
- string_tfidf = tfidf[string_bow]
- print(string_tfidf)
结果如下:
由结果我们可以看出训练出来的结果左边是词的ID右边是词的tfidf值,但是对于我们在训练模型时没有训练到的词,在结果中别没有显示出来。
sklearn使用起来要比gensim方便的多,主要用到了sklearn中的TfidfVectorizer:
- from sklearn.feature_extraction.text import TfidfVectorizer
- corpus = [
- "what is the weather like today",
- "what is for dinner tonight",
- "this is a question worth pondering",
- "it is a beautiful day today"
- ]
-
- tfidf_vec = TfidfVectorizer()
- # 利用fit_transform得到TF-IDF矩阵
- tfidf_matrix = tfidf_vec.fit_transform(corpus)
-
- # 利用get_feature_names得到不重复的单词
- print(tfidf_vec.get_feature_names())
-
- # 得到每个单词所对应的ID
- print(tfidf_vec.vocabulary_)
-
- # 输出TF-IDF矩阵
- print(tfidf_matrix)
得到的部分参考结果如下:
上文中我们用了两种库函数来计算自定义语料库中每个单词的TF-IDF值,下面我们来手动实现一下TF-IDF:
- import math
-
- corpus = [
- "what is the weather like today",
- "what is for dinner tonight",
- "this is a question worth pondering",
- "it is a beautiful day today"
- ]
- words = []
- # 对corpus分词
- for i in corpus:
- words.append(i.split())
-
-
- # 如果有自定义的停用词典,我们可以用下列方法来分词并去掉停用词
- # f = ["is", "the"]
- # for i in corpus:
- # all_words = i.split()
- # new_words = []
- # for j in all_words:
- # if j not in f:
- # new_words.append(j)
- # words.append(new_words)
- # print(words)
-
- # 进行词频统计
- def Counter(word_list):
- wordcount = []
- for i in word_list:
- count = {}
- for j in i:
- if not count.get(j):
- count.update({j: 1})
- elif count.get(j):
- count[j] += 1
- wordcount.append(count)
- return wordcount
-
-
- wordcount = Counter(words)
-
-
- # 计算TF(word代表被计算的单词,word_list是被计算单词所在文档分词后的字典)
- def tf(word, word_list):
- return word_list.get(word) / sum(word_list.values())
-
-
- # 统计含有该单词的句子数
- def count_sentence(word, wordcount):
- return sum(1 for i in wordcount if i.get(word))
-
-
- # 计算IDF
- def idf(word, wordcount):
- return math.log(len(wordcount) / (count_sentence(word, wordcount) + 1))
-
-
- # 计算TF-IDF
- def tfidf(word, word_list, wordcount):
- return tf(word, word_list) * idf(word, wordcount)
-
-
- p = 1
- for i in wordcount:
- print("part:{}".format(p))
- p = p+1
- for j, k in i.items():
- print("word: {} ---- TF-IDF:{}".format(j, tfidf(j, i, wordcount)))
运行后的部分结果如下:
TF-IDF主要用于文章中关键词的提取工作,也可用于查找相似文章、对文章进行摘要提取、特征选择(重要特征的提取)工作。
TF-IDF算法的优点是简单快速,结果比较符合实际情况。缺点是,单纯以"词频"衡量一个词的重要性,不够全面,有时重要的词可能出现次数并不多。而且,这种算法无法体现词的位置信息,出现位置靠前的词与出现位置靠后的词,都被视为重要性相同,这是不正确的。(一种解决方法是,对全文的第一段和每一段的第一句话,给予较大的权重。)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。