当前位置:   article > 正文

基于SVM算法的意图识别_意图识别 svm

意图识别 svm

在这个项目里, 你需要完成一个意图识别的任务,主要使用的模型是SVM算法。使用的数据集是SMP2018中文人机对话技术评测,是由科大讯飞股份有限公司提供数据。具体的数据可以从以下的链接下载: https://worksheets.codalab.org/worksheets/0x27203f932f8341b79841d50ce0fd684f/#, 下载之后把是数据集解压在当前的工程的根目录下。 在这个任务里,你即将要完成的几个任务是:

  1. 读取文件、展示数据、并做并将label映射为数字index, 以及将index映射为类别。
  2. 使用分词工具对用户query进行切分。
  3. 下载停用词表:https://github.com/goto456/stopwords/blob/master/%E4%B8%AD%E6%96%87%E5%81%9C%E7%94%A8%E8%AF%8D%E8%A1%A8.txt,
    读取, 并对分词后结果进行过滤
  4. 统计词频,并过滤低频词
  5. 计算tfidf

下载tiny-word-embeddinghttps://github.com/Embedding/Chinese-Word-Vectors, 分别使用tfidf, word2vec 建立SVM模型, 并对比二者结果。

1. 下载数据和预处理

  1. import numpy as np
  2. import pandas as pd
  3. import jieba # 感谢这个magic package,你不必要担心如何分词。如果想了解细节,可以参考此文件。
  4. import requests
  5. import os
  6. from collections import Counter
  7. from sklearn.feature_extraction.text import TfidfTransformer
  8. from sklearn.feature_extraction.text import CountVectorizer
  9. from gensim.models import Word2Vec
  10. from sklearn.svm import SVC
  11. from sklearn import metrics
  12. from tqdm import tqdm
  13. import pickle
  14. import warnings
  15. warnings.filterwarnings('ignore')
  1. #下载数据,数据集为SMP2018
  2. #训练集数据保存在同目录下的train.json文件中,测试集数据保存在同目录下的test.json文件中
  3. #也可以使用! wget https://worksheets.codalab.org/rest/bundles/0x0161fd2fb40d4dd48541c2643d04b0b8/contents/blob/ 方式下载
  4. if not os.path.exists('train.json'):
  5. trainData = requests.get("https://worksheets.codalab.org/rest/bundles/0x0161fd2fb40d4dd48541c2643d04b0b8/contents/blob/")
  6. with open("train.json", "wb") as f:
  7. f.write(trainData.content)
  8. if not os.path.exists('test.json'):
  9. testData = requests.get("https://worksheets.codalab.org/rest/bundles/0x1f96bc12222641209ad057e762910252/contents/blob/")
  10. with open("test.json", "wb") as f:
  11. f.write(testData.content)
  1. #读取数据至DataFrame中
  2. train_df = pd.read_json("train.json").transpose()
  3. test_df = pd.read_json("test.json").transpose()
  1. # 先来查看一下数据,确保没有任何错误!
  2. print ("训练数据和测试数据:", train_df.shape, test_df.shape)
  3. print ("标签的种类: ", train_df.label.unique()) # 查看标签的个数以及标签种类,预计10个类别。
  1. labelName = train_df.label.unique() #全部label列表
  2. #实现文本label 与index的映射 hint : zip dict
  3. label_index_dict = dict(zip(labelName,range(len(labelName))))
  4. #查看label 与index 的映射关系
  5. print(label_index_dict)
  1. #统计并展示每一个类别出现的次数 hint groupby().count() / value_counts()
  2. train_df['label'].value_counts()
  1. #将dataframe 中文本label转换为数字。 hint: map
  2. train_df["labelIndex"] = train_df.label.map(lambda x:label_index_dict.get(x))# TODO
  3. test_df["labelIndex"] = test_df.label.map(lambda x:label_index_dict.get(x))# TODO
  1. # 对数据中的文本进行分词 hint: jieba.cut
  2. # jieba.cut 返回一个generator, 需要进行转换 hint: list
  3. def query_cut(query):
  4. # TODO
  5. return list(jieba.cut(query))
  6. train_df["queryCut"] = train_df["query"].apply(query_cut)
  7. test_df["queryCut"] = test_df["query"].apply(query_cut)
  1. # 查看分词结果
  2. train_df.head()
  1. #下载中文停用词表并保存到stopWord.json文件中,数据来源:https://github.com/goto456/stopwords/blob/master/%E4%B8%AD%E6%96%87%E5%81%9C%E7%94%A8%E8%AF%8D%E8%A1%A8.txt
  2. if not os.path.exists('stopWord.json'):
  3. stopWord = requests.get("https://raw.github.com/goto456/stopwords/master/%E4%B8%AD%E6%96%87%E5%81%9C%E7%94%A8%E8%AF%8D%E8%A1%A8.txt")
  4. with open("stopWord.json", "wb") as f:
  5. f.write(stopWord.content)
  1. # 读取停用词
  2. with open("stopWord.json","r",encoding='utf-8') as f:
  3. stopWords = f.read()[1:-1].replace('"','').split(',')
  4. # 查看停用词
  5. stopWords[0:30]
  1. # 使用停止词过滤上一步分词结果
  2. def rm_stop_word(wordList):
  3. # TODO
  4. new_wordList = [word for word in wordList if word not in stopWords]
  5. return new_wordList
  6. train_df["queryCutRMStopWord"] = train_df["queryCut"].apply(rm_stop_word)
  7. test_df["queryCutRMStopWord"] = test_df["queryCut"].apply(rm_stop_word)
  1. # 查看过滤停止词后的结果
  2. train_df.head()
  1. # 计算词频 hint collections.Counter()
  2. import collections
  3. allWords = [word for query in train_df.queryCutRMStopWord for word in query] #所有词组成的列表
  4. freWord = dict(collections.Counter(allWords))#统计词频,一个字典,键为词,值为词出现的次数
  1. # 过滤低频词
  2. highFreWords = [word for word in freWord.keys() if freWord[word]>3] #词频超过3的词列表
  3. def rm_low_fre_word(query):
  4. # TODO
  5. new_query = [word for word in query if word in highFreWords]
  6. return new_query
  7. #去除低频词
  8. train_df["queryFinal"] = train_df["queryCutRMStopWord"].apply(rm_low_fre_word)
  9. test_df["queryFinal"] = test_df["queryCutRMStopWord"].apply(rm_low_fre_word)

2. 计算TFIDF

这部分是将文本数据转化为计算机可以识别的类型。 tf-idf是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。

w_i_,_j = tf_i_,_j*log(N/df_i)

tfidf有几个关键参数

ngram_range: tuple(min_n, max_n) 要提取的n-gram的n-values的下限和上限范围,在min_n <= n <= max_n区间的n的全部值
stop_words:string {'english'}, list, or None(default)
如果为english,用于英语内建的停用词列表
如果为list,该列表被假定为包含停用词,列表中的所有词都将从令牌中删除
如果None,不使用停用词。max_df可以被设置为范围[0.7, 1.0)的值,基于内部预料词频来自动检测和过滤停用词
max_df: float in range [0.0, 1.0] or int, optional, 1.0 by default
当构建词汇表时,严格忽略高于给出阈值的文档频率的词条,语料指定的停用词。如果是浮点值,该参数代表文档的比例,整型绝对计数值,如果词汇表不为None,此参数被忽略。
min_df:float in range [0.0, 1.0] or int, optional, 1.0 by default
当构建词汇表时,严格忽略低于给出阈值的文档频率的词条,语料指定的停用词。如果是浮点值,该参数代表文档的比例,整型绝对计数值,如果词汇表不为None,此参数被忽略。
max_features: optional, None by default
如果不为None,构建一个词汇表,仅考虑max_features--按语料词频排序,如果词汇表不为None,这个参数被忽略
norm:'l1', 'l2', or None,optional
范数用于标准化词条向量。None为不归一化
smooth_idf:boolean,optional
通过加1到文档频率平滑idf权重,为防止除零,加入一个额外的文档

  1. # 将分词且过滤后的文本数据转化为tfidf 形式:
  2. trainText = [' '.join(query) for query in train_df["queryFinal"]]
  3. testText = [' '.join(query) for query in test_df["queryFinal"]]
  4. allText = trainText+testText
  5. # sklearn tfidf vector fit_transform
  6. vectorizer = CountVectorizer()
  7. transformer = TfidfTransformer()
  8. tfidf = transformer.fit_transform(vectorizer.fit_transform(allText))
  1. # 切分数据集 hint sklearn train_test_split()
  2. trainLen = len(train_df)
  3. train_x_tfidf = tfidf.toarray()[0:trainLen]
  4. test_x_tfidf = tfidf.toarray()[trainLen:]
  5. train_y_tfidf = train_df["labelIndex"]
  6. test_y_tfidf = test_df["labelIndex"]
  1. # 切分后的数据信息
  2. print("train_x_tfidf.shape =",train_x_tfidf.shape)
  3. print("train_y_tfidf.shape =",train_y_tfidf.shape)
  4. print("test_x_tfidf.shape =",test_x_tfidf.shape)
  5. print("test_y_tfidf.shape =",test_y_tfidf.shape)
  1. # 读取embedding
  2. with open("tiny_word2vec.pickle","rb") as f:
  3. word2vec = pickle.load(f)
  4. #词向量举例
  5. word2vec["今天"]

3. 加载word embedding

词嵌入是自然语言处理中语言模型与表征学习技术的统称。概念上而言,它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。

有很多pretrained embedding, 有很多加载方式, gensim 提供了很多有用的功能, 详细文档参考: https://radimrehurek.com/gensim/models/word2vec.html

1.你需要做的是使用加载好的pretrained embedding, 将过滤后的分词转换为相应的词向量
2.可能存在一些单词不在pretrained 的单词中, 这时候可以使用numpy 随机生成相同纬度的向量
3.一个句子会有多个单词, 对于模型input会不一致, 一种简单的方法是对一个句子的所有词向量求平均值。 最后结果应该是(1, embedding_size)

  1. #导入预训练好的词向量,词向量来源:https://github.com/Embedding/Chinese-Word-Vectors
  2. with open("tiny_word2vec.pickle","rb") as f:
  3. word2vec = pickle.load(f)
  4. # 词向量举例
  5. word2vec["今天"]
  6. # 将过滤后的分词文本转换为相同维度的向量
  7. vocabulary = word2vec.keys()
  8. # count = 0
  9. def sentence2vec(query):
  10. # TODO
  11. result_array = np.zeros(len(word2vec['今天']))
  12. if len(query):
  13. for word in query:
  14. if word not in vocabulary:
  15. rand_array = -1 + 2 * np.random.random(size=len(word2vec['今天']))# randomly generate an array between -1 and 1
  16. result_array = np.vstack((result_array,rand_array))
  17. else:
  18. result_array = np.vstack((result_array,word2vec.get(word)))
  19. return result_array.mean(axis=0) #get the average value
  20. else:
  21. return np.zeros(len(word2vec['今天']))
  1. # 将转换为词向量的数据, 切分为训练集, 验证集
  2. train_x_vec = np.vstack(train_df["queryCutRMStopWord"].apply(sentence2vec))
  3. test_x_vec = np.vstack(test_df["queryCutRMStopWord"].apply(sentence2vec))
  4. train_y_vec = train_df["labelIndex"]
  5. test_y_vec = test_df["labelIndex"]
  1. # 查看切分后的数据信息
  2. print("train_x_vec.shape =",train_x_vec.shape)
  3. print("train_y_vec.shape =",train_y_vec.shape)
  4. print("test_x_vec.shape =",test_x_vec.shape)
  5. print("test_y_vec.shape =",test_y_vec.shape)

4. 支持向量机

SVM是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。除了进行线性分类之外,SVM还可以使用所谓的核技巧有效地进行非线性分类,将其输入隐式映射到高维特征空间中。

我们在此主要使用sklearn来建立SVM模型(感谢sklearn), 更多相关文档参考:https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
SVM 关键参数:

C:C-SVC的惩罚参数C?默认值是1.0
C越大,相当于惩罚松弛变量,希望松弛变量接近0,即对误分类的惩罚增大,趋向于对训练集全分对的情况,这样对训练集测试时准确率很高,但泛化能力弱。C值小,对误分类的惩罚减小,允许容错,将他们当成噪声点,泛化能力较强。 kernel :核函数,默认是rbf,可以是‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’
  0 – 线性:u'v
   1 – 多项式:(gammau'v + coef0)^degree
  2 – RBF函数:exp(-gamma|u-v|^2)
  3 –sigmoid:tanh(gammau'v + coef0)
degree :多项式poly函数的维度,默认是3,选择其他核函数时会被忽略。
gamma : ‘rbf’,‘poly’ 和‘sigmoid’的核函数参数。默认是’auto’,则会选择1/n_features
coef0 :核函数的常数项。对于‘poly’和 ‘sigmoid’有用。
probability :是否采用概率估计?.默认为False
shrinking :是否采用shrinking heuristic方法,默认为true
decision_function_shape :‘ovo’, ‘ovr’ or None, default=None3

接下来你需要做的是:

  1. 分别使用tfidf, embedding建立线性SVM,以及非线性SVM

  2. 对比模型结果,选择最优模型
    1. # 使用tfidf 特征建立线性SVM模型 hint: SVC()
    2. tfidfLinearSVM = SVC(kernel='linear')
    3. tfidfLinearSVM.fit(train_x_tfidf,train_y_tfidf)
    4. # 输出模型结果, accuracy, F1_score
    5. print('train accuracy %s' % metrics.accuracy_score(train_y_tfidf, tfidfLinearSVM.predict(train_x_tfidf)))
    6. print('train F1_score %s' % metrics.f1_score(train_y_tfidf, tfidfLinearSVM.predict(train_x_tfidf),average="macro"))
    7. print('test accuracy %s' % metrics.accuracy_score(test_y_tfidf, tfidfLinearSVM.predict(test_x_tfidf)))
    8. print('test F1_score %s' % metrics.f1_score(test_y_tfidf, tfidfLinearSVM.predict(test_x_tfidf),average="macro"))
    1. # 使用tfidf 特征建立`rbf` SVM 模型
    2. tfidfKernelizedSVM = SVC(kernel='rbf')
    3. tfidfKernelizedSVM.fit(train_x_tfidf,train_y_tfidf)
    4. # 输出模型结果, accuracy, F1_score
    5. print('train accuracy %s' % metrics.accuracy_score(train_y_tfidf, tfidfKernelizedSVM.predict(train_x_tfidf)))
    6. print('train F1_score %s' % metrics.f1_score(train_y_tfidf, tfidfKernelizedSVM.predict(train_x_tfidf),average="macro"))
    7. print('test accuracy %s' % metrics.accuracy_score(test_y_tfidf, tfidfKernelizedSVM.predict(test_x_tfidf)))
    8. print('test F1_score %s' % metrics.f1_score(test_y_tfidf, tfidfKernelizedSVM.predict(test_x_tfidf),average="macro"))
    1. # 使用embeding 特征建立线性SVM模型
    2. word2vecLinearSVM = SVC(kernel='linear')
    3. word2vecLinearSVM.fit(train_x_vec,train_y_vec)
    4. # 输出模型结果, accuracy, F1_score
    5. print('train accuracy %s' % metrics.accuracy_score(train_y_vec, word2vecLinearSVM.predict(train_x_vec)))
    6. print('train F1_score %s' % metrics.f1_score(train_y_vec, word2vecLinearSVM.predict(train_x_vec),average="macro"))
    7. print('test accuracy %s' % metrics.accuracy_score(test_y_vec, word2vecLinearSVM.predict(test_x_vec)))
    8. print('test F1_score %s' % metrics.f1_score(test_y_vec, word2vecLinearSVM.predict(test_x_vec),average="macro"))
    1. # 使用embedding 特征建立`rbf` SVM模型
    2. word2vecKernelizedSVM = SVC(kernel='rbf')
    3. word2vecKernelizedSVM.fit(train_x_vec,train_y_vec)
    4. # 输出模型结果, accuracy, F1_score
    5. print('train accuracy %s' % metrics.accuracy_score(train_y_vec, word2vecKernelizedSVM.predict(train_x_vec)))
    6. print('train F1_score %s' % metrics.f1_score(train_y_vec, word2vecKernelizedSVM.predict(train_x_vec),average="macro"))
    7. print('test accuracy %s' % metrics.accuracy_score(test_y_vec, word2vecKernelizedSVM.predict(test_x_vec)))
    8. print('test F1_score %s' % metrics.f1_score(test_y_vec, word2vecKernelizedSVM.predict(test_x_vec),average="macro"))

     

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/676066
推荐阅读
相关标签
  

闽ICP备14008679号