当前位置:   article > 正文

自然语言处理:网购商品评论情感判定_商品评论数据集

商品评论数据集

目录

1、项目背景

2、数据集

3、数据预处理

4、基于SVM的情感分类模型

5、基于word2vec中doc2vec的无监督分类模型


自然语言处理(Natural Language Processing,简称NLP),是为各类企业及开发者提供的用于文本分析及挖掘的核心工具,旨在帮助用户高效的处理文本,已经广泛应用在电商、文娱、司法、公安、金融、医疗、电力等行业客户的多项业务中,取得了良好的效果。

1、项目背景

任何行业领域,用户对产品的评价都显得尤为重要。通过用户评论,可以对用户情感倾向进行判定。

例如,目前最为普遍的网购行为:对于用户来说,参考评论可以做出更优的购买决策;对于商家来说,对商品评论按照情感倾向进行分类,并通过文本聚类得到普遍提及的商品优缺点,可以进一步改良产品。

本案例主要讨论如何对商品评论进行情感倾向判定。下图为某电商平台上针对某款手机的部分评论:

2、数据集

这份某款手机的商品评论信息数据集,包含2个属性,共计8187个样本。

使用Pandas中的read_excel函数读取xls格式的数据集文件,注意文件的编码设置为gb18030,代码如下所示:

  1. import pandas as pd

  2. #读入数据集

  3. data = pd.read_excel("data.xls", encoding='gb18030')

  4. print(data.head())

读取数据集效果(部分)如下所示:

查看数据集的相关信息,包括行列数,列名,以及各个类别的样本数,实现代码如下所示:

  1. # 数据集的大小

  2. print(data.shape)

  3. # 数据集的列名

  4. print(data.columns.values)

  5. # 不同类别数据记录的统计

  6. print(data['Class'].value_counts())

效果如下所示

  1. (8186, 2)

  2. array([u'Comment', u'Class'], dtype=object)

  3. 1 3042

  4. -1 2657

  5. 0 2487

  6. Name: Class, dtype: int64

3、数据预处理

现在,我们要将Comment列的文本信息,转化成数值矩阵表示,也就是将文本映射到特征空间。

首先,通过jieba,使用HMM模型,对文本进行中文分词,实现代码如下所示:

  1. # 导入中文分词库jieba

  2. import jieba

  3. import numpy as np

接下来,对数据集的每个样本的文本进行中文分词,如遇到缺失值,使用“还行、一般吧”进行填充,实现代码如下所示:

  1. cutted = []

  2. for row in data.values:

  3. try:

  4. raw_words = (" ".join(jieba.cut(row[0])))

  5. cutted.append(raw_words)

  6. except AttributeError:

  7. print row[0]

  8. cutted.append(u"还行 一般吧")

  9. cutted_array = np.array(cutted)

  10. # 生成新数据文件,Comment字段为分词后的内容

  11. data_cutted = pd.DataFrame({

  12. 'Comment': cutted_array,

  13. 'Class': data['Class']

  14. })

读取并查看预处理后的数据,实现代码如下所示:

print(data_cutted.head())

数据集效果(部分)如下所示:

为了更直观地观察词频高的词语,我们使用第三方库wordcloud进行文本的可视化,导入库实现代码如下所示:

  1. # 导入第三方库wordcloud

  2. from wordcloud import WordCloud

  3. import matplotlib.pyplot as plt

针对好评,中评和差评的文本,建立WordCloud对象,绘制词云,好评词云可视化实现代码如下所示:

  1. # 好评

  2. wc = WordCloud(font_path='Courier.ttf')

  3. wc.generate(''.join(data_cutted['Comment'][data_cutted['Class'] == 1]))

  4. plt.axis('off')

  5. plt.imshow(wc)

  6. plt.show()

好评词云效果如下所示:

中评词云可视化实现代码如下所示:

  1. # 中评

  2. wc = WordCloud(font_path='Courier.ttf')

  3. wc.generate(''.join(data_cutted['Comment'][data_cutted['Class'] == 0]))

  4. plt.axis('off')

  5. plt.imshow(wc)

  6. plt.show()

中评词云效果如下所示:

差评词云可视化实现代码如下所示:

  1. # 差评

  2. wc = WordCloud(font_path='Courier.ttf')

  3. wc.generate(''.join(data_cutted['Comment'][data_cutted['Class'] == -1]))

  4. plt.axis('off')

  5. plt.imshow(wc)

  6. plt.show()

差评词云效果如下所示:


       从词云展现的词频统计图来看,"手机","就是","屏幕","收到"等词对于区分毫无帮助而且会造成偏差。因此,需要把这些对区分类没有意义的词语筛选出来,放到停用词文件stopwords.txt中。实现代码如下所示:

  1. # 读入停用词文件

  2. import codecs

  3. with codecs.open('stopwords.txt', 'r', encoding='utf-8') as f:

  4. stopwords = [item.strip() for item in f]

  5. for item in stopwords[0:200]:

  6. print(item,)

输出停用词效果如下所示:

使用jieba库的extract_tags函数,统计好评,中评,差评文本中的TOP20关键词。

  1. #设定停用词文件,在统计关键词的时候,过滤停用词

  2. import jieba.analyse

  3. jieba.analyse.set_stop_words('stopwords.txt')

好评关键词分析,实现代码如下所示:

  1. # 好评关键词

  2. keywords_pos = jieba.analyse.extract_tags(''.join(data_cutted['Comment']

  3. [data_cutted['Class'] == 1]), topK=20)

  4. for item in keywords_pos:

  5. print(item,)

好评关键词TOP20如下所示:

不错 正品 赠品 五分 发货 东西 满意 机子 喜欢 收到 很漂亮 充电 好评 很快 卖家 速度 评价 流畅 快递 物流

中评关键词分析,实现代码如下所示:

  1. #中评关键词

  2. keywords_med = jieba.analyse.extract_tags(''.join(data_cutted['Comment'][data_cutted

  3. ['Class'] == 0]), topK=20)

  4. for item in keywords_med:

  5. print(item,)

中评关键词TOP20如下所示:

充电 不错 发热 外观 感觉 电池 机子 问题 赠品 有点 无线 发烫 换货 软件 快递 安卓 内存 退货 知道 售后

差评关键词分析,实现代码如下所示:

  1. #差评关键词

  2. keywords_neg = jieba.analyse.extract_tags(''.join(data_cutted['Comment'][data_cutted

  3. ['Class'] == -1]), topK=20)

  4. for item in keywords_neg:

  5. print(item,)

差评关键词TOP20如下所示:

差评 售后 垃圾 赠品 退货 问题 换货 充电 降价 发票 充电器 东西 刚买 发热 无线 机子 死机 收到 质量 15

经过以上步骤的处理,整个数据集的预处理工作“告一段落”。在中文文本分析和情感分析的工作中,数据预处理的内容主要是分词。只有经过分词处理后的文本数据集才可以进行下一步的向量化操作,满足输入模型的条件。

4、基于SVM的情感分类模型

经过分词之后的文本数据集要先进行向量化之后才能输入到分类模型中进行运算。

我们使用sklearn库实现向量化方法,去掉停用词,并将其通过tftf-idf映射到特征空间。


          其中,tftf为词频,即分词后每个词项在该条评论中出现的次数;dfdf为出现该词项评论数目;NN为评论总数,使用对数来适当抑制tftf和dfdf值的影响。


         我们使用sklearn库中的函数直接实现SVM算法。在这里,我们选取以下形式的SVM模型参与运算。


        为了方便,创建文本情感分析类CommentClassifier,来实现建模过程:

  • __init__为类的初始化函数,输入参数classifier_typevector_type,分别代表分类模型的类型和向量化方法的类型。
  • fit()函数,来实现向量化与模型建立的过程。

实现代码如下所示:

  1. # 实现向量化方法

  2. from sklearn.feature_extraction.text import TfidfVectorizer

  3. from sklearn.feature_extraction.text import CountVectorizer

  4. #实现svm和贝叶斯模型

  5. from sklearn.svm import SVC

  6. from sklearn.svm import LinearSVC

  7. from sklearn.linear_model import SGDClassifier

  8. # 实现交叉验证

  9. from sklearn.cross_validation import train_test_split

  10. from sklearn.cross_validation import cross_val_score

  11. # 实现评价指标

  12. from sklearn import metrics

  13. # 文本情感分类的类:CommentClassifier

  14. class CommentClassifier:

  15. def __init__(self, classifier_type, vector_type):

  16. self.classifier_type = classifier_type #分类器类型:支持向量机或贝叶斯分类

  17. self.vector_type = vector_type #文本向量化模型:0\1模型,TF模型,

  18. TF-IDF模型

  19. def fit(self, train_x, train_y, max_df):

  20. list_text = list(train_x)

  21. #向量化方法:0 - 0/1,1 - TF,2 - TF-IDF

  22. if self.vector_type == 0:

  23. self.vectorizer = CountVectorizer(max_df, stop_words = stopwords,

  24. ngram_range=(1, 3)).fit(list_text)

  25. elif self.vector_type == 1:

  26. self.vectorizer = TfidfVectorizer(max_df, stop_words = stopwords,

  27. ngram_range=(1, 3), use_idf=False).fit(list_text)

  28. else:

  29. self.vectorizer = TfidfVectorizer(max_df, stop_words = stopwords,

  30. ngram_range=(1, 3)).fit(list_text)

  31. self.array_trainx = self.vectorizer.transform(list_text)

  32. self.array_trainy = train_y

  33. #分类模型选择:1 - SVC,2 - LinearSVC,3 - SGDClassifier,三种SVM模型

  34. if self.classifier_type == 1:

  35. self.model = SVC(kernel='linear', gamma=10 ** -5, C=1).fit

  36. (self.array_trainx, self.array_trainy)

  37. elif self.classifier_type == 2:

  38. self.model = LinearSVC().fit(self.array_trainx, self.array_trainy)

  39. else:

  40. self.model = SGDClassifier().fit(self.array_trainx, self.array_trainy)

  41. def predict_value(self, test_x):

  42. list_text = list(test_x)

  43. self.array_testx = self.vectorizer.transform(list_text)

  44. array_predict = self.model.predict(self.array_testx)

  45. return array_predict

  46. def predict_proba(self, test_x):

  47. list_text = list(test_x)

  48. self.array_testx = self.vectorizer.transform(list_text)

  49. array_score = self.model.predict_proba(self.array_testx)

  50. return array_score

  • 使用train_test_split()函数划分训练集和测试集。训练集:80%;测试集:20%。
  • 建立classifier_typevector_type两个参数的取值列表,来表示选择的向量化方法以及分类模型
  • 输出每种向量化方法和分类模型的组合所对应的分类评价结果,内容包括混淆矩阵以及含PrecisionRecallF1-score三个指标的评分矩阵

实现代码如下所示:

  1. #划分训练集,测试集

  2. train_x, test_x, train_y, test_y = train_test_split(data_cutted['Comment'].ravel().

  3. astype('U'), data_cutted['Class'].ravel(),

  4. test_size=0.2, random_state=4)

  5. classifier_list = [1,2,3]

  6. vector_list = [0,1,2]

  7. for classifier_type in classifier_list:

  8. for vector_type in vector_list:

  9. commentCls = CommentClassifier(classifier_type, vector_type)

  10. #max_df 设置为0.98

  11. commentCls.fit(train_x, train_y, 0.98)

  12. if classifier_type == 0:

  13. value_result = commentCls.predict_value(test_x)

  14. proba_result = commentCls.predict_proba(test_x)

  15. print(classifier_type,vector_type)

  16. print('classification report')

  17. print(metrics.classification_report(test_y, value_result, labels=

  18. [-1, 0, 1]))

  19. print('confusion matrix')

  20. print(metrics.confusion_matrix(test_y, value_result, labels=

  21. [-1, 0, 1]))

  22. else:

  23. value_result = commentCls.predict_value(test_x)

  24. print(classifier_type,vector_type)

  25. print('classification report')

  26. print(metrics.classification_report(test_y, value_result, labels=

  27. [-1, 0, 1]))

  28. print('confusion matrix')

  29. print(metrics.confusion_matrix(test_y, value_result, labels=[-1, 0, 1]))

。。。。。。。。。。。。。。。。。

版权原因,完整文章,请参考如下:自然语言处理:网购商品评论情感判定

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/691916
推荐阅读
相关标签
  

闽ICP备14008679号