当前位置:   article > 正文

结合语言知识和深度学习的中文文本情感分析方法

深度学习中文情感分析


结合语言知识和深度学习的中文文本情感分析方法

徐康庭, 宋威

北方工业大学信息学院

 摘要在目前的中文文本情感分析研究中,基于语义规则和情感词典的方法通常需要人工设置情感阈值;而基于深度学习的方法由于未能运用语义规则和情感词典等语言知识,不能充分提取情感特征。针对这两种方法的缺点,提出了一种将语言知识和深度学习结合的文本情感分析方法。该方法首先根据语义规则提取文本中的关键情感片段,再根据情感词典从关键情感片段中抽取出情感更加明确的情感词来构建情感集合,然后利用深度学习模型分别从原始文本、关键情感片段、情感集合中抽取深层次特征,最后对提取的特征进行加权融合,并利用分类器实现情感极性的判断。实验结果表明,与未引入语言知识的深度学习模型相比,该方法的情感极性分类能力有明显提升。

关键词文本情感分析 ; 语言知识 ; 深度学习

7aedc0f323996ac0c00aeb9c981b775f.jpeg

论文引用格式:

徐康庭, 宋威. 结合语言知识和深度学习的中文文本情感分析方法[J]. 大数据, 2022, 8(3): 115-127.

XU K T, SONG W. A Chinese text sentiment analysis method combining language knowledge and deep learning[J]. Big data research, 2022, 8(3): 115-127.

f27b3fa5520aaffa04d9bab922e2cc32.jpeg

0 引言

情感分析(sentiment analysis)是指通过分析、归纳、推理等过程自动地对具有感情色彩的文本进行情感极性的判断。随着Web2.0的到来,越来越多的人成为互联网的参与者,并通过博客、在线门户网站、电商平台等产生大量具有感情色彩的文本。对这些文本进行分析挖掘对于舆情分析、政府决策、产品分析具有重要意义。

目前情感分析的方法可以大致分为3类:基于词典和规则的方法、基于传统机器学习的方法、基于深度学习的方法。

基于词典和规则的方法通过词典分析、句法分析、句型分析等方法对文本的情感极性进行判断。Wu J S等人通过构建情感词典、否定词词典、程度副词词典等多部词典提出词语级情感判断方法,并对文本进行句法分析、句型分析,从而实现了对中文微博的情感判断。赵妍妍等人通过构建大规模情感词典实现了中文微博的情感分析。Xu G X等人通过扩展现有词典的方法实现了对评论文本的情感分析。KESHAVARZ H等人为了改善微博情感分类的性能,通过将语料库和词典结合的方式构建自适应词典。李继东等人通过扩展词典,并对句间规则和句型规则进行分析,提高了中文微博情感分析的性能。Zhang S X等人首先对情感词典进行构建和扩充,然后通过计算权重得到微博文本的情感值,实现了对微博文本的情感分类。

基于传统机器学习的方法一般先对文本利用词袋(bag of word)模型进行编码,然后利用朴素贝叶斯(naive Bayes, NB)、支持向量机(maximum entropy, ME)、决策树等传统机器学习模型进行情感分类。Pang B等人基于词袋模型分别利用朴素贝叶斯模型、最大熵模型和支持向量机(support vector machine,SVM)实现了对电影评论的情感分类。苏莹等人将朴素贝叶斯模型和潜在狄利克雷分布(latent Dirichlet allocation,LDA)结合,并引入合适的情感词典,实现了对网络评论的篇章级别和句子级别的情感倾向性分析。

基于词典和规则的方法需要人工预先对每个情感词和语义规则设定情感极性值,而针对不同领域的情感任务共用通用的词典,必然会带来人工误差,而且对情感词和规则进行情感极性标注需要耗费大量的人力。基于传统机器学习的方法一般基于词袋模型,忽略了上下文语义,而且需要做特征工程。基于深度学习的方法能够自动实现端到端的学习和推理过程,鉴于此,近年来该方法成为研究的热点。基于深度学习的方法得到的特征可以直接用于预测概率,也可以使用支持向量机等浅层分类器进行分类。Kim Y将预训练的词向量作为输入,利用卷积神经网络提取文本特征,从而实现了文本分类任务,并取得了不错的效果。胡荣磊等人将预训练的词向量作为输入,利用长短期记忆(long short-term memory,LSTM)网络学习文本的语义特征和序列特征,并与注意力模型相结合,有效提高了文本情感分析任务的性能。李洋等人将卷积神经网络(convolutional neural network,CNN)和双向长短期记忆(BiLSTM)网络结合,充分利用了CNN提取局部特征的能力和双向长短期记忆网络提取文本序列特征的能力,提高了文本情感分析的性能。宋婷等人通过区域卷积神经网络提取文本局部特征以及不同句子的时序关系,并利用改进的分层长短期记忆网络获取句子内部和句子间的情感特征,从而提高了方面级情感分析的性能。

虽然,基于数据驱动的深度学习模型能够有效弥补基于词典和规则的方法以及基于传统机器学习的方法的不足。但是,仅仅依靠数据进行深度学习模型训练,忽略了情感词典和语义规则等语言知识,导致模型不能充分学习文本特征,进而无法突破深度学习模型的性能瓶颈。近年来,融合情感词典或语义规则的深度学习模型逐渐成为热点。谢润忠等人将情感集合和深度学习模型进行融合,得到了不错的结果,但其未考虑语法规则。邱宁佳等人将语义规则和深度学习融合并建立三通道模型,提高了文本情感分析的性能,但其未考虑情感集合。鉴于此,本文提出了一种结合语言知识和深度学习的中文文本情感分析的新方法CLKDL(the combination of language knowledge and deep learning),充分将语言知识和深度学习模型结合,通过数据和知识共同驱动模型学习,以提高情感极性分类模型的性能。

本文主要贡献如下。

● 为了解决中文语义多样性问题,降低语义的复杂性,突出关键情感信息对模型的贡献,提出了CLKDL方法。

● CLKDL方法首先利用词典和规则抽取出情感倾向明确的情感集合信息;然后,为了防止出现由词典维护不及时造成的情感集合信息缺失的问题,利用语义规则抽取出情感倾向更加明确的关键情感片段;最后,为了防止出现由抽取情感集合和情感片段造成的文本序列特征缺失的问题,从原始文本中抽取出序列特征,三者相辅相成。

● 构建深度学习模型,分别从原始文本、关键情感片段、情感集合3个部分中抽取深层次特征,从而将语言知识与深度学习结合,并完成中文文本情感分析任务。然后,利用酒店评论数据集ChnSentiCorp和O2O商铺食品安全评论相关数据对所提方法进行有效性实验。实验结果表明,所提方法的情感极性分类能力有明显提升。

1 基于语义规则和情感词典的信息抽取

1.1 关键情感片段的抽取

相对英文而言,中文语义规则具有较高的复杂性。对于使用不同语义规则描述的文本,其表达的情感倾向以及情感强度也不相同。因此,需要根据语义规则把能够改变情感倾向以及情感强度的关键情感片段从原文本中剥离出来,以降低中文文本语义的复杂度,为后续深度学习特征的提取加入语义知识,进而提高情感分析的性能。本文从句间规则和句型规则两种角度抽取关键情感片段。

1.1.1 基于句间规则的抽取

标点符号是划分句间关系的重要标准,首先利用标点符号“?”“!”“。”以及“;”将原始文本划分为若干个复句,用集合{C0,C1,…,Cn}表示。每个复句又可以划分为若干个子句,用集合{S0,S1,…,Sm}表示。对句间规则的分析即对复句中若干个子句之间相互关系的分析。会对情感分析造成影响的句间关系有转折关系、递进关系和假设关系。根据分析,定义以下规则。

(1)转折关系规则

当句间出现转折时,情感也随之改变。一般转折前后的情感极性是相反的,值得注意的是,真实表达的情感极性在转折词后的情感片段中。具体规则如下。

● 如果复句C只出现单一转折后接词(如“但是”“然而”)且该单一转折后接词出现在Sk中,则取出子集{Sk,Sk+1,…,Sm}作为关键情感片段。

● 如果复句C只出现单一转折前接词(如“虽然”“尽管”)且该单一转折前接词出现在Sk中,则取出子集{S0,S1,…,Sk}作为关键情感片段。

● 如果复句C中出现连续完整转折词(如“虽然……但是……”)且该转折后接词出现在Sk中,则取出子集{Sk,Sk+1,…,Sm}作为关键情感片段。

(2)递进关系规则

当句间出现递进关系时,一般后句的情感表达程度要明显强于前句。当复句C中出现递进关系词(如“更加”“更有甚者”),并且该递进关系词出现在Sk中时,取出子集{Sk,Sk+1,…,Sm}作为关键情感片段。

(3)假设关系规则

当句间出现假设关系时,一般情感表达的重心在前句,如果出现否定假设,那么情感表达的极性会相反。当复句C中出现假设后接词(如“那么”)且该假设后接词出现在Sk中时,取出子集{S0,S1,…,Sk}作为关键情感片段。

以上3种句间关系都会对情感分析造成一定的影响,因此需要根据语义规则把关键情感片段抽取出来做进一步的分析。至于其他句间关系,比如并列关系、因果关系、一般关系等并不会对情感倾向和情感程度造成影响,因此本文不做特殊处理。

1.1.2 基于句型规则的抽取

中文常用的句型有疑问句、反问句、感叹句、陈述句。其中疑问句和反问句会使得情感极性变反;感叹句虽然不影响情感极性,却会改变情感表达的程度;陈述句一般不会对情感极性和情感程度造成影响。基于上述分析,定义以下关键情感片段的抽取规则。

(1)感叹句

如果复句C是感叹句,即以“!”或多个“!”(如“!!!”“!!!!!!”)结尾,则将整个复句C(即{S0,S1,…,Sm})作为关键情感片段。

(2)反问句及疑问句

如果复句C是反问句或者疑问句,即以“?”或多个“?”(如“???”“??????”)结尾,则将整个复句C(即{{S0,S1,…,Sm})作为关键情感片段。

(3)陈述句

如果复句C是陈述句,其不会对情感极性和情感强度造成影响,因此本文不做特殊处理。

1.2 情感集合的抽取

情感词是主体对客体的情感偏离度的直接表达,程度副词、否定词等修饰词会对情感词的情感极性和情感强度造成影响。为了进一步降低中文语义的复杂度,以进一步提高后续深度学习模型提取特征的准确性,进而提高情感分析的性能,本文引入情感词典、程度副词词典、否定词词典等已知的语言学知识。从上述根据句间规则抽取的关键情感片段中抽取出情感更加明确的情感词来构建情感集合。定义如下规则。

规则1:如果当前词为情感词,则将其加入情感集合中。

规则2:如果当前词为程度副词,且下一个词为情感词,则将当前的程度副词和情感词组合成新词加入情感集合。如果情感集合中有当前情感词,则将其从情感集合中删除。

规则3:如果当前词为程度副词,且下一个词为否定词、下面第二个词为情感词,则将当前的程度副词、否定词、情感词组合在一起并加入情感集合。如果当前情感词或者当前否定词和情感词的组合已经在情感集合中,则将其从情感集合中删除。

规则4:如果当前词为否定词,且下一个词为情感词,则将当前的否定词和情感词组合在一起并加入情感集合。如果当前的情感词在情感集合中,则将其从情感集合中删除。

规则5:如果当前词为否定词,且下一个词为程度词、下面第二个词为情感词,则将当前的否定词、程度副词、情感词组合在一起并加入情感集合。如果当前情感词或者程度副词和情感词的组合在情感集合中,则将其从情感集合中删除。

2 深度学习相关技术

2.1 BERT预训练模型

基于Transformer的双向编码器表征(bidirectional encoder representation from Transformer,BERT)技术是一个多任务模型,通过遮蔽语言模型(masked language model,MLM)和下一句话预测(next sentence prediction,NSP)分别捕获词语和句子级别的向量表示。BERT模型结构如图1所示。BERT整体处理流程为:首先对输入文本进行字向量编码、文本向量编码、位置向量编码,然后通过双向Transformer模块得到文本的向量化表示。对于文本向量静态嵌入而言,与传统的word2vec相比,使用BERT作为向量化工具能够根据下游任务对文本的向量表示进行动态调整,从而解决一词多义的问题。

13960081ec80b265931c70f8d89b1257.jpeg

图1   BERT模型结构

2.2 卷积神经网络

卷积神经网络利用一个滤波器在一个文本数据上上下滑动以探知不同位置的特征,从而提取文本局部特征。假设c785e1e67b55bd8de41aacee527e26b7.jpeg示文本中第i个字向量。f21a320d99f0228aee727c8c52ab20ff.jpeg示一个输入文本的向量,其中L表示输入文本的长度。eecd72b00d9776db0beb691fc4e722c6.jpeg示卷积操作的滤波器,其中k表示滤波器的长度,d表示词嵌入的维度。文本中的每个位置j都有包含k个连续字向量的窗口向量2239f91194bcf480d9c35e0ac0080ccd.png,如式(1)所示:

e0e99474fb3d9f5439eb9f995cd908df.png

其中,逗号表示行向量连接,滤波器m通过逐一滑动窗口产生一个特征映射(feature map)09d00f64dc759c76cb21130b69ca8a4e.pngb1a369b2376df04c0157f86d1b62bf29.png。特征映射c是提取的文本局部特征。

2.3 长短期记忆网络

LSTM是由Hochreiter S等人在1997年第一次提出,随后经过Graves A改良推广的模型。其能够有效解决循环神经网络(recurrent neural network, RNN)中长期依赖的问题,在很多任务中取得了不错的表现,LSTM的结构如图2所示。LSTM在t时刻的转换函数定义如下。

6db07fb1ba020a6bdb4d62f157b1aefa.png

其中 ,σ为Sigmoid激活函数,tanh表示双曲正切函数,⊗表示矩阵相乘,x(t)表示当前时刻的输入向量,i(t)、f(t)、o(t)分别表示输入门、遗忘门和输出门,g(t)表示当前细胞的候选状态,Wxi、Wxf、Wxo、Wxg表示每层连接到输入向量x(t)的权重矩阵,Whi、Whf、Who、Whg表示每层连接到前一个隐藏状态h(t−1)的权重矩阵,bi、bf、bo、bg表示每层的偏置,输入门i(t)用于控制被存储在当前记忆细胞中的新信息量,f(t)用于控制旧记忆细胞中信息被丢弃的程度,o(t)根据当前记忆细胞c(t)用于控制被输出的信息,h(t)表示当前时刻细胞状态,y(t)表示输出,c(t−1)表示上一时刻的细胞状态。

68c9f2964d305ebc2601a9be0f84bbf4.jpeg

图2   LSTM结构

2.4 注意力机制

注意力机制为模型的输入赋予不同的权重,根据任务的具体情况,为更加关键和重要的信息设置更高的权重;反之,设置更低的权重,以此来提升模型的性能。

3 结合语言知识和深度学习的CLKDL方法

本文提出的CLKDL方法由3个部分组成,分别是原始文本部分、语义规则部分、情感集合部分。每个部分又由5个层次组成,分别是语义规则及预处理层、词嵌入层、特征提取层、加权融合层和输出层。CLKDL结构如图3所示。

5a65ef777286c417ec4f4c87f77f243d.jpeg

图3   CLKDL结构

3.1 语义规则及预处理层

该层主要根据第1节定义的基于语义规则和情感词典的信息抽取方法,从原始文本中抽取关键情感片段和情感集合,以降低中文语义的复杂度,加强深度学习模型的特征提取能力。

对于一个文本,首先利用语义规则抽取出关键情感片段bf0c7b70bdff89ecd4d27fd800900a31.png,其中上标n表示该文本中的第n个复句,下标k表示从第n个复句中抽取的第k个关键情感片段。将该集合元素进行拼接作为语义规则部分的输入。

然后利用情感词典、程度副词词典、否定词词典从关键情感片段中抽取情感集合f1d4a83924ef46b7664c8fd1ae713a5f.png,其中2733e5a8eb0cc83ff9250714b0396354.png表示该文本第n个复句中的第个k关键情感片段中的第m个情感词。将该集合元素进行拼接并作为情感集合部分的输入。

最后将原始文本进行去停用词、去特殊字符等预处理后得到的文本作为原始文本部分的输入。

3.2 词嵌入层

利用BERT预训练模型分别对原始文本部分、语义规则部分、情感集合部分的输入进行词向量化,得到3个部分的文本向量。BERT词嵌入能够对词向量进行动态调整,解决一词多义的问题,从而将真实的语义嵌入词向量中。3个部分的词向量分别用f36eeb57c9e6f12e462a96ca47d0510b.jpeg24b2c70948e5ec5dc49f14d470a4a471.jpegb70652f85175929104eb6a0a8ef271b5.jpeg表示。其中LT表示原始文本长度,LS表示关键情感片段的长度,LT表示情感集合的长度。

3.3 特征提取层

3.3.1 原始文本特征提取

为了防止文本序列特征的丢失并充分考虑上下文特征,使用BiLSTM网络从原始文本中提取深层次特征。

在某一时刻,BiLSTM的输出0471693e6002835f708a776814af428c.png由前向输出向量2422c25c091a0ba90a94cf2710795341.png和反向输出向量9138c4015e45ebfe69b299e344334dab.jpeg组合而成。计算方式如下。

19e4e4b7fd5f29b481a2663644a04e1a.jpeg

其中,xt为在t时刻BiLSTM的输入,LT表示文本序列总长度。

为了增加关键特征对情感分析任务的贡献,降低无效信息对模型的干扰,在BiLSTM提取特征后引入注意力机制。首先生成目标注意力权重ut,然后将目标注意力权重向量化,生成权重向量at,最后将生成的权重向量配置给隐层状态语义编码ht,生成包含注意力权重的原始文本特征向量V,计算过程如下。

ac8fb6cac83106861911f87d4f7a8981.png

其中,ht为经过BiLSTM得到的原始文本特征向量,Ww、bw、uw为注意力网络的可调节参数。

3.3.2 关键情感片段特征提取

为了进一步从关键情感片段中提取情感特征,本文采用多个不同大小的卷积核并行地对关键情感片段进行多层次的特征抽取。不同大小的卷积核能够提取多种N-gram特征,并且使用并列结构在一定程度上能够解决深度学习模型过深导致的信息丢失和梯度消弱的问题。多尺寸卷积神经神经网络(multi-scale convolutional neural network,MCNN)结构如图4所示。

02de03c237c67a490de6600a20cec2c5.jpeg

图4   MCNN结构

卷积层使用尺寸为r×k的卷积核对关键情感片段向量s进行上下卷积,以提取关键情感片段的局部特征ci

b719454136ec10f30b48dbf1b4fef1d6.png

其 中,m 表示 尺 寸 为 r×k 的 卷 积 核;e99aaa6f0a62e8041f79c7ec9df3f00a.png表示情感片段向量s中从第i行到i+r-1行的r行向量;b表示偏置。f表示激活函数,常用的激活函数有Sigmoid、tanh、ReLU,本文将ReLU函数作为卷积层的激活函数。

卷积核在情感片段向量s中从上向下以步长1进行卷积,最终得到当前卷积核提取的全部局部特征向量C。

05046c3a9a56bc3712e8d00ae7402312.png

为了减少模型参数,提高模型的收敛速度,一般在卷积后进行池化操作。常用的池化操作有平均池化和最大池化。本文选取最大池化提取C中的最大值来表示局部特征。

34a462059401c5d9d1a701c667ae09dc.png

最后,将所有池化后的局部特征进行拼接,形成经过MCNN抽取的深层次特征d。

f6be1a4a86f3d5960cc4f6f946b9b07b.png

为了突出情感片段的深层次特征d中的关键信息对模型的贡献,减少无效特征对模型的干扰,在MCNN后引入注意力机制。

0dd385de8428ef29d97d70ac22be9dec.png

其中,Wd、bd为注意力网络可调节参数,d为经过MCNN抽取后的特征,ad为注意力权重,U为包含注意力权重的关键情感片段特征。

3.3.3 情感集合特征提取

为了进一步抽取情感集合的情感特征,本文采用全连接神经网络从情感集合向量e中进行抽取。为了增大关键信息的权重,在全连接网络后引入注意力机制。

f406369abb353ade81cccf3f70b2f106.png

其中,h为抽取后的情感特征;W为全连接网络权重;b为全连接网络偏置;f(·)为激活函数,本文将ReLU函数作为激活函数;ah为注意力权重;Wh、bh为注意力网络可调节参数;P为包含注意力权重的情感集合特征。

3.4 加权融合层

加权融合层将从原始文本中提取的特征向量V、关键情感片段中提取的特征向量U、情感集合中提取的特征向量P三者进行拼接,形成最后的全局情感特征向量g。

96bb6a61eeff4322db75ba2b431546f8.png

从原始文本部分、语义规则部分、情感集合部分提取的特征重要程度各不相同,为了突出从关键部分提取的特征对情感分析任务的影响,在全局情感特征向量g后引入注意力机制。

e1876a0d9595158a093218575fe18c14.png

其中,Wp、bp为注意力网络可调节权重和偏置,ag为注意力权重,G为包含注意力权重的全局情感特征向量。

3.5 输出层

将包含注意力权重的全局情感特征GG输入分类器,从而得到输入文本最终的所属类别。

6cfd33254dfac209a826839655a93e56.png

其中,Wp为权重系数,bp为偏置,p为预测的所属类别概率。

3.6 模型训练

本文使用反向传播最小化交叉熵损失函数的方式进行模型的训练。

ea88857e957489331cf4a38f615fea99.png

其中,L表示交叉熵损失,D表示训练集,C表示情感分析任务中的类别集合,9ee7c74105eb8cdd2a465bd4f36eb4c4.png表示第i个样本的真实标签3c0763b2a88b2faae60f1606d278cc79.png,表示模型预测的第i个样本的概率。

4 实验与分析

4.1 实验环境

本文的实验环境为:操作系统是Ubuntu 16.04,CPU是Intel Core i78750,GPU是GeForce GTX 1060,内存是DDR4 16 GB,显存大小是6 GB,深度学习框架是TensorFlow 2.4.0、Keras 2.4.3,开发工具是PyCharm 2020.1.1。

4.2 实验数据

数据集:本文使用两种数据集对所提方法进行验证,数据集1为中国科学院的谭松波整理的酒店评论数据集ChnSentiCorp,其共有10 000篇评论语料,分为4个子数据集。本文选用ChnSentiCorp-Htl-ba-6000进行实验,该语料正样本和负样本(即正面评论和负面评论)各3 000篇,示例见表1。数据集2采用Data Fountain的O2O商铺食品安全相关评论数据,示例见表2。

49e73de38846c547bf8cf97ecbc36ad9.png

词典:本文使用的情感词典为大连理工大学的中文情感词本体库,程度副词词典和否定词词典使用知网中文词库HowNet,见表3。使用的连词词典为人工梳理而得,见表4。

2213bc420ece6a539219b9bb9055d797.png

4.3 实验参数

超参数的设置会直接影响CLKDL方法的性能,按表5进行调参后本文所提方法达到最优。

7010feac1d88921782fc2e64b47b952a.png

4.4 评价指标

使用精准率precision、召回率recall以及两者的调和平均测度F1来衡量模型的性能。计算式如下。

4fd8455f7a64c06d0969c3ae42012ad6.png

其中,TP表示标记为正例、模型预测也为正例的样本数,FP表示标记为负例、模型预测为正例的样本数,FN表示标记正例、模型预测为负例的样本数。

4.5 实验结果及分析

为了验证使用CLKDL方法进行中文文本情感分析的有效性,本文使用如下3种方法在酒店评论和商铺食品评论两种数据集上进行实验,分别为基于语言知识的方法、基于深度学习的方法、CLKDL方法。实验结果见表6和表7,并对结果进行分析。

aa692c94ef215f76f89994dce7dead27.png

基于语言知识的方法:该方法首先利用句型规则、句间规则对原始文本进行语义分析,并计算其在语义规则角度上的得分;然后利用情感词典、程度副词词典、否定词词典对原始文本中的词进行分析,并计算其在情感词典角度上的得分;最后综合计算出原始文本的情感得分,完成中文文本的情感分析的任务。

基于深度学习的方法:该方法首先利用BERT对原始文本进行词嵌入以提取原始文本的语义表达,然后分别利用BiLSTM提取原始文本的序列特征,利用MCNN提取原始文本的多层次语义特征,利用全连接神经网络提取原始文本的全局特征,接着利用注意力机制突出关键信息对模型的贡献,最后将含有注意力权重的3种特征进行融合,并利用sotfmax分类器完成中文文本的情感分析任务。

CLKDL:该方法与基于深度学习方法的网络结构相同,不同的是该方法将语言知识融合进基于深度学习的方法中。具体地,首先利用句间规则、句型规则从原始文本中抽取出关键情感片段,然后利用情感词典、程度副词词典、否定词词典从关键情感片段中抽取出情感集合,最后将原始文本、关键情感片段、情感集合作为模型的输入,完成中文文本的情感分析任务。

对上述实验结果进行分析发现,在上述两种数据集上,CLKDL的性能均高于基于语言知识的方法和基于深度学习的方法。这是因为单纯基于语言知识的方法忽略了文本蕴含的深层次特征,单纯基于深度学习的方法忽略了语法规则等语言知识信息。而CLKDL不仅考虑了语法规则等语言知识信息,降低了中文文本的复杂性,分析出关键情感信息,又利用深度学习模型提取了文本的深层次特征,从而得到了较好的性能,验证了所提方法的有效性。

5 结束语

目前深度学习模型大多是基于数据驱动的方法,其忽略了语义规则、情感集合等语言知识,导致无法充分提取文本特征。针对这一问题,本文提出了一种结合语言知识和深度学习的情感分析方法CLKDL。首先利用语义规则和情感集合将原始文本分为3个部分,即原始文本部分、关键情感片段部分、情感集合部分,然后分别利用深度学习模型抽取文本特征并进行加权融合,最后利用分类器进行情感极性判断。实验结果表明,所提方法能够有效提高情感分析的性能。本文所提方法是从中文文本的角度进行的建模,下一步计划将该方法应用到其他语言,并进行文本情感分析。

作者简介

徐康庭(2000-),男,北方工业大学信息学院在读,主要研究方向为机器学习、自然语言处理。

宋威(1980-),男,博士,北方工业大学信息学院教授、博士生导师,主要研究方向为数据挖掘、推荐系统。

联系我们:

Tel:010-81055448

       010-81055490

       010-81055534

E-mail:bdr@bjxintong.com.cn 

http://www.infocomm-journal.com/bdr

http://www.j-bigdataresearch.com.cn/

转载、合作:010-81055307

大数据期刊

《大数据(Big Data Research,BDR)》双月刊是由中华人民共和国工业和信息化部主管,人民邮电出版社主办,中国计算机学会大数据专家委员会学术指导,北京信通传媒有限责任公司出版的期刊,已成功入选中国科技核心期刊、中国计算机学会会刊、中国计算机学会推荐中文科技期刊,以及信息通信领域高质量科技期刊分级目录、计算领域高质量科技期刊分级目录,并多次被评为国家哲学社会科学文献中心学术期刊数据库“综合性人文社会科学”学科最受欢迎期刊。

dce7e5382acbd798a922e742d67a6a75.jpeg

关注《大数据》期刊微信公众号,获取更多内容

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/72831
推荐阅读
相关标签
  

闽ICP备14008679号