赞
踩
目录
11.基于多模态数据语义融合的旅游在线评论有用性识别研究(情报学报)
12.基于内容特征的评论效用排名预测——以豆瓣书评为例(管理评论)
13.面向用户信息需求的移动O2O在线评论有用性排序模型研究——以美团为例(图书情报工作)
15.管理者回复对在线评论与有用性关系的调节效应:基于TripAdvisor的实证研究(管理工程学报)
16.基于机器学习的网络评论信息有用性预测模型研究(情报科学)
18.评分不一致性对在线评论有用性的影响——归因理论的视角(中国管理科学)
20.基于隐含狄利克雷分配模型的消费者在线评论复杂网络构建及其应用(系统工程学报)
我之前看的文章做在线评论领域方面的研究,都是基于评论文本去提取特征的,例如通过文本的长度、文本的情感、文本星级等等特征,在考虑多模态数据的层面上,大部分研究者都是通过评论是否包含图片或者包含图片的数量来作为一个特征加入模型,这种做法的前提假设是,只要评论里面包含了图片就是有用的,但是这种假设未必成立,我作为一个蹭好评返现无下限的人,为了凑评论的图片直接从表情包中拉一张图片加入到在线评论中,图片与商品毫无关联,对于其他消费者来说也毫无价值。在图片识别领域,相关的图像识别技术已经发展的相当成熟,因此可以考虑利用图像识别的方法去识别图像,将图像识别的结果作为一个新变量加入到模型中参与训练。
这篇文章用同程旅行网旅游产品的评论数据进行分析,使用机器学习和深度学习的方法来构建评论有用性分类模型,与之前文章的提取评论长度等特征进行结构化的机器学习相比,这篇文章利用BERT模型将整段文本的文本向量提取出来,结果会更加准确。
同时利用ImageAI来识别评论图片的标签,先将识别结果中可能性最高的五个标签提取出来,将识别出来的标签转换为与文本相同维度的词向量,然后合并到文本词向量中去,同时在维度问题上进行限制和填补。然后采用TextCNN和Bi-LSTM两个神经网络模型去对模型进行学习。文章还采取了传统的SVM等机器学习模型进行学习,这里我涉及到一个维度的问题,文章没有明说,我觉得坐着应该是将数据变量全部ravel之后然后再丢到模型中。整篇文章提取的特征并不多,只提取了文本特征和图片特征来进行对比分析。
文章结果表明利用BERT提取的词向量进行模型训练,F1-score比其他方法更好。
这篇文章我觉得还是很有意义的,首先在文本的训练上结合了BERT的方法,提取的词向量效果会更好(做了对比试验),同时还提取了图片的标签加入到训练中去,比较有创新性。后面研究可以思考的问题是怎么把bert和图片识别的结果加入到传统的机器学习模型中去。
从文章标题可以看出这是一篇评论排序的论文,文章以双路径模型作为分析的框架(该理论从中枢路径和边缘路径的视角解释信息对信息接收者态度及行为产生影响的机理。中枢路径上,接受者经过对信息的精密思考形成认知判断;边缘路径上,则依据简单线索进行决策)
文章提出来了一堆自变量来进行模型预测:总词数、总句数,总段落数等等,其中有创新性的是文本主观度均值和文本主观度方差的统计量的提出:
公式的意思是一个文本有许多个句子,每个句子都有一定的主观性,然后将整个文本的句子的主观度求个均值,就代表了文本的主观度平均水平,方差同理,这里文章直接运用了逻辑回归算法,感觉工作量挺大哦,又要打一大堆标签,人吐了,还有再回代。
提取了数据特征之后就要进行分析,首先是模型参数的调整,GridSearch直接冲,参数调完之后就是逐步引入特征,看看特征对模型训练效果的影响,这一步可以看出哪些特征对于识别评论有用性是重要的,同时文章还比较创新,引入了Boruta特征重要度计算算法,量化了特征的重要度。
文章爬取的评论数据不多,因此可以直接对整个数据打标签,然后直接训练,最后他用了个wilcoxon的统计量来验证预测排名和实际排名的一致性。
总结一下这篇文章的收获,首先就是自变量特征方面:词性计数特征、文本主观度特征都可以尝试去提取,在模型训练方面,可以考虑引入新的变量重要度算法来度量特征的重要性。
这篇文章研究的也是评论排序的问题,在评论有用性的度量上,文章采取了以下特征:评论者权威、评论阅读者自身特性、评论长度、产品属性特征词、情感特征词、图片数量、有用性投票、评论时效性等特征。
评论者权威可以用评论者论坛等级去度量;产品属性词则用频繁出现的名词或名词短语去获取;情感词量化则是基于词典把整个评论的情感词语数量全部统计出来;评论者自身特性就有点困难了,因为每个平台开放的数据信息是不一样的,而且也很难知道到底是谁读了评论者写的评论,根据对于这个变量的命名以及文章后续的解释,我还是没有GET到作者到底是怎么度量评论阅读者特性,并且加入到数据特征矩阵中去的。其余的变量在之前的文章中都有度量的方法,这里就不再去赘述了。
首先用模糊-层次分析法来确定各个指标变量的权重,首先根据调查问卷得到产品的模糊一致性矩阵,然后用特点的方法即可求得指标权重;加权灰色关联度算法可以直接在CSDN上搜寻,我之前的文章也有写,我就不赘述了。
最后得出结果之后又找了10多个人去对文章的结果进行评价,结果自然是很好。其实这里也可以用wilcoxon指标去进行评价。同时论文读到这里,排序算法的好坏应该怎么去衡量呢,因为每一种排序算法多多少少都带有一些主观性,出来的新排序的效果,怎么说明哪种好哪种坏呢。容我去问问导师,这一块暂时留在这里把。
总结一下这篇文章,首先是特征方面,提出了用户等级这个新特征很不错,因为这篇论文比较早,加权灰色关联度的算法maybe是这篇文章最早用的,挺好的。
用复杂网络对评论有用性进行研究是一个新的研究方向,这篇文章主要对评论文本进行了有用性区分,然后对有用性文本和无用评论文本主题分布和情感分布进行分析,同时将评论文本转换为文本关联网络,建立了复杂网络之后,评论文本整体的可解释性就能得到进一步的增强,最终文章得到的结论是有用文本和无用评论文本结构存在差异。
文章主要采取了好大夫在线医疗网站,选取了两家三甲医院来获取评论文本,获取评论文本之后就是对数据进行分词、去停用词等清洗工作。在有用评论和无用评论的区分上,文章的做法比较粗暴,点赞数量大于等于1的就是有用文本,这个做法肯定是很粗暴的,但是这也很好理解,在访问量比较小的网站上,本身浏览量就很小,所以给评论点赞的人就更少了,一条评论可能点赞数量最高就20条,因此文本区分工作还是比较有难度的,但是如果能够在点赞量少的平台上,实现快速的有用评论文本排序,这个理论贡献肯定是有的,我也想去研究研究这个问题。
文本分词做完并且有用性评论都筛选出来之后,然后就是分别对有用文本和无用文本的文档主题进行分析,作者采用了三种主题分析算法来进行分析(TF-IDF,TEXTRANK,LDA),然后每个主题词都对应着权重,拿着权重就可以画出词云图,LDA也可以
用gensim工具并且进行LDA分析,这一块我有点没大懂哦,这两个东西我还没深入了解过,加个粗,以后有用了回来看看再补充。
文本情感上,文章直接对文本的整体情感进行分析,然后画出了不同评论的情感分布。
看图基本可以认为不管文本有用没用,文本的整体情感分布还是差不多的。文本分析差不多就是构建文本关联网络,文章通过通过分词结果,然后设置滑动窗口来构建网络。然后就是复杂网络里面的概念了,首先把有用文本、无用文本分开,然后就是啥什么节点度分析、边权分析,去分析两种文本存在的不同。复杂网络的概念我不大懂,把图画出来,然后看图说话即可,更多的是描述性统计的工作,工作量还是蛮大的。
总结一下,文章引入了复杂网络的方法对评论文本进行分析,打开了新思路,让在线评论分析的可解释性变得更强,但是在一些方法上可以处理的更细致一些,不然显得略微粗暴,但总体还是OK的。
这篇文章基于TripAdvisor的评论数据的研究,文章篇幅比较短,没有什么特别新的东西,文章用服务补救理论来解释管理者回复对在线评论有用性的影响(服务补救理论(Service Recovery Theory)认为服务补救是企业为解决客户对感知到的服务失败的抱怨而进行的活动,企业通过服务补救活动来弥补服务过程中出现的失误,及时的补救措施不仅能挽回客户,还能提高顾客的忠诚度和满意度)。因变量是有用性投票,自变量在底下的图里,然后模型跑的是负二项回归。
自变量方面评论情感是文本的总体情感值,回复长度字面意思,回复及时性是管理者对回复是否及时。文章提出,本身就是好评或者是差评,如果管理者内容回的太长,对于阅读者来说就会有违和感,降低效用。管理者对于两种极端情感的评论都回的快,根据服务补救理论,都能够提高消费者对于评论的感知有用性。实证结果都在上表中,系数都显著,且系数方向都没有问题。
总的来讲,文章实证还是很硬核的,通过变量的交叉项来验证管理者回复的调节效应,从机器学习的角度来看,文章提供了新的变量,即管理者是否给予评论回复、评论回复长度、评论回复及时性。
这篇文章通过机器学习的方法来预测评论的有用性,因此文章的任务比较明确,就是提取评论文本的自变量和因变量,并进行模型训练并且比较不同模型的效果。
文章提取的变量都是中规中矩的变量,没有什么新的,唯独是评论的主观性,文章采用了GITHUB上刘焕勇这个作者的度量方法,但是我上GITHUB上没有看到相关的代码,可能是我搜索的不够仔细,感兴趣的可以去搜搜看看。对于评论的主观性,我读的第十二篇论文的文本主观度计算公式和度量方式我觉得挺不错的,主要不动用机器学习的方法,我觉得还是比较快捷且易操作的。同时在评论长度的提取上,我一直在想可以用去除停用词之后的文本长度来度量评论的真是长度,因为信息量都是体现在关键词语上的,这篇文章的评论长度的提取写到我的心坎上了。在因变量上,文章直接采用了有用性投票总数来度量评论文本的有用性。
我第一遍读时没注意看,写博客时发现这篇文章相当于就是做了一个回归分析,在做了简单的数据清洗之后就直接进行回归分析的训练。
最后在训练集和测试集上给出了模型的效果,通过调参可以降低随机森林模型的MSE值,总体来讲神经网络模型的误差相对会小很多,多层感知机和随机森林的准确度会更高,这个需要根据具体的评价指标和要求来定夺。随机森林可以直接GRIDSEARCH上去调参。
总结一下这篇文章,可以作为评论有用性文章的base,做在线评论领域的相关工作时,都可以采取机器学习的方法去筛选评论文本,文章也有一定的不足,就是在特征提取方面可以提取的更加全面。
这篇文章,怎么说呢,文章提出了一个很牵强的变量去做实验,最后得出了一个不显著的结论,最后还发表在了管理评论上,让我十分的诧异,我感觉这篇文章在开始规划的时候或者做实验的时候就应该明白,这个提取的变量太牵强了。当然也有一部分变量提出的是挺有价值的。
文章是基于太平洋电脑网站的评论信息进行分析的,系统操纵视角的变量比较新颖,直接系统操纵是指论坛加精的操作,间接系统操作指的是评论文本被系统自动排在评论信息中的页码,系统的操作都会影响评论得到的有用性投票的数量。牵强的变量是内向社交网络质量,殷国鹏提出了外向网络中心度和内向网络中心度,这篇文章对这内向网络中心度这个变量进行改进,用“粉丝的粉丝”来衡量内向网络质量,试问谁读个评论会去翻评论者粉丝的粉丝呢,这个变量我觉得是为了创新而创新的变量,在这种背景下缺乏实际意义,但不否定在特定情境下这个变量有用。评论全面性用是否同时包含产品的优点和缺点来度量。评论集合的平衡性可以用评论集合整体的好评率去衡量,也可以用好评与差评的比值来度量。
然后在模型训练上,就是经典操作,用TOBIT模型,分批加入变量来查看变量的重要程度以及变量的方向,并查看变量的VIF值和容许度来避免多重共线性的问题。
综上,变量提取方面,系统操纵变量、评论集合性变量这两个变量具有一定的普遍意义,其他创新变量普适性并不强。
这篇文章以归因理论为视角,分析了在线评论的星级评分与平均星级的不一致性对评论有用性的影响(这个好像前面的文章有提取过这个变量,但做的好像不是计量模型,我给忘记了,但这篇文章的工作会做的更细致一点把)。文章以携程为数据来源,搜索了80w条评论数据作为样本进行研究。
从众理论认为当一条评论偏离平均水平过大时,阅读者就会倾向于去相信大众评论而不是偏离了的评论。归因理论认为当评论者的星级低于平均水平时,评论者可能受到了除了产品因素(刺激因素)以外的因素的刺激,例如心情或者拥有隐藏的动机,恶意发布虚假信息等等,从而降低了这类评论的有用性。
该研究抓取了每一条在线评论的星级评分、评论正文、发表时间、评论者ID和有用投票数等,还抓取了每一家酒店的名称、成立年份、总的评论数量、平均星级及其在位置、设施﹑服务、卫生四个方面的评分等数据。
研究也提出了几个假设:评论星级评分不一致性对评论有用性有负相关关系,评论总量会强化这种负相关关系,起到调节作用;正向差异比负向差异对评论有用性的负向影响更强,前者是出于对社会规范的遵从,后者能够降低一定的购物风险,所以后者的负面影响会弱一些,这个比较重要。
模型方面采用了负二项回归、零膨胀泊松回归、零膨胀负二项回归来对模型进行训练,然后经典套路,分批丢变量进模型查看训练结果,最终验证了他提出的一堆假设,其余变量的检验结果与之前文献的结果是一致的。
总结一下就是这篇文章的工作做的还是相当细致的,数据量也足够大,但是计量经济学的模型我不是太懂,有空可以找个时间来研究一下。
这篇文章和沈超的文章标题有点像,文章从京东上五个商品模块中各爬取了一个代表性商品的评论数据进行分析,每种商品各取1000条评论,经过清洗后进行分析。
文章首先分析了五种商品的词频,哎呀就是看图说话,不算太难。然后词频词云分析完之后就是消费者情感分析,用snownlp库进行情感分析,以0.4为界限进行正负情感划分,文章写的还是蛮清楚的,是我读的这么多篇里处理过程写的最清晰的一篇。
这里好像没有对有用文本和无用文本进行区分,直接进行情感分析,得出结论是消费者关注的产品属性越多,产品的好评率就会越低,然后作者列了个表,列出了五种商品被关注的属性的数量,手机最多《皮囊》最少。然后做了个相关性检验证明了产品属性数量和差评率是呈正相关关系的,但是我感觉方法好简单呀,最后就是给出了一系列建议。整篇文章技术含量不是太高。
总结一下,好像没什么好总结的,就是挺简单的,可能可重复性不高把。
这篇文章采用了LDA模型以及复杂网络对在线评论文本进行研究。
LDA(隐迪利克雷模型)是文档主题挖掘模型,LDA是一种典型的词袋模型,即它认为一篇文档是由一组词构成的一个集合,词与词之间没有顺序以及先后的关系。一篇文档可以包含多个主题,文档中每一个词都由其中的一个主题生成。LDA是常见的主题模型之一,是一种无监督算法,在训练时不需要手工标注的训练集,需要的仅仅是文档集以及指定主题的数量k即可。此外LDA的另一个优点则是,对于每一个主题均可找出一些词语来描述它。具体的计算公式就不再这里给出了,百度、CSDN、李航的统计学习方法都有详细的推导过程。
作者利用LDA模型提取出了每个主题下的10个主题词,然后用皮尔逊相似度公式计算两个评论文本的相似度。皮尔逊相似度度量了两个评论文本的话题相似度,r越大说明两个评论文本的相似度就越大。当r大于0.5时,复杂网络就对其进行连边操作。
把评论文本的网络数值都计算出来之后就开始构建复杂网络,得到了复杂网络的一系列指标。每个指标的意义在文章的3.2节都有明确的介绍。
然后就是复杂网络的一通解释。我没有研究过复杂网络这一块,对这一块不是太懂,但是这篇文章给我的感觉是创新点在于复杂网络的构建上,作者用LDA模型和皮尔逊相似度去构建连边,这一块的工作量还是有的。但是文章没有进一步给出画出复杂网络之后对于评论有用性的研究有什么意义,仅仅是给出了了一个新的研究视野,这一块还可以进一步的深入去研究。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。