当前位置:   article > 正文

爬取某著名评分网站影评,利用jieba分词实现简单的影评情感分析,最后由python绘图对结果可视化(三)_情感分析画图

情感分析画图

*********************************************************************

该项目已经发布到github上了,有需要的朋友可以从这里获取

*********************************************************************

目录

第二部分 正文

        (三)、利用jieba分词进行简单的情感分析和绘图

                1.数据预处理部分

                2.定义情感分析函数,用于从分词后的列表中

                        取出词频排名前20且长度大于1的情感词,作为这部电影的情感词

                3.主函数部分,情感分析并为每部电影绘制词

                        云图,每个类型的电影绘制词频排名前20的情感词统计图


接该项目的上篇文章继续介绍(先把效果挂着):

        

第二部分 正文

        (三)、利用jieba分词进行简单的情感分析和绘图

                jieba分词是一个优秀的python中文分词包,里面有许多的功能这里就不一一介绍,而是利用其中的词性标注功能来完成本次情感分析的任务。首先看一下文本情感分析的定义:

                所谓文本情感分析,又称意见挖掘、倾向性分析等。简单而言,是对带有情感色彩的主观性文本进行分析、处理、归纳和推理的过程。互联网(如博客和论坛以及社会服务网络如大众点评)上产生了大量的用户参与的、对于诸如人物、事件、产品等有价值的评论信息。这些评论信息表达了人们的各种情感色彩和情感倾向性,如喜、怒、哀、乐和批评、赞扬等。基于此,潜在的用户就可以通过浏览这些主观色彩的评论来了解大众舆论对于某一事件或产品的看法。(来自百度百科)

                以上是百度百科对情感分析的定义,我这里结合那位同学的要求和分词结果的特性,采用了以下的策略:保留词性标注中所有的形容词,并只保留长度大于1的形容词来确保情感的完整表达。

                1.数据预处理部分

  1. # coding: utf-8
  2. # 作者(@Author): 榕城候佳人
  3. # 创建时间(@Created_time): 2022/11/19 9:03
  4. # 修改时间(@Modified_time): 2022/11/19 9:03
  5. """
  6. 对电影评论提取关键词
  7. """
  8. # 首先引入jieba分词包和自定义工具包utiliti(在项目代码中)的函数,方便绘制词云图、条形图和数据预处理。
  9. import os
  10. import jieba
  11. from utility.draw_imgs import draw_pie
  12. from utility.make_wordcloud import wordcloud_
  13. from utility.preprocess import TextPreprocessor
  14. # 实例化一个文本处理器,后续对影评的各种操作通过调用该处理器实现。
  15. processor = TextPreprocessor(stopword_file="stopword_normal.txt")

                2.定义情感分析函数,用于从分词后的列表中取出词频排名前20且长度大于1的情感词,作为这部电影的情感词。

        
  1. def emotion_analyse(info: list):
  2. """
  3. 情感分析,统计所有出现的情感词个数,取前20个做条形图
  4. :param:info:一个类型的电影的所有情感词
  5. :return:该类型电影下,字典形式的出现次数前二十的情感词
  6. """
  7. dict_word = {}
  8. for i in range(len(info)):
  9. # 情感词长度大于2
  10. if len(info[i]) == 1:
  11. continue
  12. if info[i] not in dict_word:
  13. dict_word[info[i]] = 1
  14. else:
  15. dict_word[info[i]] += 1
  16. word_sorted = sorted(dict_word.items(), key=lambda x: x[1], reverse=True)
  17. return word_sorted[:20]

                3.主函数部分,情感分析并为每部电影绘制词云图,每个类型的电影绘制词频排名前20的情感词统计图

  1. if __name__ == '__main__':
  2. # 打开不同类型电影影评所在文件夹
  3. classes = os.listdir('movie_comment')
  4. # 主循环
  5. for movie_class in classes:
  6. # 获得该类型电影下的所有电影影评所在文件
  7. movies = os.listdir('movie_comment/' + movie_class)
  8. # 存储整个类型下的不同影评信息
  9. whole_name = []
  10. whole_loc = []
  11. whole_time = []
  12. whole_agency = []
  13. whole_works = []
  14. whole_n = []
  15. whole_a = []
  16. whole_v = []
  17. whole_other = []
  18. # 获得单个电影的影评信息
  19. for movie in movies:
  20. with open(os.path.join('movie_comment/', movie_class, movie), 'r', encoding='utf-8') as f:
  21. # 读取整个影评文件
  22. sentences = f.read()
  23. """
  24. 每次循环保留一个电影所有影评形容词的词性标注的信息,
  25. 用于绘制后面整个类型的情感词统计图(这里只使用到了形容词)
  26. """
  27. whole_a.extend(processor.get_a(sentences))
  28. # whole_name.extend(processor.get_name(sentences))
  29. # whole_loc.extend(processor.get_loc(sentences))
  30. # whole_time.extend(processor.get_time(sentences))
  31. # whole_name.extend(processor.get_time(sentences))
  32. # whole_agency.extend(processor.get_agency(sentences))
  33. # whole_works.extend(processor.get_work(sentences))
  34. # whole_n.extend(processor.get_normal_n(sentences))
  35. # whole_v.extend(processor.get_verb(sentences))
  36. """利用文本处理器中的获取形容词的函数获得形容词列表,再
  37. 将李列表用空格连接成一个字符串用于构建词云图
  38. """
  39. wordcloud_(text=' '.join(processor.get_a(sentences)), file_path=movie_class,
  40. file_name=movie[:-11] + '_情感词云图.jpg')
  41. """
  42. 根据上面存储整个影评词性标注信息的列表,
  43. 绘制该类型电影情感词的条形统计图
  44. """
  45. emotion_words = emotion_analyse(whole_a)
  46. path = os.path.join('./word_clouds', movie_class, movie_class + '_情感词语条形统计图.jpg')
  47. draw_pie(title=f"{movie_class}情感分析图", info=emotion_words, path=path)
  48. # 绘制该类型电影的情感词云图
  49. wordcloud_(text=' '.join(whole_a), file_path=movie_class, file_name=movie_class + "_情感词云图.jpg")
  50. print(f"完成{movie_class}部分")

               

完结撒花

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/350721?site
推荐阅读
相关标签
  

闽ICP备14008679号