当前位置:   article > 正文

Python 爬完评论只会做词云?情感分析了解一下

content=df[]


作者:叶庭云

爬到的评论不要只做词云嘛,情感分析了解一下

一、SnowNLP 简介

SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的,由于现在大部分的自然语言处理库基本都是针对英文的,于是写了一个方便处理中文的类库,并且和TextBlob不同的是,这里没有用NLTK,所有的算法都是自己实现的,并且自带了一些训练好的字典。注意本程序都是处理的unicode编码,所以使用时请自行decode成unicode编码。

SnowNLP github地址:https://github.com/isnowfy/SnowNLP

  1. # 安装
  2. pip install SnowNLP

当然,我们也可以采用豆瓣源加速

pip install SnowNLP -i http://pypi.douban.com/simple --trusted-host pypi.douban.com

二、SnowNLP 特性

简单说一下SnowNLP 的特性

  • 中文分词(Character-Based Generative Model)

  • 词性标注(TnT 3-gram 隐马)

  • 情感分析(官网没有介绍具体原理,但是指明购物类的评论的准确率较高,其实是因为它的语料库主要是购物方面的)

  • 文本分类(原理是朴素贝叶斯)

  • 转换成拼音 (Trie树实现的最大匹配)

  • 繁体转简体 (Trie树实现的最大匹配)

  • 提取文本关键词(TextRank算法)

  • 提取文本摘要(TextRank算法)

  • tf,idf

  • Tokenization(分割成句子)

  • 文本相似(BM25)

三、SnowNLP库的基本使用

  1. from SnowNLP import SnowNLP
  2. word = u'这个姑娘真好看'
  3. s = SnowNLP(word)
  4. print(s.words)        # 分词
  5. print(list(s.tags))   # 词性标注
  6. print(s.sentiments)   # 情感分数
  7. print(s.pinyin)       # 拼音
  8. print(SnowNLP(u'蒹葭蒼蒼,白露為霜。所謂伊人,在水一方。').han)  # 繁体字转简体

运行结果如下:

  1. ['这个''姑娘''真''好看']
  2. [('这个''r'), ('姑娘''n'), ('真''d'), ('好看''a')]
  3. 0.9002381975487243
  4. ['zhe''ge''gu''niang''zhen''hao''kan']
  5. 蒹葭苍苍,白露为霜。所谓伊人,在水一方。
  1. from SnowNLP import SnowNLP
  2. text = u'''
  3. 自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。
  4. 它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。
  5. 自然语言处理是一门融语言学、计算机科学、数学于一体的科学。
  6. 因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,
  7. 所以它与语言学的研究有着密切的联系,但又有重要的区别。
  8. 自然语言处理并不是一般地研究自然语言,
  9. 而在于研制能有效地实现自然语言通信的计算机系统,
  10. 特别是其中的软件系统。因而它是计算机科学的一部分。
  11. '''
  12. s = SnowNLP(text)
  13. print(s.keywords(limit=3))        # 关键词提取
  14. print('--------------------------------')
  15. summary = s.summary(limit=4)      # 文本概括
  16. for i in summary:
  17.     print(i)
  18. print('--------------------------------')
  19. print(s.sentences)        # 句子

运行结果如下:

  1. ['语言''自然''计算机']
  2. --------------------------------
  3. 因而它是计算机科学的一部分
  4. 自然语言处理是计算机科学领域与人工智能领域中的一个重要方向
  5. 自然语言处理是一门融语言学、计算机科学、数学于一体的科学
  6. 所以它与语言学的研究有着密切的联系
  7. --------------------------------
  8. ['自然语言处理是计算机科学领域与人工智能领域中的一个重要方向''它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法''自然语言处理是一门融语言学、计算机科学、数学于一体的科学''因此''这一领域的研究将涉及自然语言''即人们日常使用的语言''所以它与语言学的研究有着密切的联系''但又有重要的区别''自然语言处理并不是一般地研究自然语言''而在于研制能有效地实现自然语言通信的计算机系统''特别是其中的软件系统''因而它是计算机科学的一部分']
  9. Process finished with exit code 0
  1. # 评价词语对文本的重要程度
  2. # TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。
  3. # TF词频越大越重要,但是文中会的“的”,“你”等无意义词频很大,却信息量几乎为0,这种情况导致单纯看词频评价词语重要性是不准确的。因此加入了idf
  4. # IDF的主要思想是:如果包含词条t的文档越少,也就是n越小,IDF越大,则说明词条t越重要
  5. # TF-IDF综合起来,才能准确的综合的评价一词对文本的重要性。
  6. from SnowNLP import SnowNLP
  7. s = SnowNLP([[u'这篇', u'文章', u'写得', u'不错'],
  8.              [u'那篇', u'论文', u'好'],
  9.              [u'这个', u'东西', u'好吃']])
  10. print(s.tf)     # tf 意思是词频(Term Frequency)
  11. print('---------------------------------------------------')
  12. print(s.idf)    # idf 意思是逆文本频率指数(Inverse Document Frequency)
  13. print('-----------------------------------------------------')
  14. # 文本相似度
  15. print(s.sim([u'文章']))
  16. print(s.sim([u'好']))

运行结果如下:

  1. [{'这篇'1'文章'1'写得'1'不错'1}, {'那篇'1'论文'1'好'1}, {'这个'1'东西'1'好吃'1}]
  2. ---------------------------------------------------
  3. {'这篇'0.5108256237659907'文章'0.5108256237659907'写得'0.5108256237659907'不错'0.5108256237659907'那篇'0.5108256237659907'论文'0.5108256237659907'好'0.5108256237659907'这个'0.5108256237659907'东西'0.5108256237659907'好吃'0.5108256237659907}
  4. -----------------------------------------------------
  5. [0.468647361253202500]
  6. [00.53489594111622050]
  1. # 关于训练
  2. # 现在提供训练的包括分词,词性标注,情感分析,都是用的SnowNLP库自带的原始文件 以分词为例 分词在SnowNLP/seg目录下
  3. from SnowNLP import seg
  4. sentiment.train('neg.txt''pos.txt')
  5. seg.save('seg.marshal')
  6. # 这样训练好的文件就保存为seg.marshal了,之后修改SnowNLP/seg/__init__.py里的data_path指向刚训练好的文件即可

四、NLP测试

1. 获取数据

URL:https://item.jd.com/100000499657.html#none

爬取部分好评、中评和差评数据,分别保存到三个txt里。

  1. import asyncio
  2. import aiohttp
  3. import re
  4. import logging
  5. import datetime
  6. logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s')
  7. start = datetime.datetime.now()
  8. class Spider(object):
  9.     def __init__(self):
  10.         # 设置最大信号量
  11.         self.semaphore = asyncio.Semaphore(6)
  12.         # 伪装请求头
  13.         self.header = {
  14.             "Host""club.jd.com",
  15.             "Cookie""shshshfpa=c003ed54-a640-d73d-ba32-67b4db85fd3e-1594895561; shshshfpb=i5%20TzLvWAV56AeaK%20C9q5ew%3D%3D; __jdu=629096461; unpl=V2_ZzNtbUVRFkZ8DUddfRxcBGIEE1hKXhBGIQEVVnNLD1IwBkBeclRCFnQUR1JnGloUZwEZXkZcQxVFCEdkeR1ZAmYBEV1yZ0IXJQ4SXS9NVAZiChAJQAdGFnJfRFQrGlUAMFdACUtVcxZ1OEdkfBpUBG8EF1pCZ3MVfQ92ZDBMAGshQlBtQldEEXAKTlZyGGwEVwMTWUFXQxZ1DkFkMHddSGAAGlxKUEYSdThGVXoYXQVkBBVeclQ%3d; __jdv=122270672|baidu|-|organic|not set|1596847892017; areaId=0; ipLoc-djd=1-72-55653-0; PCSYCityID=CN_0_0_0; __jda=122270672.629096461.1595821561.1596847892.1597148792.3; __jdc=122270672; shshshfp=4866c0c0f31ebd5547336a334ca1ef1d; 3AB9D23F7A4B3C9B=DNFMQBTRNFJAYXVX2JODGAGXZBU3L2TIVL3I36BT56BKFQR3CNHE5ZTVA76S56HSJ2TX62VY7ZJ2TPKNIEQOE7RUGY; jwotest_product=99; shshshsID=ba4014acbd1aea969254534eef9cf0cc_5_1597149339335; __jdb=122270672.5.629096461|3.1597148792; JSESSIONID=99A8EA65B8D93A7F7E8DAEE494D345BE.s1",
  16.             "Connection""keep-alive",
  17.             "Referer""https://item.jd.com/4803334.html",
  18.             "User-Agent""Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36"
  19.         }
  20.     async def scrape(self, url):
  21.         async with self.semaphore:
  22.             session = aiohttp.ClientSession(headers=self.header)
  23.             response = await session.get(url)
  24.             result = await response.text()
  25.             await session.close()
  26.             return result
  27.     async def scrape_page(self, page):
  28.         # 分别手动改变score参数 score=3 score=2 score=1  爬取好评 中评 差评数据
  29.         url = f'https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId=100000499657&score=3&sortType=6&page={page}&pageSize=10&isShadowSku=0&fold=1'
  30.         text = await self.scrape(url)
  31.         await self.parse(text)
  32.     async def parse(self, text):
  33.         # 正则匹配提取数据
  34.         content = re.findall('"guid":".*?","content":"(.*?)"', text)
  35.         # 保存到txt
  36.         with open('好评.txt''a+') as f:
  37.             for con in content:
  38.                 f.write(con + '\n')
  39.                 logging.info(con)
  40.     def main(self):
  41.         # 爬取50页的数据
  42.         scrape_index_tasks = [asyncio.ensure_future(self.scrape_page(page)) for page in range(050)]
  43.         loop = asyncio.get_event_loop()
  44.         tasks = asyncio.gather(*scrape_index_tasks)
  45.         loop.run_until_complete(tasks)
  46. if __name__ == '__main__':
  47.     spider = Spider()
  48.     spider.main()
  49.     delta = (datetime.datetime.now() - start).total_seconds()
  50.     print("用时:{:.3f}s".format(delta))

2. 处理数据

  1. from pathlib import Path
  2. import pandas as pd
  3. # 获取当前目录下 有好评 中评 差评数据的txt
  4. p = Path(r'D:\python\pycharm2020\program\数据分析\中文情感分析')
  5. review_txt = list(p.glob('**/*.txt'))
  6. all_data = pd.DataFrame()
  7. for item in review_txt:
  8.     emotion = item.stem     # 获取文件名 除后缀的部分
  9.     with Path(item).open(mode='r') as f:
  10.         con = f.read().split('\n')
  11.     data = pd.DataFrame({'评论内容': con, '标签': [emotion] * len(con)})
  12.     all_data = all_data.append(data)
  13. all_data.to_excel('评论数据.xlsx', index=False)

3. NLP测试

  1. from SnowNLP import SnowNLP
  2. import pandas as pd
  3. import re
  4. # 读取数据
  5. df = pd.read_excel('评论数据.xlsx', encoding='utf-8')
  6. print(df.info())
  7. # 去掉空值的列
  8. df = df.dropna(axis=0)
  9. content = df['评论内容']
  10. # 去除一些无用的字符   只提取出中文出来
  11. content = [' '.join(re.findall('[\u4e00-\u9fa5]+', item, re.S)) for item in content]
  12. scores = [SnowNLP(i).sentiments for i in content]
  13. emotions = []
  14. for i in scores:
  15.     if i >= 0.75:
  16.         emotions.append('好评')
  17.     elif 0.45 <= i < 0.75:
  18.         emotions.append('中评')
  19.     else:
  20.         emotions.append('差评')
  21. df['情感分数'] = scores
  22. df['情感'] = emotions
  23. df.to_excel('NLP测试后数据.xlsx')
  1. import pandas as pd
  2. df = pd.read_excel('NLP测试后数据.xlsx')
  3. # 看准确率   通过SnowNLP情感打分 设置梯度得出的情感 好评 中评 差评 与实际标签相比较
  4. data = df[df['标签'] == df['情感']]
  5. print('准确率为:{:.2%}'.format(len(data) / len(df)))

运行结果

  1. 运行结果如下:
  2. 准确率为:71.56%
  3. Process finished with exit code 0
  • 准确率还可以,但还不算高,分析原因可能为如下方面:

  • 因为只是做练习、熟悉SnowNLP库的基本使用,通过情感打分和设置梯度来判断情感,没有自己构建该领域的语料库,如果构建了相关语料库,替换默认语料库,准确率会高很多。所以语料库是非常关键的,如果要正式进行文本挖掘,建议要构建自己的语料库。

  • 这个商品下的评论,中评、差评的界限比较模糊,每条评论的标签用的是爬取时默认标签:属于什么评论,没有人工去看,会有相当的误差,并且用于测试的数据量较小。

  • 对文本的处理也只是简单滤掉其他字符,提取中文。

作者:叶庭云
CSDN:https://blog.csdn.net/fyfugoyfa

本文相关源码+数据下载

https://alltodata.cowtransfer.com/s/bf3dc2f3792144

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/550477
推荐阅读
相关标签
  

闽ICP备14008679号