当前位置:   article > 正文

Python 分析到底是谁操纵《庆余年》上了热搜?

庆余年 python

以下文章来源于数据札记倌 ,作者A字头

庆余年电视剧上映一段时间,火的不要不要,这两天赶紧爬取数据看一下它的表现。


庆余年

《庆余年》是作家猫腻的小说。这部从2007年就开更的作品拥有固定的书迷群体,也在文学IP价值榜上有名。



期待已久的影视版的《庆余年》终于播出了,一直很担心它会走一遍《盗墓笔记》的老路。

在《庆余年》电视剧上线后,就第一时间去看了,真香。


庆余年微博传播分析

《庆余年》在微博上一直霸占热搜榜,去微博看一下大家都在讨论啥:

一条条看显然不符合数据分析师身份

于是爬取了微博超话页面,然后找到相关人员,分别去爬取相关人员的微博评论,看看大家都在讨论啥。

  1. import argparse
  2. parser = argparse.ArgumentParser(description="weibo comments spider")
  3. parser.add_argument('-u', dest='username', help='weibo username'default='') #输入你的用户名
  4. parser.add_argument('-p', dest='password', help='weibo password'default='') #输入你的微博密码
  5. parser.add_argument('-m', dest='max_page', help='max number of comment pages to crawl(number<int> larger than 0 or all)'default=) #设定你需要爬取的评论页数
  6. parser.add_argument('-l', dest='link', help='weibo comment link'default='') #输入你需要爬取的微博链接
  7. parser.add_argument('-t', dest='url_type', help='weibo comment link type(pc or phone)'default='pc')
  8. args = parser.parse_args()
  9. wb = weibo()
  10. username = args.username
  11. password = args.password
  12. try:
  13.     max_page = int(float(args.max_page))
  14. except:
  15.     pass
  16. url = args.link
  17. url_type = args.url_type
  18. if not username or not password or not max_page or not url or not url_type:
  19.     raise ValueError('argument error')
  20. wb.login(username, password)
  21. wb.getComments(url, url_type, max_page)

相关函数已经封装好,后台回复“微博”下载直接使用。

如何利用Python生成词云图

爬取到微博评论后,老规矩,词云展示一下,不同主角的评论内容差别还是挺大的

张若昀:

李沁:

肖战:

emmm....算了吧

从目前大家的评论来看,情绪比较正向,评价较高,相信《庆余年》会越来越火的。

这部剧在微博热度这么高,都是谁在传播呢?

于是我进一步点击用户头像获取转发用户的公开信息。

看了一下几位主演的相关微博,都是几十万的评论和转发,尤其是肖战有百万级的转发,尝试爬了一下肖战的微博,执行了6个小时的结果,大家随意感受一下执行过程:

最终还是败给了各位小飞侠,之后有结果再同步给大家。


于是我只能挑软柿子捏,换成官微的微博。

这条微博发布时间是26号,经过一段时间已经有比较好的传播,其中有几个关键节点进一步引爆话题。

经过几个关键节点后,进一步获得传播,这几个关键节点分别是:

肖战的超话:https://weibo.com/1081273845/Ii1ztr1BH

王小亚的微博:https://weibo.com/6475144268/Ii1rDEN6q

继续看一下转发该微博的用户分析:

整体看下来,庆余年官微的这条微博90%都是普通用户的转发,这部剧转发层级达到5层,传播范围广,在微博上的讨论女性居多(占比89%),大部分集中在一二线城市。

原著人物关系图谱

如果只看微博,不分析原著,那就不是一个合格的书粉。

于是我去下载了原著画一下人物关系图谱。

先给大家看一下原著的人物关系图谱:

emmm.....确实挺丑的,大家可以去Gephi上调整。

首先我需要从原著里洗出人物名,尝试用jieba分词库来清洗:

  1. import jieba
  2. test= 'temp.txt' #设置要分析的文本路径
  3. text = open(test, 'r''utf-8')
  4. seg_list = jieba.cut(text, cut_all=True, HMM=False)
  5. print("Full Mode: " + "/ ".join(seg_list))  # 全模式

发现并不能很好的切分出所有人名,最简单的方法是直接准备好人物名称和他们的别名,这样就能准确定位到人物关系。

存储好人物表,以及他们对应的别名(建立成字典)

  1. def synonymous_names(synonymous_dict_path):
  2.     with codecs.open(synonymous_dict_path, 'r''utf-8') as f:
  3.         lines = f.read().split('\n')
  4.     for l in lines:
  5.         synonymous_dict[l.split(' ')[0]] = l.split(' ')[1]
  6.     return synonymous_dict

接下来直接清理文本数据:

  1. def clean_text(text):
  2.     new_text = []
  3.     text_comment = []
  4.     with open(text, encoding='gb18030') as f:
  5.         para = f.read().split('\r\n')
  6.         para = para[0].split('\u3000')
  7.     for i in range(len(para)):
  8.         if para[i] != '':
  9.             new_text.append(para[i])
  10.     for i in range(len(new_text)):
  11.         new_text[i] = new_text[i].replace('\n''')
  12.         new_text[i] = new_text[i].replace(' ''')
  13.         text_comment.append(new_text[i])
  14.     return text_comment

我们需要进一步统计人物出现次数,以及不同人物间的共现次数:

  1. text_node = []
  2. for name, times in person_counter.items():
  3.     text_node.append([])
  4.     text_node[-1].append(name)
  5.     text_node[-1].append(name)
  6.     text_node[-1].append(str(times))
  7. node_data = DataFrame(text_node, columns=['Id''Label''Weight'])
  8. node_data.to_csv('node.csv', encoding='gbk')

结果样例如下:

不愧是主角,范闲出现的次数超过了其他人物出现次数的总和,基本每个人都与主角直接或间接地产生影响。

同理可以得到不同人物的边,具体代码参考源文件。

接下来需要做的就是利用Gephi绘制人物关系图谱:

运行结果:

参考文献:Ren, Donghao, Xin Zhang, Zhenhuang Wang, Jing Li, and Xiaoru Yuan. "WeiboEvents: A Crowd Sourcing Weibo Visual Analytic System." In Pacific Visualization Symposium (PacificVis) Notes, 2014 IEEE, pp. 330-334. IEEE, 2014.

数据和源码下载公众号后台回复关键词:code

Python 3+Django 3 结合Vue.js框架构建前后端分离Web开发平台实战

李子柒一年能赚多少钱?数据自己会说话!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/692123
推荐阅读
相关标签
  

闽ICP备14008679号