当前位置:   article > 正文

用Python爬取B站、腾讯视频、芒果TV和爱奇艺视频弹幕

爱奇艺弹幕api

众所周知,弹幕,即在网络上观看视频时弹出的评论性字幕。不知道大家看视频的时候会不会点开弹幕,于我而言,弹幕是视频内容的良好补充,是一个组织良好的评论序列。通过分析弹幕,我们可以快速洞察广大观众对于视频的看法。 

J哥通过一个关于《八佰》的视频弹幕数据,绘制了如下词云图,感觉效果还是可以的。 


海量的弹幕数据不仅可以绘制此类词云图,还可以调用百度AI进行情感分析。那么,我们该如何获取弹幕数据呢?本文运用Python爬取B站视频、腾讯视频、芒果TV和爱奇艺视频等弹幕,让你轻松获取主流视频网站弹幕数据。 

一、B站视频弹幕

1.网页分析

本文以爬取up主硬核的半佛仙人发布的《你知道奶茶加盟到底有多坑人吗?》视频弹幕为例,首先通过以下步骤找到存放弹幕的真实url。

简单分析url参数,很显然,date参数表示发送弹幕的时间,其他参数均无变化。因此,只需要改变date参数,然后通过beautifulsoup解析到弹幕数据即可。

2.爬虫实战

  1. import requests #请求网页数据
  2. from bs4 import BeautifulSoup #美味汤解析数据
  3. import pandas as pd
  4. import time
  5. from tqdm import trange #获取爬取速度
  6. def get_bilibili_url(start, end):
  7.     url_list = []
  8.     date_list = [i for i in pd.date_range(start, end).strftime('%Y-%m-%d')]
  9.     for date in date_list:
  10.         url = f"https://api.bilibili.com/x/v2/dm/history?type=1&oid=141367679&date={date}"
  11.         url_list.append(url)
  12.     return url_list
  13. def get_bilibili_danmu(url_list):
  14.     headers = {
  15.         "user-agent""Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36",
  16.         "cookie""你自己的" #Headers中copy即可
  17.                }
  18.     file = open("bilibili_danmu.txt"'w')
  19.     for i in trange(len(url_list)):
  20.         url = url_list[i]
  21.         response = requests.get(url, headers=headers)
  22.         response.encoding = 'utf-8'
  23.         soup = BeautifulSoup(response.text)
  24.         data = soup.find_all("d")
  25.         danmu = [data[i].text for i in range(len(data))]
  26.         for items in danmu:
  27.             file.write(items)
  28.             file.write("\n")
  29.         time.sleep(3)
  30.     file.close()
  31. if __name__ == "__main__":
  32.     start = '9/24/2020' #设置爬取弹幕的起始日
  33.     end = '9/26/2020' #设置爬取弹幕的终止日
  34.     url_list = get_bilibili_url(start, end)
  35.     get_bilibili_danmu(url_list)
  36.     print("弹幕爬取完成")

3.数据预览


二、腾讯视频弹幕

1.网页分析

本文以爬取《脱口秀大会 第3季》最后一期视频弹幕为例,首先通过以下步骤找到存放弹幕的真实url。

通过删减各参数,发现仅有timestamp参数的变化会影响弹幕数据的爬取,且timestamp参数是首项为15,公差为30的等差数列。可以大胆猜测腾讯视频每30秒更新一页弹幕数据,该视频长度为12399秒。而数据格式为标准的json格式,因此json.loads直接解析数据即可。

2.爬虫实战

  1. import requests
  2. import json
  3. import time
  4. import pandas as pd
  5. df = pd.DataFrame()
  6. for page in range(151239930):
  7.     headers = {'User-Agent''Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
  8.     url = 'https://mfm.video.qq.com/danmu?otype=json&timestamp={}&target_id=5938032297%26vid%3Dx0034hxucmw&count=80'.format(page)
  9.     print("正在提取第" + str(page) + "页")
  10.     html = requests.get(url,headers = headers)
  11.     bs = json.loads(html.text,strict = False)  #strict参数解决部分内容json格式解析报错
  12.     time.sleep(1)
  13.     #遍历获取目标字段
  14.     for i in bs['comments']:
  15.         content = i['content']  #弹幕
  16.         upcount = i['upcount']  #点赞数
  17.         user_degree =i['uservip_degree'#会员等级
  18.         timepoint = i['timepoint']  #发布时间
  19.         comment_id = i['commentid']  #弹幕id
  20.         cache = pd.DataFrame({'弹幕':[content],'会员等级':[user_degree],
  21.                               '发布时间':[timepoint],'弹幕点赞':[upcount],'弹幕id':[comment_id]})
  22.         df = pd.concat([df,cache])
  23. df.to_csv('tengxun_danmu.csv',encoding = 'utf-8')
  24. print(df.shape)

3.数据预览

三、芒果TV弹幕

1.网页分析

本文以爬取《乘风破浪的姐姐》最后一期视频弹幕为例,首先通过以下步骤找到存放弹幕的真实url。

通过分析参数,我们可以发现,芒果TV会生成首项为0,公差为1的等差数列json弹幕文件,每个json文件存储前一分钟内所有的弹幕数据。弹幕数据存放格式为json,数据解析较为简单。

2.爬虫实战

  1. import requests
  2. import json
  3. import pandas as pd
  4. def get_mangguo_danmu(num1, num2, page):
  5.     try:
  6.         url = 'https://bullet-ws.hitv.com/bullet/2020/09/29/{}/{}/{}.json'
  7.         print("正在爬取第" + str(page) + "页")
  8.         danmuurl = url.format(num1, num2, page)
  9.         res = requests.get(danmuurl)
  10.         res.encoding = 'utf-8'
  11.         #print(res.text)
  12.         data = json.loads(res.text)
  13.     except:
  14.         print("无法连接")
  15.     details = []
  16.     for i in range(len(data['data']['items'])):  # 弹幕数据在json文件'data'的'items'中
  17.         result = {}
  18.         result['stype'] = num2  # 通过stype可识别期数
  19.         result['id'] = data['data']['items'][i]['id']  # 获取id
  20.         try:  # 尝试获取uname
  21.             result['uname'] = data['data']['items'][i]['uname']
  22.         except:
  23.             result['uname'] = ''
  24.         result['content'] = data['data']['items'][i]['content']  # 获取弹幕内容
  25.         result['time'] = data['data']['items'][i]['time']  # 获取弹幕发布时间
  26.         try:  # 尝试获取弹幕点赞数
  27.             result['v2_up_count'] = data['data']['items'][i]['v2_up_count']
  28.         except:
  29.             result['v2_up_count'] = ''
  30.         details.append(result)
  31.     return details
  32. #输入关键信息
  33. def count_danmu():
  34.     danmu_total = []
  35.     num1 = input('第一个数字')
  36.     num2 = input('第二个数字')
  37.     page = int(input('输入总时长'))
  38.     for i in range(page):
  39.         danmu_total.extend(get_mangguo_danmu(num1, num2, i))
  40.     return danmu_total
  41. def main():
  42.     df = pd.DataFrame(count_danmu())
  43.     df.to_csv('mangguo_danmu.csv')
  44. if __name__ == '__main__':
  45.     main()

3.数据预览


四、爱奇艺弹幕

1.网页分析

本文以爬取《乐队的夏天第2季》第13期上视频弹幕为例,首先通过以下步骤找到存放弹幕的真实url。

分析弹幕真实url,我们发现,参数5981449914376200是视频tvid,参数62是tvid倒数4为的前两位,参数00是tvid的最后两位,.z前的参数1为视频总时长除以300秒向上取整。观察相邻两个弹幕文件包,可以看出爱奇艺每5分钟更新一次弹幕文件。

由于直接爬取出来的弹幕文件存在乱码,需要进行二进制编码,方可得到最终的弹幕数据。

2.爬虫实战

  1. import zlib
  2. import requests
  3. # 1.爬取xml文件
  4. def download_xml(url):
  5.     bulletold = requests.get(url).content  # 二进制内容
  6.     return zipdecode(bulletold)
  7. def zipdecode(bulletold):
  8.     '对zip压缩的二进制内容解码成文本'
  9.     decode = zlib.decompress(bytearray(bulletold), 15 + 32).decode('utf-8')
  10.     return decode
  11. for x in range(1,12):
  12.     # x是从1到12,12怎么来的,这一集总共57分钟,爱奇艺每5分钟会加载新的弹幕,57除以5向上取整
  13.     url = 'https://cmts.iqiyi.com/bullet/62/00/5981449914376200_300_' + str(x) + '.z'
  14.     xml = download_xml(url)
  15.     # 把编码好的文件分别写入17个xml文件中(类似于txt文件),方便后边取数据
  16.     with open('./aiqiyi/iqiyi' + str(x) + '.xml''a+', encoding='utf-8'as f:
  17.         f.write(xml)
  18. # 2.读取xml文件中的弹幕数据数据
  19. from xml.dom.minidom import parse
  20. import xml.dom.minidom
  21. def xml_parse(file_name):
  22.     DOMTree = xml.dom.minidom.parse(file_name)
  23.     collection = DOMTree.documentElement
  24.     # 在集合中获取所有entry数据
  25.     entrys = collection.getElementsByTagName("entry")
  26.     print(entrys)
  27.     result = []
  28.     for entry in entrys:
  29.         content = entry.getElementsByTagName('content')[0]
  30.         print(content.childNodes[0].data)
  31.         i = content.childNodes[0].data
  32.         result.append(i)
  33.     return result
  34. with open("aiyiqi_danmu.txt", mode="w", encoding="utf-8"as f:
  35.     for x in range(1,12):
  36.         l = xml_parse("./aiqiyi/iqiyi" + str(x) + ".xml")
  37.         for line in l:
  38.             f.write(line)
  39.             f.write("\n"

3.数据预览


Pandas进阶文章!

取数,取数,取个屁啊!

后台回复“入群”即可加入小z数据干货交流群

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/205451
推荐阅读
相关标签
  

闽ICP备14008679号