当前位置:   article > 正文

Python数据分析案例30——中国高票房电影分析(爬虫获取数据及分析可视化全流程)_python爬取电影票房

python爬取电影票房

案例背景

最近总看到《消失的她》票房多少多少,《孤注一掷》票房又破了多少多少.....

于是我就想自己爬虫一下获取中国高票房的电影数据,然后分析一下。

数据来源于淘票票:影片总票房排行榜 (maoyan.com)

爬它就行。

不会爬虫的同学要这代码演示数据可以参考:数据

 


代码实现

首先爬虫获取数据

数据获取

导入包

  1. import requests; import pandas as pd
  2. from bs4 import BeautifulSoup

 传入网页和请求头

  1. url = 'https://piaofang.maoyan.com/rankings/year'
  2. headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/116.0.0.0 Safari/537.36 Edg/116.0.1938.62'}
  3. response1 = requests.get(url,headers=headers)
  4. response.status_code


200表示获取网页文件成功

然后解析网页文件,获取电影信息数据

  1. %%time
  2. soup = BeautifulSoup(response.text, 'html.parser')
  3. soup=soup.find('div', id='ranks-list')
  4. movie_list = []
  5. for ul_tag in soup.find_all('ul', class_='row'):
  6. movie_info = {}
  7. li_tags = ul_tag.find_all('li')
  8. movie_info['序号'] = li_tags[0].text
  9. movie_info['标题'] = li_tags[1].find('p', class_='first-line').text
  10. movie_info['上映日期'] = li_tags[1].find('p', class_='second-line').text
  11. movie_info['票房(亿)'] = f'{(float(li_tags[2].text)/10000):.2f}'
  12. movie_info['平均票价'] = li_tags[3].text
  13. movie_info['平均人次'] = li_tags[4].text
  14. movie_list.append(movie_info)

数据获取完成了! 查看字典数据:
 

movie_list

可以,很标准,没什么问题,然后把它变成数据框,查看前三行

  1. movies=pd.DataFrame(movie_list)
  2. movies.head(3)

对数据进行一定的清洗,我们看到上映日期里面的数据有“上映”两个字,我们要去掉,然后把它变成时间格式,票房,票价,人次都要变成数值型数据。

我们只取票房前250的电影,对应豆瓣250.,,,,中国票房250好叭

然后我们还需要从日期里面抽取年份和月份两列数据,方便后面分析。

  1. #清洗
  2. movies=movies.set_index('序号').loc[:'250',:]
  3. movies['上映日期']=pd.to_datetime(movies['上映日期'].str.replace('上映',''))
  4. movies[['票房(亿)','平均票价','平均人次']]=movies.loc[:,['票房(亿)','平均票价','平均人次']].astype(float)
  5. movies['年份']=movies['上映日期'].dt.year ; movies['月份']=movies['上映日期'].dt.month
  6. movies.head(2)

数据处理完毕,开始画图分析!


画图分析

导入画图包

  1. import seaborn as sns
  2. import matplotlib.pyplot as plt
  3. plt.rcParams ['font.sans-serif'] ='SimHei' #显示中文
  4. plt.rcParams ['axes.unicode_minus']=False

 对票房排名前20的电影画柱状图

  1. top_movies = movies.nlargest(20, '票房(亿)')
  2. plt.figure(figsize=(7, 4),dpi=128)
  3. ax = sns.barplot(x='票房(亿)', y='标题', data=top_movies, orient='h',alpha=0.5)
  4. #plt.xticks(rotation=80, ha='center')
  5. # 在柱子上标注数值
  6. for p in ax.patches:
  7. ax.annotate(f'{p.get_width():.2f}', (p.get_width(), p.get_y() + p.get_height() / 2.),
  8. va='center', fontsize=8, color='gray', xytext=(5, 0),
  9. textcoords='offset points')
  10. plt.title('票房前20的电影')
  11. plt.xlabel('票房数量(亿)')
  12. plt.ylabel('电影名称')
  13. plt.tight_layout()
  14. plt.show()

还不错,很好看,可以看到中国历史票房前20 的电影名称和他们的票房数量。

对平均票价和平均人次进行分析:
 

  1. plt.figure(figsize=(7, 6),dpi=128)
  2. # 绘制第一个子图:平均票价点图
  3. plt.subplot(2, 2, 1)
  4. sns.scatterplot(y='平均票价', x='年份', data=movies,c=movies['年份'],cmap='plasma')
  5. plt.title('平均票价点图')
  6. plt.ylabel('平均票价')
  7. #plt.xticks([])
  8. plt.subplot(2, 2, 2)
  9. sns.boxplot(y='平均票价', data=movies)
  10. plt.title('平均票价箱线图')
  11. plt.xlabel('平均票价')
  12. plt.subplot(2, 2, 3)
  13. sns.scatterplot(y='平均人次', x='年份', data=movies,c=movies['年份'],cmap='plasma')
  14. plt.title('平均人次点图')
  15. plt.ylabel('平均人次')
  16. plt.subplot(2, 2, 4)
  17. sns.boxplot(y='平均人次', data=movies)
  18. plt.title('平均人次箱线图')
  19. plt.xlabel('平均人次')
  20. plt.tight_layout()
  21. plt.show()

先看柱状图,可以看到平均票价和平均人次都是有一些离群点的,然后我们在左边画了他们和年份的的散点图,可以明细看到,随着年份越大,电影的平均人次越来越低,平均票价越来越高.....也就是最近的电影比起之前的电影来说,越来越贵,而且平均每场看的人越来越少......也侧面反映了我国电影业的一些“高票价”,‘幽灵剧场刷票房’ 等等乱象...

我注意到2000年之前有一个电影每场人次特别高,票价很低,它是什么电影我很好奇我就查看了一下:

movies[movies['年份']<2000]

原来是国民级别的《泰坦尼克号》,那没事了,名副实归。

不同年份的高票房电影数量:

  1. plt.figure(figsize=(7, 3), dpi=128)
  2. year_count = movies['年份'].value_counts().sort_index()
  3. sns.lineplot(x=year_count.index, y=year_count.values, marker='o', lw=1.5, markersize=3)
  4. plt.fill_between(year_count.index, 0, year_count, color='lightblue', alpha=0.8)
  5. plt.title('不同年份高票房电影数量')
  6. plt.xlabel('年份')
  7. plt.ylabel('电影数量')
  8. # 在每个数据点上标注数值
  9. for x, y in zip(year_count.index, year_count.values):
  10. plt.text(x, y+0.2, str(y), ha='center', va='bottom', fontsize=8)
  11. plt.tight_layout()
  12. plt.show()

可以看到,我国高票房的电影,从2010年开始高速增长,到2017年到达峰值,著名的《战狼2》就是2017年上映的,然后2018和2019略微下降,2020年断崖下跌,,为什么,懂得懂得,疫情原因嘛。

对高票房电影不同月份的占比百分比分析:

  1. plt.figure(figsize=(4, 4),dpi=128)
  2. month_count = movies['月份'].value_counts(normalize=True).sort_index()
  3. # 绘制饼图
  4. sns.set_palette("Set3")
  5. plt.pie(month_count, labels=month_count.index, autopct='%.1f%%', startangle=140, counterclock=False,
  6. wedgeprops={'alpha': 0.9})
  7. plt.axis('equal') # 保证饼图是正圆形
  8. plt.text(-0.3,1.2,'不同月份高票房电影数量',fontsize=8)
  9. plt.tight_layout()
  10. plt.show()

我们可以看到,高票房电影主要集中在2月,7月,12月,三个月份区间。

理由也很简单,2月春节,7月暑假,12月跨年.....电影都喜欢这三个时间段上映。


自定义评价指标

我们上面都是之间拿票房进行分析的,我们发现,票房高的电影真的是反映了看的人多嘛?它真的是受观众喜欢的好电影嘛?

数据有限,虽然我们无法剔除宣传,时间热点,导演,社会风气等等影响因素,但是我们可以把票价进行一定的控制。因为票房高的电影也有可能是票价过高造成的,所以我们用‘票房/平均票价’,然后和‘平均人次’进行一个加权求和。

票房/平均票价 表示看电影的人群量,给7成权重,平均人次 给一个3层的权重,然后都进行标准化统一数据单位,加起来就成为我们自己的评价指标:


为了方便标准化我们先导入一个机器学习库里面sklearn的标准化函数

  1. from sklearn.preprocessing import StandardScaler
  2. scaler = StandardScaler()

 计算指标:

  1. movies['我的评价指标']=(movies['票房(亿)'].astype(float)/movies['平均票价'].astype(float))
  2. data1=scaler.fit_transform(movies[['我的评价指标', '平均人次']])
  3. movies['我的评价指标']=0.7*data1[:,0]+0.3*data1[:,1]
  4. movies=movies.sort_values(by='我的评价指标',ascending=False)

画图查看:
 

  1. my_top_movies = movies.nlargest(20, '我的评价指标')
  2. plt.figure(figsize=(7, 4),dpi=128)
  3. ax = sns.barplot(x='我的评价指标', y='标题', data=my_top_movies, orient='h',alpha=0.6,palette='rainbow_r')
  4. #plt.xticks(rotation=80, ha='center')
  5. # 在柱子上标注数值
  6. for p in ax.patches:
  7. ax.annotate(f'{p.get_width():.2f}', (p.get_width(), p.get_y() + p.get_height() / 2.),
  8. va='center', fontsize=8, color='gray', xytext=(5, 0),
  9. textcoords='offset points')
  10. plt.title('前20电影')
  11. plt.xlabel('我的评价指标')
  12. plt.ylabel('电影名称')
  13. plt.tight_layout()
  14. plt.show()

和之前的最高票房前20 的作对比,这样我们能比较哪些是票房过高的电影,哪些是可能被低估的电影。

  1. def get_unique_elements(list1, list2):
  2. # 获取每个列表中的唯一元素
  3. set1 = set(list1) ; set2 = set(list2)
  4. unique_to_list1 = list(set1 - set2)
  5. unique_to_list2 = list(set2 - set1)
  6. common_elements = list(set1 & set2)
  7. return unique_to_list1, common_elements, unique_to_list2
  8. 票价过高的电影,确实是好电影,被低估的电影=get_unique_elements(top_movies['标题'].to_list(), my_top_movies['标题'].to_list())

 这个函数的作用是选出第一个列表特有的元素,两个列表共有的元素,第二个列表特有的元素。

若这个电影在票房前20里面,也在我们的评价指标前20里面,那么就是好电影。若它在在票房前20里面,不在我们的评价指标前20里面,那可能就是票价过高的“水分电影”。

print(f'票价过高的电影:{票价过高的电影},\n\n确实是好电影:{确实是好电影},\n\n低估的电影:{被低估的电影}')

票价过高的电影:['八佰', '我和我的家乡', '独行月球', '流浪地球2'],emmmm

这几个电影,我都没怎么深入了解就不评价了......

词云图

加个词云图吧,好看些:

先自定义一个随机颜色函数:

  1. import numpy as np
  2. def randomcolor():
  3. colorArr = ['1','2','3','4','5','6','7','8','9','A','B','C','D','E','F']
  4. color ="#"+''.join([np.random.choice(colorArr) for i in range(6)])
  5. return color
  6. [randomcolor() for i in range(3)]

然后画词云图:这里用了垫图掩码,原始图片形状为这样的六角星:—— 

  1. from wordcloud import WordCloud
  2. from matplotlib import colors
  3. from imageio.v2 import imread #形状设置
  4. mask = imread('词云.png')
  5. # 将'标题'和'票房'列合并为字典,以便生成词云图
  6. word_freq = dict(zip(movies['标题'], movies['票房(亿)']))
  7. color_list=[randomcolor() for i in range(20)]
  8. wordcloud = WordCloud(width=1000, height=500, background_color='white',font_path='simhei.ttf',
  9. max_words=50, max_font_size=50,random_state=42,mask = mask,
  10. colormap=colors.ListedColormap(color_list)).generate_from_frequencies(word_freq)
  11. plt.figure(figsize=(10, 5),dpi=256)
  12. plt.imshow(wordcloud, interpolation='bilinear')
  13. plt.axis('off')
  14. plt.show()



总结

本次演示了从数据爬虫获取,到清洗整理,再到计算和可视化分析的全流程,再多加点图和文字分析角度,加点模型,作为大多数的本科生的论文算是差不多的工作量了。


创作不易,看官觉得写得还不错的话点个关注和赞吧,本人会持续更新python数据分析领域的代码文章~(需要定制代码可私信)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/371931?site
推荐阅读
相关标签
  

闽ICP备14008679号