当前位置:   article > 正文

爬取豆瓣电影Top250和数据分析

爬取豆瓣电影Top250和数据分析

目录

一、 爬取

1. 爬取主页面

2. BeautifulSoup查找元素

3. 爬取每部电影信息

二、  数据分析

       1.  对上映时间分析 

绘制直方图

 绘制饼图

 绘制折线图

        2. 对电影类型分析

        绘制词云图           

        分析某种电影类型随时间变化的折线图

        3.  分析演员或者导演

         排名前十的演员

         对某个演员出演的电影得分分析

 三、完整代码

        1. 爬取代码

         2.  数据分析代码


爬取豆瓣电影内容,并将其写入excel,对数据进行数据分析

方法:requests,BeautifulSoup,pandas

一、 爬取

       爬取豆瓣电影内容方法是:先在主页面(每页25部电影,一共10页)上爬取每部电影的网址,然后依次进入每部电影的网址爬取内容。

1. 爬取主页面

     在爬取之前,需要找到headers和url。

      headers主要是由User-Agent构成,其作用是告诉HTTP服务器, 客户端使用的操作系统和浏览器的名称和版本。在爬取一般的网站只需要一个User-Agent就够了。

    url 第一页主页网站https://movie.douban.com/top250?start=0&filter= ,每页的网站就是前一页start=后面加上25。

        接下来就是运用requests开始访问网站了。requests一般有两种方法get和post,如下图就是确定使用get或者使用post。在这里就是使用get。

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

下面就开始访问网站了。输出response如果得到的是200那么就是访问成功了,反之可以根据错误的编号找到错误源 点击查看错误代码大全 。

response = requests.get(url=url, headers=headers)

 下一步就是运用BeautifulSoup开始解析网页。

soup = BeautifulSoup(response.text, 'html.parser')

这里的html.parser,是四种解析器中的一种,也是经常使的。得到的soup就是HTML。所以后面我们可以直接使用soup找到我们需要的属性。

做到了这里就完成了爬虫工作的一半。

20210728231556706.gif

2. BeautifulSoup查找元素

         俗话说磨刀不误砍柴工,在我们进行查找元素时,我们先对BeautifulSoup查找元素方法了解一下。

         接下来就介绍以下soup的使用方法,功能强大的CSS选择器能完成我们绝大多数的功能,下面我们就着重介绍一下:

20210729102331312.png

        1. find_all

格式为:soup.find_all('标签',attrs={'属性名':'属性值'})    这种格式可以运用绝大多数的情况下,重点记忆!

例如对主页电影名进行爬取,可以看到,标签为span,属性名为class,属性值为title,那么就可以应用find_all了。

20210728234009474.png

  1. list_name = soup.find_all('span',attrs={'class':'title'}) # 结果为一个列表
  2. for i in list_name:
  3. print(i.get_text()) # 类型为Tag,需要用get_text()

 得到的部分结果为:

20210728234357498.png

可以看到得到的结果是在一个网页中的所有的标签为span,属性名为class,属性值为title。所以这里引出find_all就是查找网页中所有满足条件的内容。

        2. find

find_all是找所有满足条件的内容,那么可想而知find也就是查找第一个满足条件的。

  1. name = soup.find('span',attrs={'class':'title'})
  2. print(name.get_text())
  3. print(name.string) # stringget_text()一样

20210728235059281.png

 还可以直接find或者find_all 字符串,只会找到满足条件的,例如:

  1. name = soup.find('span',attrs={'class':'title'},string='肖申克的救赎')
  2. print(name.get_text())
  3. print(name.string) # stringget_text()一样

20210729000507751.png

        3. select

select一般有两种方法爬取内容,第一,复制selector。第二,查找标签。

select可以直接在找到所要爬取的内容,复制selector,如下所示:

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

  1. names = soup.select('#content > div > div.article > ol > li:nth-child(1) > div > div.info > div.hd > a > span:nth-child(1)')
  2. for name in names:
  3. print(name.get_text())

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

得到的结果只是每个主页的第一部的第一个名字。所以我们要删除第一个:nth-child(1),才会爬取全部的信息,因为selector是精确定位某个元素的,所以我们要想爬取全部内容就必须删除一部分定位。

删除之后得到的部分结果为:

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

 select的第二种方法和find类似,重点就是class 换成点(因为class是类),id换成#。但是我们完全可以不用直接去找标签,以下方法就是确定标签的,如图:

 watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

这里我们看见了电影名的标签为“span.title”,所以查找网页中符合标签的全部内容,如下:

  1. names = soup.select('span.title')
  2. for name in names:
  3. print(name.get_text())

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

 总结:BeautifulSoup查找元素主要运用find_all和select这两种方法,查找元素注意找到爬取内容的标签和这两种方法的优缺点

 下面我们就正式开始爬取元素信息:

首先,在每页的主页面将每部电影的网址爬取下来,我们可以直接去每部电影中分析。

20210729101849978.png

 找到含有电影网址的标签href,这里使用的方法就是复制selector爬取

分析:如果用find_all会得到很多的并且不是需要的href,十分的麻烦,所以我们可以精确定位。

  1. url_mv_list = soup.select('#content > div > div.article > ol > li > div > div.info > div.hd > a')
  2. print(url_mv_list)

 输出url_mv_list 得到的是一个列表,列表里面的元素都是一部电影的所有信息,如下图,

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

 所以我们只需要对每一个元素的href读取就行了

  1. for index_url in range(len(url_mv_list)):
  2. url_mv = url_mv_list[index_url]['href']
  3. list_url_mv.append(url_mv)
  4. print(url_mv)

 得到的结果就是每部电影网址

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

 3. 爬取每部电影信息

               然后就是进入根据得到的每部电影网址,解析网页,然后爬取元素。方法和爬取主页面方法一样,这里就直接贴代码了。

        在此之前,需要考虑爬取内容输出格式,因为我们最后要将爬取得到的结果输入到Excel中,运用到的方法是先将数据换成dataframe,然后写入Excel。举个例子就能很好说明怎样转换成dataframe。

  1. a = [['a', '1', '2'], ['b', '3', '4'], ['c', '5', '6']]
  2. df = pd.DataFrame(a, columns=['pan', 'panda', 'fan'])
  3. print(df)

2021072911514489.png

       根据上面的例子得到的结果,我们需要将每一部电影的信息做成一个列表,作为函数的返回值,然后再将返回值添加到一个列表中,这样就可以转换成dataframe了。

  1. # 对每部电影进行处理
  2. def loading_mv(url,number):
  3. list_mv = [] # 将爬取每部电影信息加入到其中
  4. print('-----正在处理第{}部电影-----'.format(number+1))
  5. list_mv.append(number+1) # 排名
  6. # 解析网页
  7. response_mv = requests.get(url=url,headers=headers)
  8. soup_mv = BeautifulSoup(response_mv.text,'html.parser')
  9. # 爬取电影名
  10. mv_name = soup_mv.find_all('span',attrs={'property':'v:itemreviewed'}) # 电影名
  11. mv_name = mv_name[0].get_text()
  12. list_mv.append(mv_name)
  13. # print(mv_name)
  14. # 爬取电影的上映时间
  15. mv_year = soup_mv.select('span.year') # 电影上映时间
  16. mv_year = mv_year[0].get_text()[1:5]
  17. list_mv.append(mv_year)
  18. # print(mv_year)
  19. # 爬取导演信息
  20. list_mv_director = [] # 导演
  21. mv_director = soup_mv.find_all('a',attrs={'rel':"v:directedBy"})
  22. for director in mv_director:
  23. list_mv_director.append(director.get_text())
  24. string_director = '/'.join(list_mv_director) # 重新定义格式
  25. list_mv.append(string_director)
  26. # print(list_mv_director)
  27. # 爬取主演信息
  28. list_mv_star = [] # 主演
  29. mv_star = soup_mv.find_all('span',attrs={'class':'actor'})
  30. if mv_star == []: # 在第210部时没有主演
  31. list_mv.append(None)
  32. else :
  33. mv_star = mv_star[0].get_text().strip().split('/')
  34. mv_first_star = mv_star[0].split(':')
  35. list_mv_star.append(mv_first_star[-1].strip())
  36. del mv_star[0] # 去除'主演'字段
  37. for star in mv_star:
  38. list_mv_star.append(star.strip())
  39. string = '/'.join(list_mv_star) # 重新定义格式
  40. list_mv.append(string)
  41. # 爬取电影类型
  42. list_mv_type = [] # 电影类型
  43. mv_type = soup_mv.find_all('span',attrs={'property':'v:genre'})
  44. for type in mv_type:
  45. list_mv_type.append(type.get_text())
  46. string_type = '/'.join(list_mv_type)
  47. list_mv.append(string_type)
  48. # print(list_mv_type)
  49. # 爬取电影评分
  50. mv_score = soup_mv.select('strong.ll.rating_num') # 评分
  51. mv_score = mv_score[0].get_text()
  52. list_mv.append(mv_score)
  53. # 爬取评价人数
  54. mv_evaluation_num = soup_mv.select('a.rating_people') # 评价人数
  55. mv_evaluation_num = mv_evaluation_num[0].get_text().strip()
  56. list_mv.append(mv_evaluation_num)
  57. # 爬取剧情简介
  58. mv_plot = soup_mv.find_all('span',attrs={"class":"all hidden"}) # 剧情简介
  59. if mv_plot == []:
  60. list_mv.append(None)
  61. else:
  62. string_plot = mv_plot[0].get_text().strip().split()
  63. new_string_plot = ' '.join(string_plot)
  64. list_mv.append(new_string_plot)
  65. # 加入电影网址
  66. list_mv.append(url)
  67. return list_mv

定义了个爬取每部电影内容,下面就开始调用函数:

先创建了一个list_all_mv的列表,用来存储调用函数的返回值,即存储每部电影的信息,如下图,

  1. list_all_mv = []
  2. dict_mv_info = {}
  3. for number in range(len(list_url_mv)):
  4. mv_info = loading_mv(list_url_mv[number],number)
  5. list_all_mv.append(mv_info)
  6. print('-----运行结束-----')
  7. pd = DataFrame(list_all_mv,columns=['电影排名','电影名','上映时间','导演','主演','电影类型','电影评分','评价人数','电影简介','电影链接'])
  8. # print(pd)
  9. pd.to_excel(r'C:\Users\86178\Desktop\豆瓣电影Top250.xlsx')

最后得到了豆瓣电影Top250excel表,如下图:

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

附:当你用同一个IP 访问次数过多时,网站可能会将你的IP封了,类似于:

HTTPSConnectionPool(host='movie.douban.com', port=443): Max retries exceeded with url: /subject/1292052/ (Caused by NewConnectionError('<urllib3.connection.HTTPSConnection object at 0x000002B3FBAB05C0>: Failed to establish a new connection: [Errno 11001] getaddrinfo failed'))

解决办法:

1. 换一个WiFi,就能够解决,因为不同的WiFi会有不同的外部IP,所以当我们的IP被封了,换一个WiFi或者热点就好了。

2. 代建代理IP池。代理IP池原理就是找到一些可用的IP加入在requests中,也就是指定一个IP去访问网站

IP格式为 :   'http':'http://IP:端口'  , 如:  'http':'http://119.14.253.128:8088'

response = requests.get(url=url,headers=headers,proxies=ip,timeout=3)      # 在0.1秒之内请求百度的服务器

 获取IP有很多种途径

  1. 免费代理IP http://ip.yqie.com/ipproxy.htm
  2. 66免费代理网 http://www.66ip.cn/
  3. 89免费代理 http://www.89ip.cn/
  4. 无忧代理 http://www.data5u.com/
  5. 云代理 http://www.ip3366.net/
  6. 快代理 https://www.kuaidaili.com/free/
  7. 极速专享代理 http://www.superfastip.com/
  8. HTTP代理IP https://www.xicidaili.com/wt/
  9. 小舒代理 http://www.xsdaili.com
  10. 西拉免费代理IP http://www.xiladaili.com/
  11. 小幻HTTP代理 https://ip.ihuan.me/
  12. 全网代理IP http://www.goubanjia.com/
  13. 飞龙代理IP http://www.feilongip.com/

搭建代理IP池就是爬取这些网站上面的IP和端口,然后将爬取得到的内容做成标准格式。后续我会出一搭建代理IP池的博客。

二、  数据分析

        有句话说得好,数据就是金钱,我们得到了数据,还需要进一步的分析,才能发挥更大的作用。读取excel和写入的方法一样,得到的结果就是dataframe。

  1. def excel_to_dataframe(excel_path):
  2. df = pd.read_excel(excel_path,keep_default_na=False) # keep_default_na=False 得到的结果是'',而不是nan
  3. return df
  4. excel_path = r'C:\Users\86178\Desktop\豆瓣电影Top250.xlsx'
  5. data_mv = excel_to_dataframe(excel_path)

        下面就对爬取的内容进行处理,如上映时间,电影类型,主演或者导演。

       1.  对上映时间分析 

绘制直方图

        watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

 绘制饼图

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

  

 绘制折线图

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

1.  综合以上三个图得到主要上榜的电影集中在1993-2016左右。

2. 可以得出在1994、2004、2010这三年上映的电影上榜次数达12部及以上。

3. 不能得出随时间的增长,上榜的电影就越多。

        2. 对电影类型分析

        绘制词云图           

         将所有电影类型统计记数,绘制词云图,如下图

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

         分析某种电影类型随时间变化的折线图

                对“剧情”分析

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

                 对”科幻“分析

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

 综合以上得出结论:

1.  电影类型为”剧情“一直都是人们所爱好的,特别是在1994年的电影达到了巅峰12部,结合上一步对时间的分析可以得出1994上映的全部电影都是”剧情“类型的,并且直到现在为止,仍然堪称经典。

2.  ”科幻”类型的电影,在早期科技不发达时,拍摄不到那么好的效果。但是随时间的发展,科技的进步,“科技”类型的电影得到了发展。

        3.  分析演员或者导演

         判断演员或者导演的排名主要是根据电影评分为依据,因为在Top250榜上,都是人们所认可的,所以我们粗略的根据总的评分高低判断演员排名。

         1. 排名前十的演员

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

         2. 对某个演员出演的电影得分分析

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1BhbmRhNHU=,size_16,color_FFFFFF,t_70

 综合以上的结果可以得出结论:

        1. 前十的演员为:张国荣,梁朝伟........

        2. 分析某个演员出演的电影得分

 三、完整代码

        1. 爬取代码

  1. import requests
  2. from bs4 import BeautifulSoup
  3. from pandas import DataFrame
  4. '''
  5. 最后成功提取了
  6. '电影排名','电影名','上映时间','导演','主演','电影类型','电影评分','评价人数','电影链接'
  7. 最后将结果输出到了 豆瓣电影Top250.xlsx
  8. 但是还存在问题:就是提取语言和制片国家/地区时,出现没有selector的情况。
  9. 要解决该问题可能需要xpath
  10. '''
  11. headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.107 Safari/537.36 Edg/92.0.902.55'}
  12. start_num = [i for i in range(0,226,25)]
  13. list_url_mv = [] # 所有电影的URL
  14. for start in start_num:
  15. url = 'https://movie.douban.com/top250?start={}&filter='.format(start)
  16. print('正在处理url:',url)
  17. response = requests.get(url=url, headers=headers)
  18. soup = BeautifulSoup(response.text, 'html.parser')
  19. url_mv_list = soup.select('#content > div > div.article > ol > li > div > div.info > div.hd > a')
  20. # print(url_mv_list)
  21. for index_url in range(len(url_mv_list)):
  22. url_mv = url_mv_list[index_url]['href']
  23. list_url_mv.append(url_mv)
  24. # print(url_mv)
  25. # 对每部电影进行处理
  26. def loading_mv(url,number):
  27. list_mv = []
  28. print('-----正在处理第{}部电影-----'.format(number+1))
  29. list_mv.append(number+1) # 排名
  30. # 解析网页
  31. response_mv = requests.get(url=url,headers=headers)
  32. soup_mv = BeautifulSoup(response_mv.text,'html.parser')
  33. # 爬取电影名
  34. mv_name = soup_mv.find_all('span',attrs={'property':'v:itemreviewed'}) # 电影名
  35. mv_name = mv_name[0].get_text()
  36. list_mv.append(mv_name)
  37. # print(mv_name)
  38. # 爬取电影的上映时间
  39. mv_year = soup_mv.select('span.year') # 电影上映时间
  40. mv_year = mv_year[0].get_text()[1:5]
  41. list_mv.append(mv_year)
  42. # print(mv_year)
  43. # 爬取导演信息
  44. list_mv_director = [] # 导演
  45. mv_director = soup_mv.find_all('a',attrs={'rel':"v:directedBy"})
  46. for director in mv_director:
  47. list_mv_director.append(director.get_text())
  48. string_director = '/'.join(list_mv_director) # 重新定义格式
  49. list_mv.append(string_director)
  50. # print(list_mv_director)
  51. # 爬取主演信息
  52. list_mv_star = [] # 主演
  53. mv_star = soup_mv.find_all('span',attrs={'class':'actor'})
  54. if mv_star == []: # 在第210部时没有主演
  55. list_mv.append(None)
  56. else :
  57. mv_star = mv_star[0].get_text().strip().split('/')
  58. mv_first_star = mv_star[0].split(':')
  59. list_mv_star.append(mv_first_star[-1].strip())
  60. del mv_star[0] # 去除'主演'字段
  61. for star in mv_star:
  62. list_mv_star.append(star.strip())
  63. string = '/'.join(list_mv_star) # 重新定义格式
  64. list_mv.append(string)
  65. # 爬取电影类型
  66. list_mv_type = [] # 电影类型
  67. mv_type = soup_mv.find_all('span',attrs={'property':'v:genre'})
  68. for type in mv_type:
  69. list_mv_type.append(type.get_text())
  70. string_type = '/'.join(list_mv_type)
  71. list_mv.append(string_type)
  72. # print(list_mv_type)
  73. # 爬取电影评分
  74. mv_score = soup_mv.select('strong.ll.rating_num') # 评分
  75. mv_score = mv_score[0].get_text()
  76. list_mv.append(mv_score)
  77. # 爬取评价人数
  78. mv_evaluation_num = soup_mv.select('a.rating_people') # 评价人数
  79. mv_evaluation_num = mv_evaluation_num[0].get_text().strip()
  80. list_mv.append(mv_evaluation_num)
  81. # 爬取剧情简介
  82. mv_plot = soup_mv.find_all('span',attrs={"class":"all hidden"}) # 剧情简介
  83. if mv_plot == []:
  84. list_mv.append(None)
  85. else:
  86. string_plot = mv_plot[0].get_text().strip().split()
  87. new_string_plot = ' '.join(string_plot)
  88. list_mv.append(new_string_plot)
  89. # 加入电影网址
  90. list_mv.append(url)
  91. return list_mv
  92. # url1 = 'https://movie.douban.com/subject/1292052/'
  93. # url2 = 'https://movie.douban.com/subject/26430107/' # 210
  94. # a = loading_mv(url1,1)
  95. # # b = loading_mv(url2,210)
  96. # # list_all_mv.append(a)
  97. # # list_all_mv.append(b)
  98. list_all_mv = []
  99. dict_mv_info = {}
  100. for number in range(len(list_url_mv)):
  101. mv_info = loading_mv(list_url_mv[number],number)
  102. list_all_mv.append(mv_info)
  103. print('-----运行结束-----')
  104. pd = DataFrame(list_all_mv,columns=['电影排名','电影名','上映时间','导演','主演','电影类型','电影评分','评价人数','电影简介','电影链接'])
  105. # print(pd)
  106. pd.to_excel(r'C:\Users\86178\Desktop\豆瓣电影Top250.xlsx')

         2.  数据分析代码

  1. '''
  2. 对爬取得到的豆瓣电影Top250进行数据分析
  3. 分析内容:
  4. 1. 对时间:对时间分析
  5. 绘制直方图
  6. 饼图
  7. 折线图——电影
  8. 2.对类型: 电影类型随时间变化
  9. 绘制电影类型随时间变化
  10. 电影类型词云图
  11. 3.对主演或导演: 以电影评分分析演员或者导演
  12. 前十名主演
  13. 查询演员/导演出演信息
  14. 所有演员导演出演信息
  15. '''
  16. import pandas as pd
  17. import matplotlib.pyplot as plt
  18. import matplotlib as mpl
  19. import wordcloud
  20. import imageio
  21. # csv_path = '豆瓣电影Top250.csv' # 不能用csv进行处理,可能会出现错误
  22. # 读取excel转换成dataframe,方便读取
  23. def excel_to_dataframe(excel_path):
  24. df = pd.read_excel(excel_path,keep_default_na=False) # keep_default_na=False 得到的结果是'',而不是nan
  25. return df
  26. excel_path = r'C:\Users\86178\Desktop\豆瓣电影Top250.xlsx'
  27. data_mv = excel_to_dataframe(excel_path)
  28. dict_time = {}
  29. for time in data_mv['上映时间']:
  30. dict_time[time] = dict_time.get(time,0)+1
  31. list_time = list(dict_time.items())
  32. list_time.sort(key=lambda x:x[1],reverse=True)
  33. list_year = [] # 年份
  34. list_times = [] # 出现次数
  35. for t in list_time:
  36. list_year.append(t[0])
  37. list_times.append(t[1])
  38. # 绘制直方图
  39. def make_Histogram(list_x,list_y,color):
  40. # 解决中文显示问题
  41. plt.rcParams['font.sans-serif'] = ['SimHei']
  42. plt.rcParams['axes.unicode_minus'] = False
  43. plt.bar(list_x,list_y,width=1,color=color)
  44. plt.title('电影上映时间与所产电影部数直方图')
  45. plt.xlabel('电影上映时间')
  46. plt.ylabel('年产电影部数')
  47. plt.show()
  48. # make_Histogram(list_year,list_times,color=['g','y','m']) # 绘制电影年份出现次数直方图
  49. # 绘制饼图
  50. def make_Pie(list_times,list_year):
  51. mpl.rcParams['font.sans-serif'] = ['KaiTi', 'SimHei', 'FangSong'] # 汉字字体,优先使用楷体,如果找不到楷体,则使用黑体
  52. mpl.rcParams['font.size'] = 12 # 字体大小
  53. mpl.rcParams['axes.unicode_minus'] = False # 正常显示负号
  54. plt.figure(figsize=(10,10),dpi=100) # 视图的大小
  55. plt.pie(list_times, # 指定绘图数据
  56. labels=list_year, # 添加饼图圈外的标签
  57. autopct='%1.2f%%', # 设置百分比格式
  58. textprops={'fontsize':10}, # 设置饼图中的属性字体大小、颜色
  59. labeldistance=1.05) # 设置各扇形标签(图例)与圆心的距离
  60. # plt.legend(fontsize=7) # 设置饼图指示
  61. plt.title('年产电影部数占比')
  62. plt.show()
  63. pie_other = len([i for i in list_time if i[1]==1]) # 将年份电影为1的归为其它类
  64. list_pie_year = []
  65. list_pie_times = []
  66. for i in list_time:
  67. if i[1] == 1:
  68. break
  69. else :
  70. list_pie_year.append(i[0])
  71. list_pie_times.append(i[1])
  72. list_pie_year.append('其它电影为1的年份')
  73. list_pie_times.append(pie_other)
  74. #
  75. # make_Pie(list_pie_times,list_pie_year)
  76. # make_Pie(list_times,list_year)
  77. # 绘制折现图
  78. def make_Plot(list_year,list_times):
  79. # 解决中文显示问题
  80. plt.rcParams['font.sans-serif'] = ['SimHei']
  81. plt.rcParams['axes.unicode_minus'] = False
  82. plt.title('年产电影个数折现图')
  83. plt.xlabel('电影上映时间')
  84. plt.ylabel('年产电影部数')
  85. plt.plot(list_year, list_times)
  86. plt.show()
  87. list_plot_year = []
  88. list_plot_times = []
  89. list_time.sort(key=lambda x:int(x[0]))
  90. for t in list_time:
  91. list_plot_year.append(t[0])
  92. list_plot_times.append(t[1])
  93. # make_Plot(list_plot_year,list_plot_times)
  94. mv_type = data_mv['电影类型']
  95. dict_type = {}
  96. for type in mv_type:
  97. line = type.split('/')
  98. for t in line:
  99. dict_type[t] = dict_type.get(t,0) + 1
  100. list_type = list(dict_type.items())
  101. list_type.sort(key=lambda x:x[1],reverse=True)
  102. # 绘制词云图
  103. def c_wordcloud(ls):
  104. # string1 = ' '.join(ls)
  105. gpc=[]
  106. for i in ls:
  107. gpc.append(i[0])
  108. string1=" ".join('%s' % i for i in gpc)
  109. color_mask=imageio.imread(r"logo.jpg")
  110. wc = wordcloud.WordCloud(random_state=30,
  111. width=600,
  112. height=600,
  113. max_words=30,
  114. background_color='white',
  115. font_path=r'msyh.ttc',
  116. mask=color_mask
  117. )
  118. wc.generate(string1)
  119. plt.imshow(wc)
  120. plt.show()
  121. # wc.to_file(path)
  122. # c_wordcloud(list_type)
  123. # [年份,电影类型]
  124. list_time_type = []
  125. for i in range(250):
  126. line = data_mv['电影类型'][i].split('/')
  127. for j in line:
  128. time_type = []
  129. time_type.append(data_mv['上映时间'][i])
  130. time_type.append(j)
  131. list_time_type.append(time_type)
  132. dict_time_type = {}
  133. for i in list_time_type:
  134. dict_time_type[tuple(i)] = dict_time_type.get(tuple(i),0) + 1
  135. list_num_time_type = list(dict_time_type.items())
  136. list_num_time_type.sort(key=lambda x:x[1],reverse=True)
  137. # 制作一种电影类型的发展史(以电影类型为单位)
  138. def mv_time_type(type_name):
  139. list_mv_type = []
  140. for num in list_num_time_type:
  141. if num[0][1] == type_name:
  142. list_mv_type.append(num)
  143. list_mv_type.sort(key=lambda x:x[0][0],reverse=False)
  144. list_year = []
  145. list_times = []
  146. for t in list_mv_type:
  147. list_year.append(t[0][0])
  148. list_times.append(t[1])
  149. # 解决中文显示问题
  150. plt.rcParams['font.sans-serif'] = ['SimHei']
  151. plt.rcParams['axes.unicode_minus'] = False
  152. plt.title('电影类型"{}"的发展史'.format(type_name))
  153. plt.xlabel('年份')
  154. plt.ylabel('每年出现的次数')
  155. plt.plot(list_year,list_times)
  156. plt.show()
  157. # mv_time_type('剧情')
  158. # mv_time_type('科幻') # 主要集中在2000以后
  159. # 计算导演和主演的每部作品的得分和总得分
  160. def people_score(peo_dir_star):
  161. list = []
  162. for num in range(250):
  163. if data_mv[peo_dir_star][num] == '':
  164. continue
  165. else:
  166. peoples = data_mv[peo_dir_star][num].split('/')
  167. for people in peoples:
  168. list_p_s = []
  169. list_p_s.append(people)
  170. list_p_s.append(data_mv['电影评分'][num])
  171. list_p_s.append(data_mv['电影排名'][num])
  172. list_p_s.append(data_mv['电影名'][num])
  173. list.append(list_p_s)
  174. return list
  175. list_director = people_score('导演')
  176. list_star = people_score('主演')
  177. # 最佳导演或者演员----根据总分求得
  178. def best_people(list_people):
  179. dict_people = {}
  180. for i in list_people:
  181. dict_people[i[0]] = dict_people.get(i[0],[]) + [(i[1],i[2],i[3])]
  182. for i in dict_people.items():
  183. i[1].append(float('{:.2f}'.format(sum([j[0] for j in i[1]]))))
  184. # ('巩俐', [(9.6, 2, '霸王别姬'), (9.3, 30, '活着'), (8.7, 109, '唐伯虎点秋香 唐伯虎點秋香'), '27.60'])
  185. list_new_people = list(dict_people.items())
  186. list_new_people.sort(key=lambda x:x[1][-1],reverse=True)
  187. print('搜索结束,请开始您的操作(输入数字)!\n---输入1排名前十的主演---\n---输入2搜索演员的出演情况---\n---输入3输出所有演员---')
  188. print('-----输入enter退出-----')
  189. select_number = input('开始输入操作:')
  190. while select_number != '':
  191. if select_number == '1':
  192. print('前十演员出演信息:')
  193. list_all_score = [] # 总分
  194. list_prople_name = []
  195. for i in list_new_people[0:10]:
  196. print(i)
  197. list_prople_name.append(i[0])
  198. list_all_score.append(i[1][-1])
  199. # 解决中文显示问题
  200. plt.rcParams['font.sans-serif'] = ['SimHei']
  201. plt.rcParams['axes.unicode_minus'] = False
  202. # plt.figure(figsize=(10, 10), dpi=100) # 视图的大小
  203. plt.title('前十演员总评分')
  204. plt.xlabel('演员')
  205. plt.ylabel('总评分')
  206. plt.bar(list_prople_name,list_all_score,width=0.5)
  207. plt.show()
  208. elif select_number == '2':
  209. # star_name = input('输入您想要知道的演员名:')
  210. star_name = ' '
  211. while star_name != '':
  212. star_name = input('输入您想要知道的演员名:')
  213. list_mv_name = [] # 电影名
  214. list_mv_score = [] # 电影评分
  215. for number,i in enumerate(list_new_people):
  216. if star_name == i[0]:
  217. all_score = i[1][-1] # 总分
  218. del i[1][-1]
  219. for j in i[1]:
  220. list_mv_name.append(j[2])
  221. list_mv_score.append(j[0])
  222. print('{} 主演豆瓣电影Top250中排名{}的《{}》评分为 {}'.format(star_name,j[1],j[2],j[0]))
  223. print("{}共主演了{}部电影,所有总分为{},在所有演员中排名第{}".format(star_name,len(i[1]),all_score,number+1))
  224. print('查询结束!')
  225. # 计算饼图
  226. def pie_mv_score():
  227. mpl.rcParams['font.sans-serif'] = ['KaiTi', 'SimHei','FangSong'] # 汉字字体,优先使用楷体,如果找不到楷体,则使用黑体
  228. mpl.rcParams['font.size'] = 12 # 字体大小
  229. mpl.rcParams['axes.unicode_minus'] = False # 正常显示负号
  230. plt.figure(figsize=(10,10))
  231. plt.pie(list_mv_score,
  232. labels=list_mv_name,
  233. autopct='%1.2f%%', # 计算百分比,设置及格式
  234. textprops={'fontsize': 10})
  235. plt.title('{}的主演电影总分比---总排名为{}'.format(star_name,number+1))
  236. plt.show()
  237. pie_mv_score()
  238. break
  239. else:
  240. print('查无此人!')
  241. break
  242. elif select_number == '3':
  243. for i in list_new_people:
  244. print(i)
  245. else :
  246. print('无此项操作!')
  247. select_number = input('查询结束,您还可以继续输入查询序号:')
  248. print('-----查询结束-----')
  249. best_people(list_star)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/191226
推荐阅读
相关标签
  

闽ICP备14008679号