当前位置:   article > 正文

【python】爬取知乎热榜Top50保存到Excel文件中【附源码】

【python】爬取知乎热榜Top50保存到Excel文件中【附源码】

欢迎来到英杰社区icon-default.png?t=N7T8https://bbs.csdn.net/topics/617804998

   一、导入必要的模块:

    这篇博客将介绍如何使用Python编写一个爬虫程序,从斗鱼直播网站上获取图片信息并保存到本地。我们将使用requests模块发送HTTP请求和接收响应,以及os模块处理文件和目录操作。

        如果出现模块报错

        进入控制台输入:建议使用国内镜像源

pip install requests -i https://mirrors.aliyun.com/pypi/simple

         我大致罗列了以下几种国内镜像源:

        

  1. 清华大学
  2. https://pypi.tuna.tsinghua.edu.cn/simple
  3. 阿里云
  4. https://mirrors.aliyun.com/pypi/simple/
  5. 豆瓣
  6. https://pypi.douban.com/simple/
  7. 百度云
  8. https://mirror.baidu.com/pypi/simple/
  9. 中科大
  10. https://pypi.mirrors.ustc.edu.cn/simple/
  11. 华为云
  12. https://mirrors.huaweicloud.com/repository/pypi/simple/
  13. 腾讯云
  14. https://mirrors.cloud.tencent.com/pypi/simple/

    

二、发送GET请求获取响应数据:

        设置了请求头部信息,以模拟浏览器的请求,函数返回响应数据的JSON格式内容。

  1. def get_html(url):
  2. header = {
  3. 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'
  4. }
  5. response = requests.get(url=url, headers=header)
  6. # print(response.json())
  7. html = response.json()
  8. return html

        如何获取请求头:

        火狐浏览器:

  1. 打开目标网页并右键点击页面空白处。
  2. 选择“检查元素”选项,或按下快捷键Ctrl + Shift + C(Windows)
  3. 在开发者工具窗口中,切换到“网络”选项卡。
  4. 刷新页面以捕获所有的网络请求。
  5. 在请求列表中选择您感兴趣的请求。
  6. 在右侧的“请求标头”或“Request Headers”部分,即可找到请求头信息。

     将以下请求头信息复制出来即可

三、代码实现

这段代码是用来爬取知乎热榜数据并保存到 Excel 文件中的。具体实现方法如下:

  1. 定义了一个函数 get_time,用于获取当前时间,并可以按照指定的格式进行输出。

  1. def get_time(fmt:str='%Y-%m-%d %H-%M-%S') -> str:
  2. '''
  3. 获取当前时间
  4. '''
  5. ts = time.time()
  6. ta = time.localtime(ts)
  7. t = time.strftime(fmt, ta)
  8. return t
  1. 定义了一个函数 save_hot_list,用于保存热榜数据到 Excel 文件中。

  1. def save_hot_list() -> None:
  2. # 请求头
  3. headers = {
  4. 'User-Agent': 'osee2unifiedRelease/4318 osee2unifiedReleaseVersion/7.7.0 Mozilla/5.0 (iPhone; CPU iPhone OS 14_4_2 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Mobile/15E148',
  5. 'Host': 'api.zhihu.com',
  6. }
  7. # 请求参数
  8. params = (
  9. ('limit', '50'),
  10. ('reverse_order', '0'),
  11. )
  12. # 发送请求
  13. response = requests.get(
  14. 'https://zhihu.com/topstory/hot-list', headers=headers, params=params)
  15. items = response.json()['data']

首先定义请求头和请求参数,然后发送 GET 请求获取知乎热榜数据。其中 response.json()['data'] 取出了返回结果中的 data 字段,即热榜列表数据。

  1. rows = []
  2. now = get_time()
  3. # 取日期为文件夹名称
  4. dir_path = now.split(' ')[0]
  5. # 文件夹不存在则创建
  6. if not os.path.exists(dir_path):
  7. os.makedirs(dir_path)

定义一个空列表 rows 来存储热榜数据,然后获取当前时间并将其拆分为日期和时间两个部分。这里我们只需要日期部分作为保存数据的文件夹名称,如果这个文件夹不存在,则创建它。

  
  1. for rank, item in enumerate(items, start=1):
  2. target = item.get('target')
  3. title = target.get('title')
  4. answer_count = target.get('answer_count')
  5. hot = int(item.get('detail_text').split(' ')[0])
  6. follower_count = target.get('follower_count')
  7. question_url = target.get('url').replace(
  8. 'api', 'www').replace('questions', 'question')
  9. rows.append({
  10. '排名': rank,
  11. '标题': title,
  12. '回答数': answer_count,
  13. '关注数': follower_count,
  14. '热度(万)': hot,
  15. '问题链接': question_url
  16. })

遍历全部热榜数据,并从中取出我们需要的属性,包括:标题、回答数、关注数、热度和问题链接。将这些属性添加到 rows 列表中。

  1. df = pd.DataFrame(rows)
  2. now = get_time()
  3. excel_path = dir_path+'/Yan-英杰.xlsx'
  4. df.to_excel(excel_path, index=None)
  5. print(now, '的热榜数据数据已保存到文件', excel_path)

rows 列表转化为 Pandas 的 DataFrame,并将其保存到 Excel 文件中。Excel 文件的名称以当前日期作为文件夹名称,以 "Yan-英杰.xlsx" 作为文件名。最后输出保存完成的信息。

  1. # 保存热榜数据
  2. save_hot_list()

调用 save_hot_list 函数来执行保存操作。

四、效果图:

五、完整代码

  1. import requests
  2. import pandas as pd
  3. import time
  4. import os
  5. def get_time(fmt:str='%Y-%m-%d %H-%M-%S') -> str:
  6. '''
  7. 获取当前时间
  8. '''
  9. ts = time.time()
  10. ta = time.localtime(ts)
  11. t = time.strftime(fmt, ta)
  12. return t
  13. def save_hot_list() -> None:
  14. # 请求头
  15. headers = {
  16. 'User-Agent': 'osee2unifiedRelease/4318 osee2unifiedReleaseVersion/7.7.0 Mozilla/5.0 (iPhone; CPU iPhone OS 14_4_2 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Mobile/15E148',
  17. 'Host': 'api.zhihu.com',
  18. }
  19. # 请求参数
  20. params = (
  21. ('limit', '50'),
  22. ('reverse_order', '0'),
  23. )
  24. # 发送请求
  25. response = requests.get(
  26. 'https://zhihu.com/topstory/hot-list', headers=headers, params=params)
  27. items = response.json()['data']
  28. rows = []
  29. now = get_time()
  30. # 取日期为文件夹名称
  31. dir_path = now.split(' ')[0]
  32. # 文件夹不存在则创建
  33. if not os.path.exists(dir_path):
  34. os.makedirs(dir_path)
  35. # 遍历全部热榜,取出几个属性
  36. for rank, item in enumerate(items, start=1):
  37. target = item.get('target')
  38. title = target.get('title')
  39. answer_count = target.get('answer_count')
  40. hot = int(item.get('detail_text').split(' ')[0])
  41. follower_count = target.get('follower_count')
  42. question_url = target.get('url').replace(
  43. 'api', 'www').replace('questions', 'question')
  44. rows.append({
  45. '排名': rank,
  46. '标题': title,
  47. '回答数': answer_count,
  48. '关注数': follower_count,
  49. '热度(万)': hot,
  50. '问题链接': question_url
  51. })
  52. df = pd.DataFrame(rows)
  53. now = get_time()
  54. excel_path = dir_path+'/Yan-英杰.xlsx'
  55. df.to_excel(excel_path, index=None)
  56. print(now, '的热榜数据数据已保存到文件', excel_path)
  57. # 保存热榜数据
  58. save_hot_list()

   给大家推荐一个网站

    IT今日热榜 一站式资讯平台


        里面包含了上百个IT网站,欢迎大家访问:IT今日热榜 一站式资讯平台

   iToday,打开信息的新时代。作为一家创新的IT数字媒体平台,iToday致力于为用户提供最新、最全面的IT资讯和内容。里面包含了技术资讯、IT社区、面试求职、前沿科技等诸多内容。我们的团队由一群热爱创作的开发者和分享的专业编程知识爱好者组成,他们精选并整理出真实可信的信息,确保您获得独特、有价值的阅读体验。随时随地,尽在iToday,与世界保持连接,开启您的信息新旅程!

IT今日热榜 一站式资讯平台IT今日热榜汇聚各类IT热榜:虎嗅、知乎、36氪、京东图书销售、晚点、全天候科技、极客公园、GitHub、掘金、CSDN、哔哩哔哩、51CTO、博客园、GitChat、开发者头条、思否、LeetCode、人人都是产品经理、牛客网、看准、拉勾、Boss直聘http://itoday.top/#/

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/101604?site
推荐阅读
相关标签
  

闽ICP备14008679号