当前位置:   article > 正文

【python爬虫-爬微博】爬取王思聪所有微博数据_爬取任意10位名人的微博个人信息和所有博文内容和互动情况

爬取任意10位名人的微博个人信息和所有博文内容和互动情况

1. 准备:

  • 代理IP 。网上有很多免费代理ip,如西刺免费代理IP http://www.xicidaili.com/,自己可找一个可以使用的进行测试; 
  • 抓包分析 。通过抓包获取微博内容地址。当然web下的api地址可以通过浏览器获得。

以下是通过浏览器调试获得的接口:

个人信息接口:

微博列表接口:

2. 完整代码:

  1. import urllib.request
  2. import json
  3. import time
  4. id = '1826792401' # 定义要爬取的微博id。王思聪微博https://m.weibo.cn/u/1826792401
  5. proxy_addr = "122.241.72.191:808" # 设置代理IP
  6. # 定义页面打开函数
  7. def use_proxy(url,proxy_addr):
  8. req = urllib.request.Request(url)
  9. req.add_header("User-Agent", "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0")
  10. proxy = urllib.request.ProxyHandler({'http': proxy_addr})
  11. opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)
  12. urllib.request.install_opener(opener)
  13. data = urllib.request.urlopen(req).read().decode('utf-8', 'ignore')
  14. return data
  15. # 获取微博主页的containerid,爬取微博内容时需要此id
  16. def get_containerid(url):
  17. data = use_proxy(url, proxy_addr)
  18. content = json.loads(data).get('data')
  19. for data in content.get('tabsInfo').get('tabs'):
  20. if(data.get('tab_type') == 'weibo'):
  21. containerid = data.get('containerid')
  22. return containerid
  23. # 获取微博用户的基本信息,如:微博昵称、微博地址、微博头像、关注人数、粉丝数、性别、等级等
  24. def get_userInfo(id):
  25. url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value='+id # 个人信息接口
  26. data = use_proxy(url, proxy_addr)
  27. content = json.loads(data).get('data')
  28. profile_image_url = content.get('userInfo').get('profile_image_url')
  29. description = content.get('userInfo').get('description')
  30. profile_url = content.get('userInfo').get('profile_url')
  31. verified = content.get('userInfo').get('verified')
  32. guanzhu = content.get('userInfo').get('follow_count')
  33. name = content.get('userInfo').get('screen_name')
  34. fensi = content.get('userInfo').get('followers_count')
  35. gender = content.get('userInfo').get('gender')
  36. urank = content.get('userInfo').get('urank')
  37. print("微博昵称:"+name+"\n"+"微博主页地址:"+profile_url+"\n"+"微博头像地址:"+profile_image_url+"\n"+"是否认证:"+str(verified)+"\n"+"微博说明:"+description+"\n"+"关注人数:"+str(guanzhu)+"\n"+"粉丝数:"+str(fensi)+"\n"+"性别:"+gender+"\n"+"微博等级:"+str(urank)+"\n")
  38. pass
  39. # 获取微博内容信息,并保存到文本中,内容包括:每条微博的内容、微博详情页面地址、点赞数、评论数、转发数等
  40. def get_weibo(id, file):
  41. i = 1
  42. while True:
  43. url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value='+id
  44. weibo_url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value='+id+'&containerid='+get_containerid(url)+'&page='+str(i)
  45. print(url)
  46. print(weibo_url)
  47. try:
  48. data = use_proxy(weibo_url, proxy_addr)
  49. content = json.loads(data).get('data')
  50. cards = content.get('cards')
  51. if(len(cards)>0):
  52. for j in range(len(cards)):
  53. print("第"+str(i)+"页,第"+str(j)+"条微博")
  54. card_type = cards[j].get('card_type')
  55. if(card_type == 9):
  56. mblog = cards[j].get('mblog')
  57. attitudes_count = mblog.get('attitudes_count')
  58. comments_count = mblog.get('comments_count')
  59. created_at = mblog.get('created_at')
  60. reposts_count = mblog.get('reposts_count')
  61. scheme = cards[j].get('scheme')
  62. text = mblog.get('text')
  63. with open(file, 'a', encoding='utf-8') as fh:
  64. fh.write("第"+str(i)+"页,第"+str(j)+"条微博"+"\n")
  65. fh.write("微博地址:"+str(scheme)+"\n"+"发布时间:"+str(created_at)+"\n"+"微博内容:"+text+"\n"+"点赞数:"+str(attitudes_count)+"\n"+"评论数:"+str(comments_count)+"\n"+"转发数:"+str(reposts_count)+"\n")
  66. pass
  67. pass
  68. pass
  69. i += 1
  70. time.sleep(0.05)
  71. pass
  72. else:
  73. break
  74. except Exception as e:
  75. print(e)
  76. pass
  77. pass
  78. pass
  79. if __name__ == "__main__":
  80. print('开始---')
  81. file = id+".txt"
  82. get_userInfo(id)
  83. get_weibo(id, file)
  84. print('完成---')
  85. pass

3. 原博主认为:

一般做爬虫爬取网站,首选的都是m站,其次是wap站,最后考虑PC站。当然,这不是绝对的,有的时候PC站的信息最全,而你又恰好需要全部的信息,那么PC站是你的首选。一般m站都以m开头后接域名, 所以本文开搞的网址就是 m.weibo.cn。

感谢原博主的伟大贡献,真实还原了微博api的思路和接口。

-

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/blog/article/detail/56914
推荐阅读
相关标签
  

闽ICP备14008679号