当前位置:   article > 正文

如何用python爬取天气预报,python爬虫爬取天气预报_爬取天气中的降雨量

爬取天气中的降雨量

这篇文章主要介绍了python爬虫爬取天气数据讲解,具有一定借鉴价值,需要的朋友可以参考下。希望大家阅读完这篇文章后大有收获,下面让小编带着大家一起了解一下。

前言

今天我们分享一个小案例,获取天气数据,进行可视化分析,带你直观了解天气情况!

一、核心功能设计

总体来说,我们需要先对中国天气网中的天气数据进行爬取,保存为csv文件,并将这些数据进行可视化分析展示。

拆解需求,大致可以整理出我们需要分为以下几步完成:

  1. 通过爬虫获取中国天气网7.20-7.21的降雨数据,包括城市,风力方向,风级,降水量,相对湿度,空气质量学python什么书比较好
  2. 对获取的天气数据进行预处理,分析河南的风力等级和风向,绘制风向风级雷达图
  3. 根据获取的温度和湿度绘制温湿度相关性分析图,进行温度、湿度对比分析。
  4. 根据获取的各城市的降雨量,可视化近24小时的每小时时段降水情况
  5. 绘制各城市24小时的累计降雨量
二、实现步骤
1. 爬取数据

首先我们需要获取各个城市的降雨数据,通过对中国天气网网址分析发现,城市的天气网址为:http://www.weather.com.cn/weather/101180101.shtml。

在这里插入图片描述

根据对数据分析,返回的json格式数据,不难发现:

  • 101180101就是代表城市编号
  • 7天的天气预报数据信息在div标签中并且id=“7d”
  • 日期、天气、温度、风级等信息都在ul和li标签

网页结构我们上面已经分析好了,那么我们就可以来动手爬取所需要的数据了。获取到所有的数据资源之后,可以把这些数据保存下来。

请求网站:

天气网的网址:http://www.weather.com.cn/weather/101180101.shtml。如果想爬取不同的地区只需修改最后的101180101地区编号,前面的weather代表是7天的网页。

  1. def getHTMLtext(url):
  2. """请求获得网页内容"""
  3. try:
  4. r = requests.get(url, timeout = 30)
  5. r.raise_for_status()
  6. r.encoding = r.apparent_encoding
  7. print("Success")
  8. return r.text
  9. except:
  10. print("Fail")
  11. return" "

在这里插入图片描述

处理数据:

采用BeautifulSoup库对刚刚获取的字符串进行数据提取。获取我们需要的风力方向,风级,降水量,相对湿度,空气质量等。

  1. def get_content(html,cityname):
  2. """处理得到有用信息保存数据文件"""
  3. final = [] # 初始化一个列表保存数据
  4. bs = BeautifulSoup(html, "html.parser") # 创建BeautifulSoup对象
  5. body = bs.body
  6. data = body.find('div', {'id': '7d'}) # 找到div标签且id = 7d
  7. # 下面爬取当天的数据
  8. data2 = body.find_all('div',{'class':'left-div'})
  9. text = data2[2].find('').string
  10. text = text[text.index('=')+1 :-2] # 移除改var data=将其变为json数据
  11. jd = json.loads(text)
  12. dayone = jd['od']['od2'] # 找到当天的数据
  13. final_day = [] # 存放当天的数据
  14. count = 0
  15. for i in dayone:
  16. temp = []
  17. if count <=23:
  18. temp.append(i['od21']) # 添加时间
  19. temp.append(cityname+'市') # 添加城市
  20. temp.append(i['od22']) # 添加当前时刻温度
  21. temp.append(i['od24']) # 添加当前时刻风力方向
  22. temp.append(i['od25']) # 添加当前时刻风级
  23. temp.append(i['od26']) # 添加当前时刻降水量
  24. temp.append(i['od27']) # 添加当前时刻相对湿度
  25. temp.append(i['od28']) # 添加当前时刻控制质量
  26. # print(temp)
  27. final_day.append(temp)
  28. data_all.append(temp)
  29. count = count +1
  30. # 下面爬取24h的数据
  31. ul = data.find('ul') # 找到所有的ul标签
  32. li = ul.find_all('li') # 找到左右的li标签
  33. i = 0 # 控制爬取的天数
  34. for day in li: # 遍历找到的每一个li
  35. if i < 7 and i > 0:
  36. temp = [] # 临时存放每天的数据
  37. date = day.find('h1').string # 得到日期
  38. date = date[0:date.index('日')] # 取出日期号
  39. temp.append(date)
  40. inf = day.find_all('p') # 找出li下面的p标签,提取第一个p标签的值,即天气
  41. temp.append(inf[0].string)
  42. tem_low = inf[1].find('i').string # 找到最低气温
  43. if inf[1].find('span') is None: # 天气预报可能没有最高气温
  44. tem_high = None
  45. else:
  46. tem_high = inf[1].find('span').string # 找到最高气温
  47. temp.append(tem_low[:-1])
  48. if tem_high[-1] == '℃':
  49. temp.append(tem_high[:-1])
  50. else:
  51. temp.append(tem_high)
  52. wind = inf[2].find_all('span') # 找到风向
  53. for j in wind:
  54. temp.append(j['title'])
  55. wind_scale = inf[2].find('i').string # 找到风级
  56. index1 = wind_scale.index('级')
  57. temp.append(int(wind_scale[index1-1:index1]))
  58. final.append(temp)
  59. i = i + 1
  60. return final_day,final

城市的天气数据拿到了,同理我们可以根据不同的地区编号获取河南省各个地级市的天气数据。

  1. Citycode = { "郑州": "101180101",
  2. "新乡": "101180301",
  3. "许昌": "101180401",
  4. "平顶山": "101180501",
  5. "信阳": "101180601",
  6. "南阳": "101180701",
  7. "开封": "101180801",
  8. "洛阳": "101180901",
  9. "商丘": "101181001",
  10. "焦作": "101181101",
  11. "鹤壁": "101181201",
  12. "濮阳": "101181301",
  13. "周口": "101181401",
  14. "漯河": "101181501",
  15. "驻马店": "101181601",
  16. "三门峡": "101181701",
  17. "济源": "101181801",
  18. "安阳": "101180201"}
  19. citycode_lists = list(Citycode.items())
  20. for city_code in citycode_lists:
  21. city_code = list(city_code)
  22. print(city_code)
  23. citycode = city_code[1]
  24. cityname = city_code[0]
  25. url1 = 'http://www.weather.com.cn/weather/'+citycode+ '.shtml' # 24h天气中国天气网
  26. html1 = getHTMLtext(url1)
  27. data1, data1_7 = get_content(html1,cityname) # 获得1-7天和当天的数据

存储数据:

  1. def write_to_csv(file_name, data, day=14):
  2. """保存为csv文件"""
  3. with open(file_name, 'a', errors='ignore', newline='') as f:
  4. if day == 14:
  5. header = ['日期','城市','天气','最低气温','最高气温','风向1','风向2','风级']
  6. else:
  7. header = ['小时','城市','温度','风力方向','风级','降水量','相对湿度','空气质量']
  8. f_csv = csv.writer(f)
  9. f_csv.writerow(header)
  10. f_csv.writerows(data)
  11. write_to_csv('河南天气.csv',data_all,1)

这样我们就可以把全省的各个地级市天气数据保存下来了。

在这里插入图片描述

2. 风向风级雷达图

统计全省的风力和风向,因为风力风向使用极坐标的方式展现比较清晰,所以我们采用极坐标的方式展现一天的风力风向图,将圆分为8份,每一份代表一个风向,半径代表平均风力,并且随着风级增高,蓝色加深。

  1. def wind_radar(data):
  2. """风向雷达图"""
  3. wind = list(data['风力方向'])
  4. wind_speed = list(data['风级'])
  5. for i in range(0,24):
  6. if wind[i] == "北风":
  7. wind[i] = 90
  8. elif wind[i] == "南风":
  9. wind[i] = 270
  10. elif wind[i] == "西风":
  11. wind[i] = 180
  12. elif wind[i] == "东风":
  13. wind[i] = 360
  14. elif wind[i] == "东北风":
  15. wind[i] = 45
  16. elif wind[i] == "西北风":
  17. wind[i] = 135
  18. elif wind[i] == "西南风":
  19. wind[i] = 225
  20. elif wind[i] == "东南风":
  21. wind[i] = 315
  22. degs = np.arange(45,361,45)
  23. temp = []
  24. for deg in degs:
  25. speed = []
  26. # 获取 wind_deg 在指定范围的风速平均值数据
  27. for i in range(0,24):
  28. if wind[i] == deg:
  29. speed.append(wind_speed[i])
  30. if len(speed) == 0:
  31. temp.append(0)
  32. else:
  33. temp.append(sum(speed)/len(speed))
  34. print(temp)
  35. N = 8
  36. theta = np.arange(0.+np.pi/8,2*np.pi+np.pi/8,2*np.pi/8)
  37. # 数据极径
  38. radii = np.array(temp)
  39. # 绘制极区图坐标系
  40. plt.axes(polar=True)
  41. # 定义每个扇区的RGB值(R,G,B),x越大,对应的颜色越接近蓝色
  42. colors = [(1-x/max(temp), 1-x/max(temp),0.6) for x in radii]
  43. plt.bar(theta,radii,width=(2*np.pi/N),bottom=0.0,color=colors)
  44. plt.title('河南风级图--Dragon少年',x=0.2,fontsize=16)
  45. plt.show()

结果如下:
在这里插入图片描述

观察可以发现,当天的东北风最多,平均风级达到了1.75级。

3. 温湿度相关性分析

我们可以分析温度和湿度之间是否存在关系,为了更加清楚直观地验证,可以使用离散点plt.scatter()方法将温度为横坐标、湿度为纵坐标,每个时刻的点在图中点出来,并且计算相关系数。

  1. def calc_corr(a, b):
  2. """计算相关系数"""
  3. a_avg = sum(a)/len(a)
  4. b_avg = sum(b)/len(b)
  5. cov_ab = sum([(x - a_avg)*(y - b_avg) for x,y in zip(a, b)])
  6. sq = math.sqrt(sum([(x - a_avg)**2 for x in a])*sum([(x - b_avg)**2 for x in b]))
  7. corr_factor = cov_ab/sq
  8. return corr_factor
  9. def corr_tem_hum(data):
  10. """温湿度相关性分析"""
  11. tem = data['温度']
  12. hum = data['相对湿度']
  13. plt.scatter(tem,hum,color='blue')
  14. plt.title("温湿度相关性分析图--Dragon少年")
  15. plt.xlabel("温度/℃")
  16. plt.ylabel("相对湿度/%")
  17. # plt.text(20,40,"相关系数为:"+str(calc_corr(tem,hum)),fontdict={'size':'10','color':'red'})
  18. plt.show()
  19. print("相关系数为:"+str(calc_corr(tem,hum)))

结果如下:

在这里插入图片描述
观察可以发现,一天的温度和湿度具有强烈的相关性,呈负相关。当温度较低时,空气中水分含量较多,湿度自然较高,而温度较高时,水分蒸发,空气就比较干燥,湿度较低。

4. 24小时内每小时时段降水
  1. from pyecharts import options as opts
  2. from pyecharts.charts import Map,Timeline
  3. #定义一个timeline和map的组合图
  4. def timeline_map(data):
  5. tl = Timeline().add_schema(play_interval =300,height=40,is_rewind_play=False,orient = "horizontal",is_loop_play = True,is_auto_play=False)#设置播放速度、是否循环播放等参数
  6. for h in time_line_final:
  7. x =data[data["小时"]==h]['城市'].values.tolist() #选取指定城市
  8. y=data[data["小时"]==h]['降水量'].values.tolist() #选取时间的降水量
  9. map_shape = (
  10. Map()
  11. .add("{}h时降水量(mm)".format(h),[list(z) for z in zip(x, y)],"河南") #打包输入地区及对应降水量数据
  12. .set_series_opts(label_opts=opts.LabelOpts("{b}")) #配置系列参数,{b}为显示地区数据
  13. .set_global_opts(
  14. title_opts=opts.TitleOpts(title="河南省降雨分布--Dragon少年"), #全局参数中设置标题
  15. visualmap_opts=opts.VisualMapOpts(max_=300, #设置映射配置项的最大值
  16. is_piecewise=True, #设置是否为分段显示
  17. pos_top = "60%", #映射配置项距图片上部的距离
  18. pieces=[
  19. {"min": 101, "label": '>100ml', "color": "#FF0000"}, # 分段指定颜色及名称
  20. {"min": 11, "max": 50, "label": '11-50ml', "color": "#FF3333"},
  21. {"min": 6, "max": 10, "label": '6-10ml', "color": "#FF9999"},
  22. {"min": 0.1, "max": 5, "label": '0.1-5ml', "color": "#FFCCCC"}])
  23. ))
  24. tl.add(map_shape, "{}h".format(h)) #将不同日期的数据加入到timeline中
  25. return tl
  26. timeline_map(data).render("rainfall.html")

效果如下:

在这里插入图片描述

观察可以发现,7.20当天大部分地区均有雨,7月20日17时-18时一小时的降水量达到了201.9mm。

4. 24小时累计降雨量
  1. from pyecharts import options as opts
  2. from pyecharts.charts import Map,Timeline
  3. #定义一个timeline和map的组合图
  4. time_line_final = list(data1['小时'].iloc[0:24])
  5. def timeline_map(data1):
  6. tl = Timeline().add_schema(play_interval =200,height=40,is_rewind_play=False,orient = "horizontal",is_loop_play = True,is_auto_play=True)#设置播放速度、是否循环播放等参数
  7. for h in time_line_final:
  8. x =data1[data1["小时"]==h]['城市'].values.tolist() #选取指定城市
  9. y=data1[data1["小时"]==h]['降水量'].values.tolist() #选取时间的降水量
  10. map_shape1 = (
  11. Map()
  12. .add("{}h时累计降水量(mm)".format(h),[list(z) for z in zip(x, y)],"河南") #打包输入地区及对应降水量数据
  13. .set_series_opts(label_opts=opts.LabelOpts("{b}")) #配置系列参数,{b}为显示地区数据
  14. .set_global_opts(
  15. title_opts=opts.TitleOpts(title="河南省累计降雨分布--Dragon少年"), #全局参数中设置标题
  16. visualmap_opts=opts.VisualMapOpts(max_=300, #设置映射配置项的最大值
  17. is_piecewise=True, #设置是否为分段显示
  18. pos_top = "60%", #映射配置项距图片上部的距离
  19. pieces=[
  20. {"min": 251, "label": '特大暴雨', "color": "#800000"}, # 分段指定颜色及名称
  21. {"min": 101, "max": 250, "label": '暴雨', "color": "#FF4500"},
  22. {"min": 51, "max": 100, "label": '暴雨', "color": "#FF7F50"},
  23. {"min": 25, "max": 50, "label": '大雨', "color": "#FFFF00"},
  24. {"min": 10, "max": 25, "label": '中雨', "color": "#1E90FF"},
  25. {"min": 0.1, "max": 9.9, "label": '小雨', "color": "#87CEFA"}])
  26. ))
  27. tl.add(map_shape1, "{}h".format(h)) #将不同日期的数据加入到timeline中
  28. return tl
  29. timeline_map(data1).render("rainfalltoall_1.html")

效果如下:

在这里插入图片描述

至此,天气数据分析可视化就完成啦~

今天我们就到这里,明天继续努力!
在这里插入图片描述
若本篇内容对您有所帮助,请三连点赞,关注,收藏支持下。

创作不易,白嫖不好,各位的支持和认可,就是我创作的最大动力,我们下篇文章见!

Dragon少年 | 文

如果本篇博客有任何错误,请批评指教,不胜感激 !

文章知识点与官方知识档案匹配,可进一步学习相关知识
Python入门技能树网络爬虫urllib419450 人正在系统学习中
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/596532
推荐阅读
相关标签
  

闽ICP备14008679号