赞
踩
截至本文发布,受厄尔尼诺影响,整个长沙城已经在雨水里泡了差不多两个月:
刚好最近又一直在用python做数据分析方向的研究,本着科(chi)学(bao)分(cheng)析(zhe)的态度,决定做一期关于长沙历年气象的分析报告。
本文简单记录了整个工作流程,以此方便其他地区的朋友参照本范例科学分析。
【数据篇】
首先当然是去找数据源,历史气象数据不是什么机密数据,在国家气象信息中心就可以找到:
数据还是比较全的,从建国后开始至今接近70年的数据。
看来我国的科学数据信息还是比较开放的。
但是,当你要批量下载数据的时候…
。。。。。。
也就是说,一次检索不能大于2个月,那么下载70年的数据需要设置这个页面420次,再加上生成和下载,手速快不吃不喝连续作业也大概需要花掉20个小时的时间,所以…
理论上我们可以用python写一个爬虫把数据爬下来,但是不到最后需要自己造轮子的时候,尽量还是寻找更简单的方法。
地面国际交换站之所以叫国际交换站就是因为这个数据是和其他国家共享的,我国下载受限的话,理论上在数据更公开的其他国家(此处手动@USA)可以尝试搜索一下。
NOAA(美国国家海洋和大气管理局)应该有我们需要的数据,首先官网进去找到数据中心的地址,为了节约大家的搜索时间这里直接贴出数据库的入口地址
(https://www.ncdc.noaa.gov/data-access/land-based-station-data/land-based-datasets)
我们要找的数据在GHCN(全球历史气象学网络),看描述感觉很硬核,记录了自测量器诞生以来地球的所有历史气象数据,最早可追溯到了17世纪。
我们当然不需要这么多,能获取到目标地区气象站的几十年完整数据即可。
之后通过给出的链接进入FTP,这里可以下载全部的数据,没有任何地区和权限限制,只要连接了网络就可以下载。
不得不说一个国家的科技进步水平和其科技资源的开放程度是成正比的。
点击进入FTP,然后:
通常进一个FTP数据库,第一时间有点不知道从何入手是很正常的,基本上我会把root下的readme.txt看一遍,一般心里就大概有数了。
ghcnd-stations.txt记录了所有气象站的编码信息,在之后的查询中我们需要用编码来检索数据。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。