使用Python抓取2019-nCov疫情数据(附数据下载)
这次的疫情想尽让大家过了一个此生无法忘记的春节,作为一名半个武汉人,今年的春节实在过于沉重,而作为一名GISer,可能咱没那能力去一线帮点什么,我就想办法把这次的数据都收集起来,当个练手的工具,把所学用到现实中去,看看你所学的那些各种 GIS 中的方法论能不能应用到实际场景中,并发挥一些价值。
可巧妇难为无米之炊,没有数据的GISer就像没有子弹的士兵,就是有一股劲儿,也使不出来。数据不会从天上飞下来,要枪要炮还是得自己造。于是看到丁香园和腾讯的官方疫情通知,想能不能找个方法直接抓下来。
PS:如果你仅仅需要数据,请跳过下面关于代码的讨论。
站在巨人的肩膀
在造轮子之前,有个习惯,看看有没有已经做过的,一搜不要紧,还真有。把代码clone下来,跑了一下,结果比较OK的,下面介绍给大家。
抓取腾讯疫情数据
Github Repo:https://github.com/dakula009/China_CoronaVirus_Data_Miner
clone 下来的核心代码也比较简单,通俗易懂,因微信排版代码阅读起来比较困难,大家可以通过上面的网址查看。数据格式:
抓取丁香园疫情数据
Github Repo:https://github.com/BlankerL/DXY-2019-nCoV-Crawler
这个代码写得比较完善,使用的是Python3,需要本地安装Mongo,有条件的可以下载下来研究。核心代码不到200行,数据长这样:
数据说明:
provinceName
cityName
province_confirmedCount
province_suspectedCount
province_curedCount
province_deadCount
city_confirmedCount
city_suspectedCount
city_curedCount
city_deadCount,updateTime
数据下载
如果你运行了上面的方案,发现只能获取当天的数据,但如果想用时态的数据怎么办?另外如果没有学过Python,或者说没有条件去安装相关环境怎么办?
其实已经有人把这个工作做好了,做成了一个csv文件,并且会每天更新,你说贴心不?
数据地址:https://github.com/BlankerL/DXY-2019-nCoV-Data
里面有 csv 和 json 格式的,大家可以按需自取。
分享你的文章
投稿
扫码加小编
一起"稿"GIS
END
关注 麻辣GIS
291616564(QQ群一)
166408035(QQ群二)
627853279(QQ群三)436386604(QQ群四)
606176554(QQ群五)
946178380(QQ群六)
861271808(QQ群七)
http://malagis.com
长按识别二维码关注我们