爬取千万条基金数据是怎样的体验?
大家好,我是朱小五
昨天的文章《我用 Python 预测了股票价格》中就提了一嘴,最近爬了一些股票和基金数据。
再加上我们之前也做过基金抄底成功的概率问题,那就简单跟大家说一下如何爬取tiantian基金的数据。
基金代码
爬取基金的数据有个必要条件就是要知道基金代码,如何获取呢,打开官网找吧。
点了一圈,发现了基金代码的主页,寻思翻页爬取就完事了
http://fund.eastmoney.com/allfund.html
结果没想到F12打开下图中的fundcode_search.js
右键新标签页打开→
发现所有的基金代码都在,那么就更简单了呀。
import requests
import re
import json
import pandas as pd
url = 'http://fund.eastmoney.com/js/fundcode_search.js'
r = requests.get(url)
a = re.findall('var r = (.*])', r.text)[0]
b = json.loads(a)
fundcode = pd.DataFrame(b, columns=['fundcode', 'fundsx', 'name', 'category', 'fundpy'])
fundcode = fundcode.loc[:, ['fundcode', 'name', 'category']]
fundcode.to_csv('fundcode_search.csv', index=False, encoding='utf-8-sig')
运行获得所有基金代码共10736条数据。
爬取基金历史
有了上万个基金代码,再爬取他们近三年的净值数据,那四舍五入不就是千万条数据嘞~
在《用python来分析:基金抄底成功的概率有多大?》中就已经给出了方法,同样打开基金网站,用浏览器自带流量分析工具可以轻松找到数据接口。
其中callback为返回js回调函数,可以删除,funCode为基金代码,pageIndex为页码,pageSize为每页返回的数据条数是,startDate和endDate分别为开始时间和结束时间。[1]
fundCode = '001618' #基金代码
pageIndex = 1
startDate = '2018-02-22' #起始时间
endDate = '2020-07-10' #截止时间
header = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:69.0) Gecko/20100101 Firefox/69.0',
'Referer': 'http://fundf10.eastmoney.com/jjjz_{0}.html'.format(fundCode)
}
url = 'http://api.fund.eastmoney.com/f10/lsjz?fundCode={0}&pageIndex={1}&pageSize=5000&startDate={2}&endDate={3}&_=1555586870418?'\
.format(fundCode, pageIndex, startDate, endDate)
response = requests.get(url, headers=header)
这样单个基金的数据就爬取好啦
那如何结合前面的基金代码合集进行循环爬取,相信也难不倒大家
最后小结一下,希望大家不要用这个破方法
明明有tushare 、akshare等等金融数据接口,用着不香吗?
所以你要问我爬取千万条基金数据是怎样的体验?
我觉得自己很傻。。。
参考文章
《用python来分析:基金抄底成功的概率有多大?》: https://mp.weixin.qq.com/s/irjLb-lJSKnXBxfGQYTJog
下面这本书限时300积分兑换哦
也可参加当当活动每满100减50
感谢北京大学出版社的大力支持