查看原文
其他

爬取千万条基金数据是怎样的体验?

朱小五 凹凸数据 2021-08-09

大家好,我是朱小五

昨天的文章《我用 Python 预测了股票价格》中就提了一嘴,最近爬了一些股票和基金数据。

再加上我们之前也做过基金抄底成功的概率问题,那就简单跟大家说一下如何爬取tiantian基金的数据。

基金代码

爬取基金的数据有个必要条件就是要知道基金代码,如何获取呢,打开官网找吧。

点了一圈,发现了基金代码的主页,寻思翻页爬取就完事了

http://fund.eastmoney.com/allfund.html

结果没想到F12打开下图中的fundcode_search.js

右键新标签页打开→

发现所有的基金代码都在,那么就更简单了呀。

import requests
import re
import json
import pandas as pd

url = 'http://fund.eastmoney.com/js/fundcode_search.js'
r = requests.get(url)
a = re.findall('var r = (.*])', r.text)[0]  
b = json.loads(a)
fundcode = pd.DataFrame(b, columns=['fundcode''fundsx''name''category''fundpy']) 
fundcode = fundcode.loc[:, ['fundcode''name''category']]
fundcode.to_csv('fundcode_search.csv', index=False, encoding='utf-8-sig')

运行获得所有基金代码共10736条数据。

爬取基金历史

有了上万个基金代码,再爬取他们近三年的净值数据,那四舍五入不就是千万条数据嘞~

《用python来分析:基金抄底成功的概率有多大?》中就已经给出了方法,同样打开基金网站,用浏览器自带流量分析工具可以轻松找到数据接口。

其中callback为返回js回调函数,可以删除,funCode为基金代码,pageIndex为页码,pageSize为每页返回的数据条数是,startDate和endDate分别为开始时间和结束时间。[1]

fundCode = '001618'  #基金代码
pageIndex = 1
startDate = '2018-02-22'  #起始时间
endDate = '2020-07-10'   #截止时间
header = {
    'User-Agent''Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:69.0) Gecko/20100101 Firefox/69.0',
    'Referer''http://fundf10.eastmoney.com/jjjz_{0}.html'.format(fundCode)
}
url = 'http://api.fund.eastmoney.com/f10/lsjz?fundCode={0}&pageIndex={1}&pageSize=5000&startDate={2}&endDate={3}&_=1555586870418?'\
    .format(fundCode, pageIndex, startDate, endDate)
response = requests.get(url, headers=header)

这样单个基金的数据就爬取好啦

那如何结合前面的基金代码合集进行循环爬取,相信也难不倒大家

最后小结一下,希望大家不要用这个破方法

明明有tushare 、akshare等等金融数据接口,用着不香吗?

所以你要问我爬取千万条基金数据是怎样的体验?

我觉得自己很傻。。。


参考文章

[1]

《用python来分析:基金抄底成功的概率有多大?》: https://mp.weixin.qq.com/s/irjLb-lJSKnXBxfGQYTJog



下面这本书限时300积分兑换

也可参加当当活动每满100减50

感谢北京大学出版社的大力支持

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存