【爬虫实战】“双十一”微博热搜实时跟进
本文作者:王子一,中南财经政法大学金融学院
本文编辑:赵冰洁
技术总编:张馨月
爬虫俱乐部沙龙活动
从“光棍节”到“双节棍”,从“打工人”到“吃圭人”,一年一度的双十一终于快要落下帷幕,数据显示,天猫双十一狂欢季在0:00至0:30的成交额突破3723亿元,京东在开场9分钟内下单金额达到了2000亿元。那么,大家在拼手速、算满减、抢红包的过程中都在关注些什么呢?兢兢业业的小编爬取了昨晚微博的实时热搜,一起往下看吧~
从中选取部分话题绘制河流图,得到的结果如下图所示:
那么,上图所爬取的内容如何通过Python实现呢?下面我们进入正题~
爬虫思路
微博热搜榜网址为https://s.weibo.com/top/summary
首先,在开发者模式下定位到我们所想要的内容,展示如下:
最终整合在一起,并保存到表格之中:
具体代码如下:
import requests
from bs4 import BeautifulSoup
import datetime
r = requests.get("https://s.weibo.com/top/summary")
soup = BeautifulSoup(r.text, 'lxml')
items = soup.find(class_="data").find_all(name="tr")
Time=datetime.datetime.now().strftime('%F %T')#现在时间
print(Time)
print("序号 关键词 时间")
list_content = []
list_t = []
for item in items[2:]:
id=item.find(class_="td-01 ranktop").string
title=item.find(class_="td-02").a.string
num=item.find(class_="td-02").span.string
list_t = [id,title,num]
list_content.append(list_t)
print(list_t)
定时爬取
微博热搜是实时变动的,所以我们为减少打工人的劳动力,引入可以实现定时执行任务的schedule模块,为代码加入一个定时器,从而实现每隔1分钟、5分钟等等间隔时间的定时爬取。
import scheduleimport time
def weibo():
print("正在爬取...") #将爬取微博热搜榜的code封装
schedule.every(1).minutes.do(weibo) # 每隔一分钟执行一次任务
while True:
schedule.run_pending() # run_pending:运行所有可以运行的任务
这样,我们执行所有代码,便可以自动搜集实时的热搜榜单啦!
热搜轮转
首先,应用Pyecharts中的柱状图构造静态图,如下:
t = Timeline()
for i in range(20):
bar = (
Bar()
.add_xaxis(list(df['关键词'])[i*10:i*10+10][::-1])
.add_yaxis("微博热搜榜", list(df['热度'])[i*10:i*10+10][::-1])
.reversal_axis()
.set_global_opts(title_opts=opts.TitleOpts("".format(i)))
.set_series_opts(label_opts=opts.LabelOpts(position="right")) #将标签放置在图形右边
)
t.add(bar, "")
t.render_notebook()
除此之外,我们还可以运用河流图来展示热搜榜单话题的流量占比,关于河流图的绘制方法我们将会在后续的推文中推出,感兴趣的小伙伴敬请期待~
ps:本文相关代码可在后台回复“微博热搜”获取。
Stata中的数值型变量分类神器--recode
【邀请函】听说你还在为处理表格头大?
Seminar | 委托贷款:打开中国影子银行的黑匣子
Seminar | 电话会议中的"non-answer"
Python 爬虫必杀技:XPath
朴素贝叶斯算法——以20Newsgroups数据集为例
【爬虫实战】利用scrapy框架爬取豆瓣图书信息
《我和我的家乡》影评高频词原来是这些!
微信公众号“Stata and Python数据分析”分享实用的stata、python等软件的数据处理知识,欢迎转载、打赏。我们是由李春涛教授领导下的研究生及本科生组成的大数据处理和分析团队。
1)必须原创,禁止抄袭;
2)必须准确,详细,有例子,有截图;
注意事项:
1)所有投稿都会经过本公众号运营团队成员的审核,审核通过才可录用,一经录用,会在该推文里为作者署名,并有赏金分成。
2)邮件请注明投稿,邮件名称为“投稿+推文名称”。
3)应广大读者要求,现开通有偿问答服务,如果大家遇到有关数据处理、分析等问题,可以在公众号中提出,只需支付少量赏金,我们会在后期的推文里给予解答。