抓取单博主的所有微博及其评论
有段时间没写爬虫文章了,今天就给大家整合下之前发布的几期微博文章加上直播课写的爬某微博评论的小脚本,综合起来,写一个全面点的。全面在哪里呢,之前我写的微博脚本,都是需要哪个微博,爬哪个微博的评论。
我之前建了一个qq群,一直没有搞起来。今天放出qq群号:498931856,大家可以互相在此切磋交流。
加群非硬性条件:分享本文至朋友圈或者qq空间
不是硬性条件,但是你的分享,大邓会更有动力更加开心。
大邓时间有限,还是希望小伙伴们能自己百度就尽量百度。给大家一个问问题的技巧:求助前请说明你已经百度谷歌了,但还是解决不了。代码及报错附上,这样努力诚恳的你,很多人会愿意帮你的。
这是个简单又复杂的爬虫。抓取逻辑很简单,但任务实现会略微繁琐。但只要思路清楚,还是很简单的。
对象-路易威登微博
网址:http://m.weibo.cn/u/1836003984
红色部分是微博账号的id
请输入标题 abcdefg
爬取思路
1、我们先写一个微博的所有评论,看网址规律是什么样子,有没有一些奇怪的参数,这些参数要到哪里获取?
2、依次类推,发现爬所有微博评论的微博评论的规律,看看有没有奇怪的参数,这些参数要到哪里才能获取?
说的优点云里雾里的,这里附上三个url模板。
https://m.weibo.cn/api/comments/show?id={id}&page={page}
https://m.weibo.cn/api/container/getIndex?containerid={oid}&type=uid&value={uid}&page={page}
https://m.weibo.cn/api/container/getIndex?type=uid&value={usr_id}
第一个url模板代表的是某条微博的id,打开这个url会返回该微博某页的评论。
第二个url模板代表的是微博用户所发微博的列表,打开该url,返回的是某页的微博列表。
第三个url模板代表的其实是微博用户主页。
访问第一个url需要id,但要访问了第二个url才能获得id
访问第二个url需要oid、uid,但是oid、uid需要访问了第三个url才能获得。
思路很简单,那我们就此展开。
一、微博评论
抓包是一种美德,翻看路易威登一个微博评论,打开开发者工具,进行抓包准备。
好了,抓包分析,找到我们屏幕中看到的数据了。那么方框中圈中的网址就是评论数据对应的网址。
http://m.weibo.cn/api/comments/show?id=4103033291539613&page=4
网址关键参数,微博id和页码
上面红框中圈中的是第四页评论的数据。
data:第四页的数据
最大的方框,是微博中某条评论的相关数据,如创建时间,评论的id,喜欢数(点赞数)、发布微博的网站(是手机端还是网页端)、评论文本、发评论的用户相关信息(用户id、昵称等)
max:最大页数
total_num:微博评论数
好了,直接附上爬取某微博评论这部分的爬虫脚本截图
def get_comments(wb_id):
Data = []
url = 'https://m.weibo.cn/api/comments/show?id={id}'.format(id=wb_id)
page_url = 'https://m.weibo.cn/api/comments/show?id={id}&page={page}'
Resp = requests.get(url, headers=headers, cookies=Cookies)
page_max_num = Resp.json()['max']
for i in range(1, page_max_num, 1):
p_url = page_url.format(id=wb_id, page=i)
resp = requests.get(p_url, cookies=Cookies, headers=headers)
resp_data = resp.json()
data = resp_data.get('data')
for d in data:
review_id = d['id']
like_counts = d['like_counts']
source = d['source']
username = d['user']['screen_name']
image = d['user']['profile_image_url']
verified = d['user']['verified']
verified_type = d['user']['verified_type']
profile_url = d['user']['profile_url']
comment = d['text']
time.sleep(1)
我们想自动爬取路易威登发布的所有微博,必须批量获取微博id,才能高效爬取路易威登所有数据。
所以现在,问题来了,怎么批量获得微博id??
二、批量获取微博id
回到主页
按F12,准备抓包,点击最下方的“查看他的全部微博”。我们不停的向下方滚动,相当于向网站请求了六次,抓包如图。这是我打开的第四页的所有微博对应的网址。
打开第四页的网址对应的数据
我们得到了上图,这都是我们想要的数据。
page:当前页码
total:微博列表的页面数
cards:当前微博列表对应的数据(含有多个微博数据)
红色方框中的蓝色方框:众多微博id的一个。
现在我们可以写一个关于获取微博id的爬虫,直接附上代码
def mblog_list(uid, oid):
Mblog_list = []
base_url = 'https://m.weibo.cn/api/container/getIndex?containerid={oid}&type=uid&value={uid}'
page_url = 'https://m.weibo.cn/api/container/getIndex?containerid={oid}&type=uid&value={uid}&page={page}'
url = base_url.format(oid=oid, uid=uid)
resp = requests.get(url, headers=headers, cookies=Cookies)
resp.encoding = 'gbk'
response = resp.json()
total = response['cardlistInfo']['total']
page_num = int(int(total) / 10) + 1
for i in range(1, page_num + 1, 1):
p_url = page_url.format(oid=oid, uid=uid, page=i)
page_resp = requests.get(p_url, headers=headers, cookies=Cookies)
page_data = page_resp.json()
cards = page_data['cards']
for card in cards:
mblog = card['mblog']
created_at = mblog['created_at']
id = mblog['id']
text = mblog['text']
reposts_count = mblog['reposts_count']
comments_count = mblog['comments_count']
attitudes_count = mblog['attitudes_count']
mblog_data = {'created_at': created_at, 'id': id, 'text': text, 'reposts_count': reposts_count,
'comments_count': comments_count, 'attitudes_count': attitudes_count}
Mblog_list.append(mblog_data)
print(' ' * 10, mblog_data)
time.sleep(1)
return Mblog_list
现在问题来了,uid,oid怎么获取呢?
请输入标题 abcdefg
三、获取uid、oid
重新回到主页
刷新,出现这个网址
http://m.weibo.cn/api/container/getIndex?type=uid&value=1836003984&containerid=1005051836003984
点击Preview,展开每个项目,查找uid、fid、oid
好了,现在uid、oid有了,我们专门写获取这两个参数的小脚本,代码直接上
def usr_info(usr_id):
url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value={usr_id}'.format(usr_id=usr_id)
resp = requests.get(url, headers=headers, cookies=Cookies)
jsondata = resp.json()
uid = jsondata.get('userInfo').get('toolbar_menus')[0].get('params').get('uid')
fid = jsondata.get('userInfo').get('toolbar_menus')[1].get('actionlog').get('fid')
oid = jsondata.get('userInfo').get('toolbar_menus')[2].get('params').get('menu_list')[0].get('actionlog').get('oid')
cardid = jsondata.get('userInfo').get('toolbar_menus')[1].get('actionlog').get('cardid')
containerid = jsondata.get('tabsInfo').get('tabs')[0].get('containerid')
Info = {'uid': uid, 'fid': fid,
'cardid': cardid, 'containerid': containerid, 'oid': oid}
print(Info)
return Info
现在附上我的完整版本,封装成类,直接使用即可。本来想当道百度盘,但是之前有几个脚本资源失效了,干脆直接贴在这里,大家觉得有用就直接copy吧。
import requests
import os
import re
import csv
import time
import json
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36'}
Cookies = {'Cookie':'你的cookie'}
class Weibo(object):
#用户信息,同时也能获取到uid、fid、oid等关键参数
def usr_info(self,usr_id):
url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value={usr_id}'.format(usr_id=usr_id)
resp = requests.get(url, headers=headers, cookies=Cookies)
jsondata = resp.json()
nickname = jsondata.get('userInfo').get('screen_name')
mblog_num = jsondata.get('userInfo').get('statuses_count')
verified = jsondata.get('userInfo').get('verified')
verified_reason = jsondata.get('userInfo').get('verified_reason')
gender = jsondata.get('userInfo').get('gender')
urank = jsondata.get('userInfo').get('urank') #用户等级
mbrank = jsondata.get('userInfo').get('mbrank')
followers_count = jsondata.get('userInfo').get('followers_count')
follow_count = jsondata.get('userInfo').get('follow_count')
try:
uid = jsondata.get('userInfo').get('toolbar_menus')[0].get('params').get('uid')
fid = jsondata.get('userInfo').get('toolbar_menus')[1].get('actionlog').get('fid')
oid = jsondata.get('userInfo').get('toolbar_menus')[2].get('params').get('menu_list')[0].get('actionlog').get('oid')
cardid = jsondata.get('userInfo').get('toolbar_menus')[1].get('actionlog').get('cardid')
except:
uid = ''
fid = ''
oid = ''
cardid = ''
containerid = jsondata.get('tabsInfo').get('tabs')[0].get('containerid')
Info = {'nickname':nickname,'mblog_num':mblog_num,
'verified':verified,'verified_reason':verified_reason,
'gender':gender,'urank':urank,'mbrank':mbrank,'followers_count':followers_count,
'follow_count':follow_count,'uid':uid,'fid':fid,
'cardid':cardid,'containerid':containerid,'oid':oid
}
print(Info)
return Info
#获取所有热门微博信息(所发微博内容,每条微博的评论id,转发数,评论数...)
def mblog_list(self,uid,oid):
Mblog_list = []
base_url = 'https://m.weibo.cn/api/container/getIndex?containerid={oid}&type=uid&value={uid}'
page_url = 'https://m.weibo.cn/api/container/getIndex?containerid={oid}&type=uid&value={uid}&page={page}'
url = base_url.format(oid=oid,uid=uid)
resp = requests.get(url, headers=headers, cookies=Cookies)
resp.encoding = 'gbk'
response = resp.json()
#热门微博数total
total = response['cardlistInfo']['total']
#热门微博网页数
page_num = int(int(total)/10)+1
for i in range(1,page_num+1,1):
p_url = page_url.format(oid=oid, uid=uid, page=i)
page_resp = requests.get(p_url,headers=headers,cookies=Cookies)
page_data = page_resp.json()
try:
cards = page_data['cards']
for card in cards:
mblog = card['mblog']
created_at = mblog['created_at']
id = mblog['id']
dirty_text = mblog['text'] #dirty_text中含有很多链接杂质
cleaned1 = re.sub(r'<span .*?</span>', '', dirty_text)
text = re.sub(r"<a .*?</a>", '', cleaned1)
reposts_count = mblog['reposts_count']
comments_count = mblog['comments_count']
attitudes_count = mblog['attitudes_count']
mblog_data = {'created_at': created_at, 'id': id, 'text': text, 'reposts_count': reposts_count,
'comments_count': comments_count, 'attitudes_count': attitudes_count}
Mblog_list.append(mblog_data)
print(' '*10,mblog_data)
except:
continue
time.sleep(1)
return Mblog_list
#获取某微博评论,保存到usr_id下的文件夹wb_id.csv文件中
def get_comments(self, usr_id, wb_id):
url = 'https://m.weibo.cn/api/comments/show?id={id}'.format(id=wb_id)
page_url = 'https://m.weibo.cn/api/comments/show?id={id}&page={page}'
Resp = requests.get(url, headers=headers, cookies=Cookies)
page_max_num = Resp.json()['max']
path = os.getcwd()+'/{dirname}/'.format(dirname=usr_id)
os.mkdir(path)
path2 = os.getcwd() + '/%s/%s.csv'%(usr_id,wb_id)
csvfile = open(path2, 'a+', encoding='utf-8', newline='')
writer = csv.writer(csvfile)
writer.writerow(('username','verified','verified_type','profile_url','source','review_id','like_counts','image','date','comment'))
for i in range(1, page_max_num, 1):
p_url = page_url.format(id=wb_id,page=i)
resp = requests.get(p_url, cookies=Cookies, headers=headers)
print(resp.status_code)
resp_data = resp.json()
try:
data = resp_data.get('data')
for d in data:
review_id = d['id']
like_counts = d['like_counts']
source = d['source']
username = d['user']['screen_name']
image = d['user']['profile_image_url']
verified = d['user']['verified']
verified_type = d['user']['verified_type']
profile_url = d['user']['profile_url']
dirty_text = d['text']
cleaned1 = re.sub(r'<span .*?</span>', '', dirty_text)
comment = re.sub(r"<a .*?</a>", '', cleaned1)
date = d['created_at']
print(comment)
writer.writerow((username, verified, verified_type, profile_url, source, review_id, like_counts, image,
date, comment))
print('有%d页,已经爬了%d页 %s'%(page_max_num, i, comment))
except:
print(resp_data['msg'])
continue
time.sleep(1)
csvfile.close()
更多内容
文本分析
数据分析
神奇的python
爬虫
【视频】有了selenium,小白也可以自豪的说:“去TMD的抓包、cookie”
【视频】快来get新技能--抓包+cookie,爬微博不再是梦
请输入标题 abcdefg
请输入标题 abcdefg