《我和我的家乡》影评高频词原来是这些!
本文作者:李婷婷 河南大学经济学院
文字编辑:崔赵雯
技术总编:余术玲
爬虫俱乐部云端课程
导读
前段时间电影院上映了几部重量级电影,《我和我的家乡》、《姜子牙》、《夺冠》等等,使沉寂已久的电影院又热闹了起来!不知道大家看了哪一部电影呢?
《我和我的家乡》这部电影中的五个故事既有让大家捧腹大笑的瞬间,也有让大家感动落泪的时刻。今天我们就通过豆瓣电影来看一下《我和我的家乡》这部电影的评价。在本篇推文中,我们通过爬取豆瓣电影上《我和我的家乡》的影评内容并制作词云图,让大家可以直观看到影评中出现的一些高频词汇。
一、爬取影评内容
首先,我们找到豆瓣电影中《我和我的家乡》,这部电影的影评(网络链接:https://movie.douban.com/subject/35051512/reviews),然后查看网页的源代码,并观察源代码信息,找到目标信息所在的位置。
</a></h2>
这个标签。先以第一页为例,通过正则表达式保留目标信息所在的行,并提取影评的标题和链接。
clear all
cap mkdir D:/影评爬取
cd D:/影评爬取
copy "https://movie.douban.com/subject/35051512/reviews" temp.txt, replace
infix strL v 1-100000 using temp.txt, clear
keep if ustrregexm(v,"</a></h2>")
gen url=ustrregexs(1) if ustrregexm(v,`"<a href="(.*)">"')
replace v =ustrregexra(v,"<.*?>","")
rename v title
这样我们就可以得到第一页当中所有影评的标题和链接了,但是影评不止一页,所以我们需要先从第一页的源代码中提取出影评的总页数,之后再遍历所有页面进行提取所需要的信息。
copy "https://movie.douban.com/subject/35051512/reviews" temp.txt, replace
infix strL v 1-100000 using temp.txt, clear
keep if index(v,`"<span class="thispage" data-total-page="')
replace v=ustrregexs(0) if ustrregexm(v,"(\d+)")
local p=v[1]
接下来对页码进行循环,抓取所有页面的信息,并将每一页的信息分别保存,之后再进行合并。
forvalues i=1/`p'{
local j=(`i'-1)*20
cap copy "https://movie.douban.com/subject/35051512/reviews?start=`j'" temp.txt,replace
while _rc!=0 {
cap copy "https://movie.douban.com/subject/35051512/reviews?start=`j'" temp.txt, replace
}
infix strL v 1-100000 using temp.txt, clear
keep if ustrregexm(v,"</a></h2>")
gen url=ustrregexs(1) if ustrregexm(v,`"<a href="(.*)">"')
replace v =ustrregexra(v,"<.*?>","")
rename v title
save "我和我的家乡影评_`i'",replace
}
*合并文件
clear
local files:dir "." file "我和我的家乡影评*.dta"
foreach file in `files' {
append using "`file'"
}
drop if url==""
save "我和我的家乡影评.dta", replace
gen v=""
forvalues i=1/`=_N' {
sleep 1000
replace v=fileread(url) in `i'
while filereaderror(v[`i'])!=0 {
sleep 5000
replace v=fileread(url) in `i'
}
dis `i'
}
split v,p(`"<div id="link-report">"' `"<div class="main-author">"')
replace v2 = ustrregexra(v2,"\s","",.)
replace v2 = ustrregexra(v2,"<.*?>","",.)
replace v2 = ustrregexra(v2," |©|-|;","")
rename v2 content
keep title content
save "我和我的家乡影评1.dta",replace
二、词云图
我们通过Stata和Python的交互实现对影评内容的分词处理,因为影评的内容通常较长,而且含有名词、形容词等多种词性,因此,这里使用jieba.posseg进行分词,获得每个词语的词性。
use 我和我的家乡影评1.dta,clear
keep content
export delimited using content.txt,replace
*调用Python分词
clear all
python
import jieba.posseg
word=[]
with open(r"content.txt",encoding="utf8") as f:
for i in f.readlines():
str=i
word.append(str)
jieba.load_userdict(r"tsdict.txt")
with open("分词.txt","w",encoding="utf8") as f2:
for unit in word:
seg_list = jieba.posseg.cut(unit)
for word in seg_list:
f2.write(word.word+" "+word.flag+"\n")
end
将分词的结果导入到Stata之后,删除缺失值、单字和停用词并进行词频统计。
import delimited using 分词.txt, clear encoding("utf-8")
split v1,p(" ")
drop v1
rename (v11 v12) (keyword flag)
drop if ustrlen(keyword) == 1
drop if keyword ==""
preserve
import delimited using 停用词表.txt, clear encoding("utf-8") varname(nonames)
outsheet using 停用词表.txt, replace
levelsof v1, local(keyword)
restore
foreach word in `keyword' {
drop if keyword == "`word'"
}
*词频统计
bysort keyword:gen frequency = _N
gsort -frequency
duplicates drop
save word,replace
最后,我们在得到的分词结果中只保留名词、动词和形容词,并进行词云图的绘制。
use word,clear
keep if ustrregexm(flag,"^[anv]")
keep in 1/100
wordcloud keyword frequency using 词云.html, replace size(15 80) range(3480 2160)
shellout 词云图.html
制作的词云图结果如下图所示:
对我们的推文累计打赏超过1000元,我们即可给您开具发票,发票类别为“咨询费”。用心做事,不负您的支持!
用词云图看Sustainability期刊热门题目
震惊!知名数据分析软件竟被某度翻译“亲切称呼”为“斯塔塔”
喜临涛门,月满人圆
字符串函数总动员
微信公众号“Stata and Python数据分析”分享实用的stata、python等软件的数据处理知识,欢迎转载、打赏。我们是由李春涛教授领导下的研究生及本科生组成的大数据处理和分析团队。
1)必须原创,禁止抄袭;
2)必须准确,详细,有例子,有截图;
注意事项:
1)所有投稿都会经过本公众号运营团队成员的审核,审核通过才可录用,一经录用,会在该推文里为作者署名,并有赏金分成。
2)邮件请注明投稿,邮件名称为“投稿+推文名称”。
3)应广大读者要求,现开通有偿问答服务,如果大家遇到有关数据处理、分析等问题,可以在公众号中提出,只需支付少量赏金,我们会在后期的推文里给予解答。