直男不懂女人心?10953 条数据告诉你女王节送什么口红色号!
“你是个好人,但我绝不会接受一个连热门口红品牌色号都分不清的好直男。”
作者 | 周志鹏
责编 | 郭 芮
这是一个为热点蛰伏了N天的故事——朋友们问小Z为什么都三八节了才发这篇文章,快递都来不及了。小Z微微一笑:本文只是提供一种分析思路(线上分析爆款的套路万变不离其宗),好好扪包(钱包)自问,2019才刚刚开始,节日还多着呐(微笑中仿佛透露着贫穷)......
情人节告白被拒的经历还历历在目,小Z觉得,作为一个做数据分析的直男,有必要让数据来解决自己的困惑——什么是热门的口红色号?
小Z攥紧了拳头暗暗发誓:“哥要用数据来找到热门的口红品牌和HOT色号”!一来为自己正名,二来是把数据分析思路和结果公之于众,为直男圈做一点点微小的贡献。
小Z原本天真的以为口红色号就像鞋码一样,每个品牌都是通用的,43码就是43码,阿迪并没有比阿迪王高贵,只需要一视同仁地爬取和统计数据就OK了——但是口红用残酷的现实啪啪啪打醒了他:不同的品牌,甚至同一个品牌的不同系列,就算颜色看起来一毛一样,色号也是不同的。
“没关系,那我就先找出热门品牌,再分析不同品牌的热门色号。”小Z早已百折不挠,“淘宝(包括天猫)是走量最大的平台,那这次分析就从淘宝入手吧。”
热门口红品牌初体验
说干就干,小Z先在淘宝搜索“口红”,按销量排序,明确第一步目标:先爬下TOP200产品的标题、收货人数(收货人数是指近30天确认收货的人数,该指标和销量相比略有浮动,结合后面评价数据来看更具指向性)、价格、店铺名称和地址。
仔细观察发现,第一步我们需要的所有数据都在静态网页中,直接requests网址即可。之所以只拿下TOP200,是因为凭借小Z在电商浅耕多年的直觉:一个销量可观的行业,TOP200产品的特征已经能够代表行业的趋势了。
一顿操作猛如虎,一看结果有眉目:
基本字段齐活了,还缺什么呢?第一步不是要分析品牌吗?品牌在哪里?要通过产品标题或者店铺名称来清洗出品牌未免也太太太麻烦了,不慌,小Z发现每款产品详情页记录着关于品牌的信息:
恰好我们第一步记录了每个产品的URL,这一步的数据也藏在静态网址中,只需要依次访问爬取就好了。
数据源已备好,在分析前小Z很明确分析的最终目的:送给妹子!!!
如果按照销量排名来看品牌热度,难免有些单纯走量的品牌跻身前10,所以,后面的分析主要基于金额排序:
近30天TOP10品牌出炉,MAC(这可不是电脑的那个MAC)以14.96%的市场占有率独占鳌头,YSL、纪梵希紧随其后。不难看出,前10个品牌(TOP200产品中共计85个品牌)累计占据了66.35%的市场份额。更进一步,20%的品牌占据了78.89%的收货额,二八法则可谓诚不欺我小Z。
从平均价格来看,热门品牌可以分为三个梯队,第一梯队是高端线:纪梵希、YSL、阿玛尼、DIOR和雅诗兰黛,平均价格都在270以上;MAC以136元的平均价格独占第二梯队;第三梯队则是亲民品牌,ZEESEA、完美日记、稚优泉与美康粉黛,平均价格不超过50元。
至此,热门品牌和价格梯队划分完成,下面就是死磕不同品牌的色号了。
不同品牌的热门色号
这一步的操作小Z决定分细一点,围绕数据爬取——清洗——分析的流程来进行。
一、数据爬取
所有关于商品色号的信息,都藏在商品评论里:
从消费心理学角度来看,购买之后且愿意评论的人虽是少数,但这些评论者本身受到产品触动,具有强烈的表达意愿,他们所购买的产品色号就更具备参考价值。小Z决定从高、中梯队抽取每一个品牌的爆款(TOP1)产品,进行评价抓取(同志,毕竟是送给妹子的,先放过亲民线品牌)。
敲黑板,页面前端展示评价数都是成千上万,但实际爬取过程中,最多只有99页(20*99条)的权限。另外,评论内容是以动态形式存放在详情的JS网页中,以list_detail_rate开头,访问后是JSON格式,非常简单:
小Z先网罗了纪梵希、YSL、阿玛尼、DIOR、雅诗兰黛和MAC官方旗舰店爆款(总销量TOP1)产品:
再分别爬取之,最终拿到合计10953条评价,还有买家昵称、评论时间以及我们最喜欢的色号信息:
二、数据清洗
数据还挺全,那岂不是直接做一个分类统计就知道什么色号火了!小Z想想都觉得激动。BUT!TOO YOUNG TOO SIMPLE!
小Z突然想到曾经的自己,只有两种情况才会主动评价,一种是吹到爆的好物(或者觉得东西不错商家还好评送红包);一种是烂到不行,感觉智商受到侮辱必须奋起反击,揭不义于公众。
“如果无差别地统计色号,万一,有一款谁买谁骂的色号在统计中排名靠前,而我又向朋友们推荐了这款色号!!!这可是犯罪啊!”所以,小Z作为一个严谨的数据分析师,做色号之前先对评价进行清洗:
简单去噪,发现评价中有部分“此用户没有填写评论”,这一类无意义的评价必须剔除(其实还有一些是评价模板,朋友们自己尝试的时候可以细化,这里只是思路,暂不展开);
对每条评价情感打分,只留下偏正向(积极)的评价,再统计色号。
由于评价都是中文,小Z这次用了PYTHON中的SnowNLP库,用法很简单,举个例子:
sentiments方法返回的是一个0-1之间的情感分值,越接近1表明情感越积极,越靠近0则越消极。小Z批量对评价进行情感判定,剔除掉没有评论的评价,并且只留下分值大于等于0.6(偏积极)的结果:
经过清洗之后,10953条评价还剩9116条,看来口红绝大部分评价都是偏正向(炫耀)的。
三、数据分析
1、不同品牌色号数量分布:
从爆款产品色号数量来看,MAC可谓全面,评论中竟然涉及到50个色号。随后是DIOR的35个色号,YSL、纪梵希、雅诗兰黛色号数量比较接近,都在21左右。阿玛尼则比较高冷,只有15个色号供选择。但色号数量只能看一个总览,各品牌色号集中度是一个什么样的情况呢?
2、各品牌色号集中度:
通过各品牌TOP3色号占比和累计占比来分析色号集中度。
YSL、阿玛尼、雅诗兰黛TOP3色号累计占比非常之高,达到了90%左右,其中阿玛尼和雅诗兰黛以一个爆款色号俾睨天下,他俩TOP1色号占比高达73%+,YSL算是两驾马车并驾齐驱。MAC和纪梵希集中度在72%+,仍是依靠TOP1色号这个ADC的强大输出控场;DIOR呈现出百花齐放的态势,TOP3色号累计占比仅57.05%,TOP1、TOP2色号分布均匀,消费者在色号选择方面较为自主和独立。
3、最热门色号推荐:
啊!DIOR的999 MATTE,MAC的CHILI,YSL的N°1正宫色,阿玛尼的405番茄红,纪梵希的306还有雅诗兰黛的420#13玫瑰豆沙色。
写在最后
“结论如此一目了然,以至于不用再多分析了”。小Z流下了两行激动的泪水,不是因为他有亲人行车不规范,而是因为这一次针对口红品牌和色号的分析终于有了结论,这个过程积累的思路和技巧,还有结论带来的成就感,甚至比和女神相处还美妙。
小Z隐隐觉得这种美妙感有些不正常。这时,PYTHON编辑器突然响起了娇嗔的女声“讨厌!你每天和朋友说想找对象,为什么没有想起我这个对象呢!”......未完待续:)
本文主要针对特定品牌特定产品做了评价爬取和分析,感兴趣的朋友们可以结合自己兴趣去做分析,最后附上评论爬取和清洗代码抛砖引玉:
import requests
import pandas as pd
import os
import time
import json
from snownlp import SnowNLP
#定义一个解析单页评论内容的函数
def parse_page(url,headers,cookies):
result = pd.DataFrame()
html = requests.get(url,headers = headers,cookies = cookies)
bs = json.loads(html.text[25:-2])
#循环解析,结果放在result中
for i in bs['rateList']:
content = i['rateContent']
time = i['rateDate']
sku = i['auctionSku']
name = i['displayUserNick']
df = pd.DataFrame({'买家昵称':[name],'评论时间':[time],'内容':[content],'SKU':[sku]})
result = pd.concat([result,df])
return result
#构造网页,需要输入基准的网址和商品总评价数量
def format_url(base_url,num):
urls = []
#如果小于99页,则按照实际页数来循环构造
if (num / 20) < 99:
for i in range(1,int(num / 20) + 1):
url = base_url[:-1] + str(i)
urls.append(url)
#如果评论数量大于99页能容纳的,则按照99页来爬取
else:
for i in range(1,100):
url = base_url[:-1] + str(i)
urls.append(url)
#最终返回urls
return urls
#输入基准网页,以及有多少条评论
def main(url,num):
#定义一个存所有内容的变量
final_result = pd.DataFrame()
count = 1
#构造网页,循环爬取并存储结果
for u in format_url(url,num):
result = parse_page(u,headers = headers,cookies = cookies)
final_result = pd.concat([final_result,result])
print('正在疯狂爬取,已经爬取第 %d 页' % count)
#设置一个爱心的等待时间,文明爬取
count += 1
time.sleep(5.2)
print('为完成干杯!')
return final_result
#情感筛选,只留下大于等于0.6分值的结果
def filter_emotion(df,min_ = 0.6):
scores = []
#判断情感分值
for text in df['内容']:
ob = SnowNLP(text)
score = ob.sentiments
scores.append(score)
df_scores = pd.DataFrame({'情感分值':scores})
df.index = df_scores.index
result = pd.concat([df,df_scores],axis = 1)
#剔除掉没有评论的用户
result = result.loc[result['内容'].str.find('此用户没有填写评论') == -1,:]
#留下大于0.6的分值
result = result.loc[result['情感分值'] >= min_,:]
return result
if __name__ == "__main__":
#找到基准网址,在网页JS文件中找到填写就OK
url = 'https://rate.tmall.com/list_detail_rate.htm?itemId=585140124323&spuId=1136244482&sellerId=3102239719&order=3¤tPage=1'
#伪装headers按照实际情况填写
headers = {'User-Agnet':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',
'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
'Accept-Language': 'zh-CN,zh;q=0.8,en;q=0.6'}
#伪装cookies,最近反爬比较严,最好填入登录的值,并且文明爬取,设置合理的间隔时间
cookies = {'cookie':'这个地方输入自己的cookies'}
#最终执行,这个产品目前只有265条评价,大家根据实际情况酌情填写
df = main(url,num = 265)
#用情感分值来进行清洗
df = filter_emotion(df,min_ = 0.6)
#最后可以把结果存为excel文件的形式
#df.to_excel('XXXX.xlsx')
作者:周志鹏,2年数据分析,深切感受到数据分析的有趣和学习过程中缺少案例的无奈,遂新开公众号「数据不吹牛」,定期更新数据分析相关技巧和有趣案例(含实战数据集),欢迎大家关注交流。
声明:本文为作者投稿,版权归其个人所有。
热 文 推 荐
☞ 女神节该送程序媛什么礼物?保命指南来了!| 程序员有话说
☞ 窃取苹果 1TB 敏感数据,这个少年凭什么“全身而退”?
☞ 首发 | 旷视14篇CVPR 2019论文,都有哪些亮点?
☞ 两会第一天, 大佬们关于区块链的探讨, 你要了解的都在这了
print_r('点个好看吧!');
var_dump('点个好看吧!');
NSLog(@"点个好看吧!");
System.out.println("点个好看吧!");
console.log("点个好看吧!");
print("点个好看吧!");
printf("点个好看吧!\n");
cout << "点个好看吧!" << endl;
Console.WriteLine("点个好看吧!");
fmt.Println("点个好看吧!");
Response.Write("点个好看吧!");
alert("点个好看吧!")
echo "点个好看吧!"