从pandas中的这几个函数,我看懂了道家“一生二、二生三、三生万物”
导读
pandas是用python进行数据分析最好用的工具包,没有之一!从数据读写到预处理、从数据分析到可视化,pandas提供了一站式服务。而其中的几个聚合统计函数,不仅常用更富有辩证思想,细品之下不禁让人拍手称快、直呼叫好!
number of unique,用于统计各列数据的唯一值个数,相当于SQL语句中的count(distinct **)用法。nunique()既适用于一维的Series也适用于二维的DataFrame,但一般用于Series较多,此时返回一个标量数值,表示该series中唯一值的个数。
nunique用于统计唯一值个数,而unique则用于统计唯一值结果序列。接收一个series类型作为输入,返回一个去重后的一维ndarray对象作为输出。
正因为各列的返回值是一个ndarray,而对于一个dataframe对象各列的唯一值ndarray长度可能不一致,此时无法重组成一个二维ndarray,从这个角度可以理解unique不适用于dataframe的原因。
如果说unique可以返回唯一值结果的话,那么value_counts则在其基础上进一步统计各唯一值出现的个数;类似的,unique返回一个无标签的一维ndarray作为结果,与之对应value_counts则返回一个有标签的一维series作为结果。
如果说前面的三个函数主要适用于pandas中的一维数据结构series的话(nunique也可用于dataframe),那么接下来的这两个函数则是应用于二维dataframe。
普通聚合函数mean和agg的用法区别是,前者适用于单一的聚合需求,例如对所有列求均值或对所有列求和等;而后者适用于差异化需求,例如A列求和、B列求最值、C列求均值等等。
pivot_table是pandas中用于实现数据透视表功能的函数,与Excel中相关用法如出一辙。
何为数据透视表?数据透视表本质上仍然数据分组聚合的一种,只不过是以其中一列的唯一值结果作为行、另一列的唯一值结果作为列,然后对其中任意(行,列)取值坐标下的所有数值进行聚合统计,就好似完成了数据透视一般。
在以上参数中,最重要的有4个:
values:用于透视统计的对象列名
index:透视后的行索引所在列名
columns:透视后的列索引所在列名
aggfunc:透视后的聚合函数,默认是求均值
aggfunc默认是求均值函数'mean'
分组后如不加['成绩']则也可返回dataframe结果
从结果可以发现,与用groupby进行分组统计的结果很是相近,不同的是groupby返回对象是2个维度,而pivot_table返回数据格式则更像是包含3个维度。
既然二者如此相似,那么是否可以实现相互转换呢?答案是肯定的!
stack和unstack可以实现在如上两种数据结果中相互变换。从名字上直观理解:
stack用于堆栈,所以是将3维数据堆成2维
unstack用于解堆,所以可将2维数据解堆成3维
pivot_table+stack=groupby
类似地,对groupby分组聚合结果进行unstack,结果如下:
groupby+unstack=pivot_table
看到这里,会不会有种顿悟的感觉:麻雀虽小,玩转的却是整个天空;pandas接口有限,阐释的却有道家思想:一生二、二生三、三生万物……
相关阅读: