提升效率,这十个Pandas技巧必不可少!
译者 | 风车云马
责编 | Jane
出品 | Python大本营(ID:pythonnews)
【导语】Pandas 是一个被广泛使用,用于处理结构化数据的 Python 包。虽然已经有很多优质的教程供大家学习,但这次我还是想给大家介绍一些很酷的、可能还不为大家熟悉的技巧,我相信这些小技巧会提升大家处理数据时的效率。
1、read_csv
大家都知道这个命令。但是,如果你要读取的数据量很大时,你可以尝试使用一下这个参数:nrows = 5。在实际加载整个数据表之前,只读取表的一小部分。然后,您可以快速发现一些问题,避免使用错误的分隔符 (表并不都是用逗号分隔)。
或者,您可以在 Linux 中使用 head 命令检查任何文本的前 5 行(比如:head - c5 data.txt)
然后,可以使用 df.columns.tolist() 提取所有列,使用 usecols = [' c1 ', ' c2 ',…] 参数来加载所需的列。此外,如果你知道特定列的数据类型,还可以通过添加参数 dtype = {' c1 ': str, ' c2 ': int,…},这样加载速度会更快。这个类型参数的另一个优点是,如果同时存在包含字符串和数字的列,那么将类型作以声明是一个很好的方法,当使用该列作为 key 合并表时就不会出现错误。
2、select_dtypes
在使用 Python 做数据预处理时,这个命令会帮你节省时间。在读取表后,每列的默认数据类型可以是 bool、int64、float64、object、category、timedelta64 或者datetime64。你可以先用该命令获取所有数据类型:
df.dtypes.value_counts()
然后执行以下操作,选择所需特征的子数据集。
df.select_dtypes(include=[‘float64’, ‘int64’])
3、copy
这是一个非常重要的命令。如果你执行以下命令:
import pandas as pd
df1 = pd.DataFrame({ ‘a’:[0,0,0], ‘b’: [1,1,1]})
df2 = df1
df2[‘a’] = df2[‘a’] + 1
df1.head()
会发现 df1 发生了变化。这是因为 df2 = df1 不是复制 df1 并将其赋值给df2,而是设置一个指向 df1 的指针。所以 df2 的任何变化都会导致 df1的变化。要解决这个问题,可以使用下面的两种方法:
df2 = df1.copy()
或者
from copy import deepcopy
df2 = deepcopy(df1)
4、map
这是实现简单数据的转换中一个很 cool 的方法。首先定义一个字典,其中' keys '是旧值,' values '是新值。
level_map = {1: ‘high’, 2: ‘medium’, 3: ‘low’}
df[‘c_level’] = df[‘c’].map(level_map)
5、apply
如果我们想通过输入其他一些列值来创建一个新列,那么 apply 函数会非常有用。
def rule(x, y):
if x == ‘high’ and y > 10:
return 1
else:
return 0
df = pd.DataFrame({ 'c1':[ 'high' ,'high', 'low', 'low'], 'c2': [0, 23, 17, 4]})
df['new'] = df.apply(lambda x: rule(x['c1'], x['c2']), axis = 1)
df.head()
在上面的代码中,我们定义了一个(x,y)二输入变量的函数,并使用apply 函数将其应用于“c1”列和“c2”列。
但问题是,apply 方法有时候太慢了。比如,你想计算两列“c1”和“c2”的最大值,可以这样做:
df[‘maximum’] = df.apply(lambda x: max(x[‘c1’], x[‘c2’]), axis = 1)
但是它比下面的这个命令慢得多:
df[‘maximum’] = df[[‘c1’,’c2']].max(axis =1)
注意:如果能用其他内置函数完成相同的程序,就尽量不要用 apply,因为内置函数通常更快。例如,想要将列' c '四舍五入为整数,可以使用 round(df[‘c’], 0),而不是 apply 函数。
6、value counts
这是一个统计查看值分布情况的命令。如果您想看一下“c”列中有多少不同的值,以及每个值出现的频率,可以这样做:
df[‘c’].value_counts()
下面还给大家总结了一些有用的技巧:
A. normalize = True:此句用于检查频率而不是计数。
B. dropna = False:可以在统计中包含缺失值。
C. sort = False:统计信息按值排序而不是按计数排序。
D. df[‘c].value_counts().reset_index():将统计表转换为 panda 数据表再处理。
7、缺失值统计
在构建模型时,如果想要排除缺失值或有缺失值所属的行,可以使用.isnull() 和 .sum() 来处理。
import pandas as pd
import numpy as np
df = pd.DataFrame({ ‘id’: [1,2,3], ‘c1’:[0,0,np.nan], ‘c2’: [np.nan,1,1]})
df = df[[‘id’, ‘c1’, ‘c2’]]
df[‘num_nulls’] = df[[‘c1’, ‘c2’]].isnull().sum(axis=1)
df.head()
8、选择具有特定 id 的行
在SQL中,我们可以使用 SELECT * FROM … WHERE ID in (‘A001’, ‘C022’, …) 来获取具有特定 ID 的记录。在 Pandas 中你可以这么做:
df_filter = df[‘ID’].isin([‘A001’,‘C022’,...])
df[df_filter]
9、分组:按照百分比
给一个数值列,希望对该列中的值进行分组,比如前 5% 的值分为 组1,5% - 20% 的值分为 组2,20% -50% 的值分为 组3,剩余 50% 的值分为组4。当然 Pandas 有很多种方法,但在这里提供一种新方法,其运行速度会很快(因为没有使用 apply 函数):
import numpy as np
cut_points = [np.percentile(df[‘c’], i) for i in [50, 80, 95]]
df[‘group’] = 1
for i in range(3):
df[‘group’] = df[‘group’] + (df[‘c’] < cut_points[i])
10、to_csv
这是一个大家都会用到的通用的命令。不过我会再单独指出两个使用技巧,第一个是:
print(df[:5].to_csv())
此命令可以准确地打印出将要写入文件的前五行数据。
另一个技巧是 float_format=‘%.0f’。
用于处理整数值和空缺值混合在一起的情况。如果一列同时包含缺失值和整数值,那么写入的数据类型仍然是 float 而不是 int 型。在导出数据表时,可以通过添加 float_format=‘%.0f’ 将所有浮点数四舍五入为整数。如果希望所有列输出的都是整数,那么这个技巧也可以帮你摆脱烦人的 ‘.0’ 格式。
上面的这十个技巧并不是新出现的,也许你也曾在处理数据过程中使用了它们,不过如何可以更巧妙地使用,希望这篇文章给大家新的 idea,下次项目时可以验证一下是否好用,也欢迎大家与我们交流你的经验。
原文链接:
https://towardsdatascience.com/10-python-pandas-tricks-that-make-your-work-more-efficient-2e8e483808ba
(*本文为Python大本营翻译文章,转载请联系微信1092722531)
◆
2019Python开发者日
◆
4月13-14日,CSDN将在北京主办“Python开发者日(2019)”,汇聚十余位来自阿里巴巴、IBM、英伟达等国内外一线科技公司的Python技术专家,还有数百位来自各行业领域的Python开发者,共同探讨Python在不同场景下的的应用优势和实战经验。
目前演讲嘉宾议题已确认,扫描海报二维码,即刻抢购7折优惠票价!更多详细信息请咨询13581782348(微信同号)。
你也可以点击阅读原文,查看大会详情。