如何根据 Pandas 中某些列中的值从 DataFrame
中选择行?
在 SQL 中,我会使用:
SELECT *
FROM table
WHERE column_name = some_value
原文由 szli 发布,翻译遵循 CC BY-SA 4.0 许可协议
有几种方法可以从 Pandas 数据框中选择行:
df[df['col'] == value
])df.iloc[...]
)df.xs(...)
)df.query(...)
API下面我将向您展示每种方法的示例,以及何时使用某些技术的建议。假设我们的标准是列 'A'
== 'foo'
(关于性能的注意事项:对于每个基本类型,我们可以使用 Pandas API 使事情变得简单,或者我们可以在 API 之外冒险,通常是进入 NumPy,并加快速度。)
设置
我们需要做的第一件事是确定一个条件,它将作为我们选择行的标准。我们将从 OP 的案例 column_name == some_value
开始,并包括一些其他常见用例。
从@unutbu借用:
import pandas as pd, numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
'B': 'one one two three two two one three'.split(),
'C': np.arange(8), 'D': np.arange(8) * 2})
…布尔索引需要找到每行的真值 'A'
列等于 'foo'
,然后使用这些真值来确定要保留的行。通常,我们将这个系列命名为真值数组 mask
。我们也会在这里这样做。
mask = df['A'] == 'foo'
然后我们可以使用这个掩码对数据帧进行切片或索引
df[mask]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
这是完成此任务的最简单方法之一,如果性能或直观性不是问题,这应该是您选择的方法。但是,如果性能是一个问题,那么您可能需要考虑另一种创建 mask
的方法。
位置索引 ( df.iloc[...]
) 有它的用例,但这不是其中之一。为了确定切片的位置,我们首先需要执行与上面相同的布尔分析。这使我们需要执行一个额外的步骤来完成相同的任务。
mask = df['A'] == 'foo'
pos = np.flatnonzero(mask)
df.iloc[pos]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
标签 索引可以非常方便,但在这种情况下,我们又做了更多没有好处的工作
df.set_index('A', append=True, drop=False).xs('foo', level=1)
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
df.query()
APIpd.DataFrame.query
是执行此任务的一种非常优雅/直观的方式,但通常速度较慢。 但是,如果注意下面的时序,对于大数据,查询是非常高效的。比标准方法更重要,并且与我的最佳建议具有相似的规模。
df.query('A == "foo"')
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
我的偏好是使用 Boolean
mask
可以通过修改我们创建 Boolean
mask
的方式来进行实际改进。
mask
替代方案 1 使用底层 NumPy 数组并放弃创建另一个数组的开销 pd.Series
mask = df['A'].values == 'foo'
我将在最后展示更完整的时间测试,但只看一下我们使用示例数据框获得的性能提升。首先,我们看看创建 mask
的区别
%timeit mask = df['A'].values == 'foo'
%timeit mask = df['A'] == 'foo'
5.84 µs ± 195 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
166 µs ± 4.45 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
使用 NumPy 数组评估 mask
快约 30 倍。这部分是由于 NumPy 评估通常更快。部分原因还在于缺少构建索引和相应的 pd.Series
对象所需的开销。
接下来,我们将看看用一个 mask
与另一个进行切片的时间。
mask = df['A'].values == 'foo'
%timeit df[mask]
mask = df['A'] == 'foo'
%timeit df[mask]
219 µs ± 12.3 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
239 µs ± 7.03 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
性能提升并不那么明显。我们将看看这是否可以通过更强大的测试。
mask
替代方案 2 我们也可以重建数据框。重建数据帧时有一个很大的警告——你必须注意 dtypes
这样做!
而不是 df[mask]
我们将这样做
pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)
如果数据框是混合类型,我们的示例就是这样,那么当我们得到 df.values
得到的数组是 dtype
object
的所有列新的数据框将是 dtype
object
。因此需要 astype(df.dtypes)
并杀死任何潜在的性能提升。
%timeit df[m]
%timeit pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)
216 µs ± 10.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
1.43 ms ± 39.6 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
但是,如果数据框不是混合类型,这是一种非常有用的方法。
鉴于
np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))
d1
A B C D E
0 0 2 7 3 8
1 7 0 6 8 6
2 0 2 0 4 9
3 7 3 2 4 3
4 3 6 7 7 4
5 5 3 7 5 9
6 8 7 6 4 7
7 6 2 6 6 5
8 2 8 7 5 8
9 4 7 6 1 5
%%timeit
mask = d1['A'].values == 7
d1[mask]
179 µs ± 8.73 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
相对
%%timeit
mask = d1['A'].values == 7
pd.DataFrame(d1.values[mask], d1.index[mask], d1.columns)
87 µs ± 5.12 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
我们把时间缩短了一半。
mask
备选方案 3
@unutbu 还向我们展示了如何使用 pd.Series.isin
来说明 df['A']
的每个元素都在一组值中。如果我们的一组值是一组一个值,即 'foo'
,那么这会得出相同的结果。但如果需要,它也可以概括为包含更大的值集。事实证明,即使它是一个更通用的解决方案,它仍然非常快。对于那些不熟悉这个概念的人来说,唯一真正的损失是直观性。
mask = df['A'].isin(['foo'])
df[mask]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
然而,和以前一样,我们可以利用 NumPy 来提高性能,同时几乎不牺牲任何东西。我们将使用 np.in1d
mask = np.in1d(df['A'].values, ['foo'])
df[mask]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
定时
我将包括其他帖子中提到的其他概念,以供参考。
下面的代码
此表中的每一 列 代表一个不同长度的数据帧,我们在其上测试每个函数。每列显示所用的相对时间,最快的函数给定基本索引 1.0
。
res.div(res.min())
10 30 100 300 1000 3000 10000 30000
mask_standard 2.156872 1.850663 2.034149 2.166312 2.164541 3.090372 2.981326 3.131151
mask_standard_loc 1.879035 1.782366 1.988823 2.338112 2.361391 3.036131 2.998112 2.990103
mask_with_values 1.010166 1.000000 1.005113 1.026363 1.028698 1.293741 1.007824 1.016919
mask_with_values_loc 1.196843 1.300228 1.000000 1.000000 1.038989 1.219233 1.037020 1.000000
query 4.997304 4.765554 5.934096 4.500559 2.997924 2.397013 1.680447 1.398190
xs_label 4.124597 4.272363 5.596152 4.295331 4.676591 5.710680 6.032809 8.950255
mask_with_isin 1.674055 1.679935 1.847972 1.724183 1.345111 1.405231 1.253554 1.264760
mask_with_in1d 1.000000 1.083807 1.220493 1.101929 1.000000 1.000000 1.000000 1.144175
您会注意到最快的时间似乎在 mask_with_values
和 mask_with_in1d
之间共享。
res.T.plot(loglog=True)
职能
def mask_standard(df):
mask = df['A'] == 'foo'
return df[mask]
def mask_standard_loc(df):
mask = df['A'] == 'foo'
return df.loc[mask]
def mask_with_values(df):
mask = df['A'].values == 'foo'
return df[mask]
def mask_with_values_loc(df):
mask = df['A'].values == 'foo'
return df.loc[mask]
def query(df):
return df.query('A == "foo"')
def xs_label(df):
return df.set_index('A', append=True, drop=False).xs('foo', level=-1)
def mask_with_isin(df):
mask = df['A'].isin(['foo'])
return df[mask]
def mask_with_in1d(df):
mask = np.in1d(df['A'].values, ['foo'])
return df[mask]
测试
res = pd.DataFrame(
index=[
'mask_standard', 'mask_standard_loc', 'mask_with_values', 'mask_with_values_loc',
'query', 'xs_label', 'mask_with_isin', 'mask_with_in1d'
],
columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
dtype=float
)
for j in res.columns:
d = pd.concat([df] * j, ignore_index=True)
for i in res.index:a
stmt = '{}(d)'.format(i)
setp = 'from __main__ import d, {}'.format(i)
res.at[i, j] = timeit(stmt, setp, number=50)
特别时机
看看当我们有一个非对象 dtype
整个数据帧时的特殊情况。
下面的代码
spec.div(spec.min())
10 30 100 300 1000 3000 10000 30000
mask_with_values 1.009030 1.000000 1.194276 1.000000 1.236892 1.095343 1.000000 1.000000
mask_with_in1d 1.104638 1.094524 1.156930 1.072094 1.000000 1.000000 1.040043 1.027100
reconstruct 1.000000 1.142838 1.000000 1.355440 1.650270 2.222181 2.294913 3.406735
事实证明,重建超过几百行是不值得的。
spec.T.plot(loglog=True)
职能
np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))
def mask_with_values(df):
mask = df['A'].values == 'foo'
return df[mask]
def mask_with_in1d(df):
mask = np.in1d(df['A'].values, ['foo'])
return df[mask]
def reconstruct(df):
v = df.values
mask = np.in1d(df['A'].values, ['foo'])
return pd.DataFrame(v[mask], df.index[mask], df.columns)
spec = pd.DataFrame(
index=['mask_with_values', 'mask_with_in1d', 'reconstruct'],
columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
dtype=float
)
测试
for j in spec.columns:
d = pd.concat([df] * j, ignore_index=True)
for i in spec.index:
stmt = '{}(d)'.format(i)
setp = 'from __main__ import d, {}'.format(i)
spec.at[i, j] = timeit(stmt, setp, number=50)
原文由 piRSquared 发布,翻译遵循 CC BY-SA 4.0 许可协议
1 回答9.7k 阅读✓ 已解决
2 回答5.4k 阅读✓ 已解决
2 回答3.7k 阅读✓ 已解决
3 回答4.5k 阅读
3 回答1.5k 阅读✓ 已解决
4 回答1.5k 阅读✓ 已解决
4 回答1.7k 阅读✓ 已解决
要选择列值等于标量的行
some_value
,请使用==
:要选择列值在可迭代
some_values
中的行,请使用isin
:将多个条件与
&
结合起来:注意括号。由于 Python 的 运算符优先规则,
&
比<=
和>=
--- 绑定得更紧密。因此,最后一个示例中的括号是必要的。没有括号被解析为
这导致 Series 的 Truth value is ambiguous error 。
要选择列值 不等于
some_value
的行,请使用!=
:isin
返回一个布尔系列,因此要选择值 不在some_values
中的行,使用~
否定布尔系列:例如,
产量
如果您要包含多个值,请将它们放在一个列表中(或更一般地说,任何可迭代的)并使用
isin
:产量
但是请注意,如果您希望多次执行此操作,首先创建索引,然后使用
df.loc
会更有效:产量
或者,要包含索引中的多个值,请使用
df.index.isin
:产量