gpt4 book ai didi

python - Pandas :DataFrame.mean() 非常慢。如何更快地计算列的均值?

转载 作者:太空狗 更新时间:2023-10-30 00:32:59 28 4
gpt4 key购买 nike

我有一个相当大的 CSV 文件,它包含 9917530 行(没有标题)和 54 列。列是实数或整数,只有一个包含日期。文件上有一些 NULL 值,在我将其加载到 pandas DataFrame 后,这些值被转换为 nan,我这样做是这样的:

import pandas as pd
data = pd.read_csv('data.csv')

加载后,我认为速度非常快,因为它花费了大约 30 秒(与使用 Unix 工具 wc 计算行数的时间几乎相同),该过程占用了大约 4Gb 的 RAM (磁盘上文件的大小:2.2 Gb。到目前为止一切顺利。

然后我尝试执行以下操作:

column_means = data.mean()

进程占用的内存很快增长到 ~22Gb。我还可以看到处理器(一个核心)非常非常忙——大约三个小时,之后我终止了进程,因为我需要使用机器做其他事情。我有一台运行 Linux 的速度相当快的 PC - 它有 2 个处理器,每个处理器有 4 个内核,所以它总共有 8 个内核,还有 32 Gb 的 RAM。我不敢相信计算列均值会花这么长时间。

谁能解释为什么 DataFrame.mean() 这么慢?更重要的是,有什么更好的方法来计算这样的文件列的均值?我是否没有以最佳方式加载文件,我应该使用不同的函数而不是 DataFrame.mean() 还是使用完全不同的工具?

非常感谢。

编辑。以下是 df.info() 显示的内容:

<class 'pandas.core.frame.DataFrame'>
Int64Index: 9917530 entries, 0 to 9917529
Data columns (total 54 columns):
srch_id 9917530 non-null values
date_time 9917530 non-null values
site_id 9917530 non-null values
visitor_location_country_id 9917530 non-null values
visitor_hist_starrating 505297 non-null values
visitor_hist_adr_usd 507612 non-null values
prop_country_id 9917530 non-null values
prop_id 9917530 non-null values
prop_starrating 9917530 non-null values
prop_review_score 9902900 non-null values
prop_brand_bool 9917530 non-null values
prop_location_score1 9917530 non-null values
prop_location_score2 7739150 non-null values
prop_log_historical_price 9917530 non-null values
position 9917530 non-null values
price_usd 9917530 non-null values
promotion_flag 9917530 non-null values
srch_destination_id 9917530 non-null values
srch_length_of_stay 9917530 non-null values
srch_booking_window 9917530 non-null values
srch_adults_count 9917530 non-null values
srch_children_count 9917530 non-null values
srch_room_count 9917530 non-null values
srch_saturday_night_bool 9917530 non-null values
srch_query_affinity_score 635564 non-null values
orig_destination_distance 6701069 non-null values
random_bool 9917530 non-null values
comp1_rate 235806 non-null values
comp1_inv 254433 non-null values
comp1_rate_percent_diff 184907 non-null values
comp2_rate 4040633 non-null values
comp2_inv 4251538 non-null values
comp2_rate_percent_diff 1109847 non-null values
comp3_rate 3059273 non-null values
comp3_inv 3292221 non-null values
comp3_rate_percent_diff 944007 non-null values
comp4_rate 620099 non-null values
comp4_inv 692471 non-null values
comp4_rate_percent_diff 264213 non-null values
comp5_rate 4444294 non-null values
comp5_inv 4720833 non-null values
comp5_rate_percent_diff 1681006 non-null values
comp6_rate 482487 non-null values
comp6_inv 524145 non-null values
comp6_rate_percent_diff 193312 non-null values
comp7_rate 631077 non-null values
comp7_inv 713175 non-null values
comp7_rate_percent_diff 277838 non-null values
comp8_rate 3819043 non-null values
comp8_inv 3960388 non-null values
comp8_rate_percent_diff 1225707 non-null values
click_bool 9917530 non-null values
gross_bookings_usd 276592 non-null values
booking_bool 9917530 non-null values
dtypes: float64(34), int64(19), object(1)None

最佳答案

这是一个类似大小的 from ,但没有对象列

In [10]: nrows = 10000000

In [11]: df = pd.concat([DataFrame(randn(int(nrows),34),columns=[ 'f%s' % i for i in range(34) ]),DataFrame(randint(0,10,size=int(nrows*19)).reshape(int(nrows),19),columns=[ 'i%s' % i for i in range(19) ])],axis=1)

In [12]: df.iloc[1000:10000,0:20] = np.nan

In [13]: df.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 10000000 entries, 0 to 9999999
Data columns (total 53 columns):
f0 9991000 non-null values
f1 9991000 non-null values
f2 9991000 non-null values
f3 9991000 non-null values
f4 9991000 non-null values
f5 9991000 non-null values
f6 9991000 non-null values
f7 9991000 non-null values
f8 9991000 non-null values
f9 9991000 non-null values
f10 9991000 non-null values
f11 9991000 non-null values
f12 9991000 non-null values
f13 9991000 non-null values
f14 9991000 non-null values
f15 9991000 non-null values
f16 9991000 non-null values
f17 9991000 non-null values
f18 9991000 non-null values
f19 9991000 non-null values
f20 10000000 non-null values
f21 10000000 non-null values
f22 10000000 non-null values
f23 10000000 non-null values
f24 10000000 non-null values
f25 10000000 non-null values
f26 10000000 non-null values
f27 10000000 non-null values
f28 10000000 non-null values
f29 10000000 non-null values
f30 10000000 non-null values
f31 10000000 non-null values
f32 10000000 non-null values
f33 10000000 non-null values
i0 10000000 non-null values
i1 10000000 non-null values
i2 10000000 non-null values
i3 10000000 non-null values
i4 10000000 non-null values
i5 10000000 non-null values
i6 10000000 non-null values
i7 10000000 non-null values
i8 10000000 non-null values
i9 10000000 non-null values
i10 10000000 non-null values
i11 10000000 non-null values
i12 10000000 non-null values
i13 10000000 non-null values
i14 10000000 non-null values
i15 10000000 non-null values
i16 10000000 non-null values
i17 10000000 non-null values
i18 10000000 non-null values
dtypes: float64(34), int64(19)

时间(与您相似的机器规范)

In [14]: %timeit df.mean()
1 loops, best of 3: 21.5 s per loop

您可以通过预转换为 float 获得 2 倍的加速(意味着这样做,但以更通用的方式进行,所以速度更慢)

In [15]: %timeit df.astype('float64').mean()
1 loops, best of 3: 9.45 s per loop

您的问题是对象列。 Mean 将尝试计算所有列,但由于对象列,所有内容都向上转换为 object dtype,这对于计算效率不高。

最好的办法是做

 df._get_numeric_data().mean()

numeric_only 有一个选项可以在较低级别执行此操作,但由于某些原因,我们不通过顶级函数(例如 mean)直接支持此操作。我认为添加此参数会产生问题。但是默认情况下可能为 False(不排除)。

关于python - Pandas :DataFrame.mean() 非常慢。如何更快地计算列的均值?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18701569/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com