gpt4 book ai didi

python - 在 Pandas DataFrame 中的所有行上运行基于 numpy 的函数的快速替代方法

转载 作者:太空狗 更新时间:2023-10-29 18:19:08 24 4
gpt4 key购买 nike

我有一个按以下方式创建的 Pandas 数据框:

import pandas as pd
def create(n):
df = pd.DataFrame({ 'gene':["foo",
"bar",
"qux",
"woz"],
'cell1':[433.96,735.62,483.42,10.33],
'cell2':[94.93,2214.38,97.93,1205.30],
'cell3':[1500,90,100,80]})
df = df[["gene","cell1","cell2","cell3"]]
df = pd.concat([df]*n)
df = df.reset_index(drop=True)
return df

看起来像这样:

In [108]: create(1)
Out[108]:
gene cell1 cell2 cell3
0 foo 433.96 94.93 1500
1 bar 735.62 2214.38 90
2 qux 483.42 97.93 100
3 woz 10.33 1205.30 80

然后我有一个函数获取每个基因(行)的值计算某个分数:

enter image description here

import numpy as np 
def sparseness(xvec):
n = len(xvec)
xvec_sum = np.sum(np.abs(xvec))
xvecsq_sum = np.sum(np.square(xvec))

denom = np.sqrt(n) - (xvec_sum / np.sqrt(xvecsq_sum))
enum = np.sqrt(n) - 1
sparseness_x = denom/enum

return sparseness_x

实际上,我需要在 40K 多行上应用此函数。目前它正在运行使用 Pandas 'apply' 非常慢:

In [109]: df = create(10000)
In [110]: express_df = df.ix[:,1:]
In [111]: %timeit express_df.apply(sparseness, axis=1)
1 loops, best of 3: 8.32 s per loop

实现它的更快替代方案是什么?

最佳答案

一种更快的方法是实现该函数的矢量化版本,它直接在二维 ndarray 上运行。这是非常可行的,因为 numpy 中的许多函数可以在二维 ndarray 上运行,使用 axis 参数控制。一个可能的实现:

def sparseness2(xs):
nr = np.sqrt(xs.shape[1])
a = np.sum(np.abs(xs), axis=1)
b = np.sqrt(np.sum(np.square(xs), axis=1))
sparseness = (nr - a/b) / (nr - 1)
return sparseness

res_arr = sparseness2(express_df.values)
res2 = pd.Series(res_arr, index=express_df.index)

一些测试:

from pandas.util.testing import assert_series_equal
res1 = express_df.apply(sparseness, axis=1)
assert_series_equal(res1, res2) #OK
%timeit sparseness2(express_df.values)
# 1000 loops, best of 3: 655 µs per loop

关于python - 在 Pandas DataFrame 中的所有行上运行基于 numpy 的函数的快速替代方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33931933/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com