- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我希望并行化 numpy 或 pandas 操作。为此,我一直在研究 pydata 的 blaze。 .我的理解是无缝并行化是它的主要卖点。
不幸的是,我一直无法找到运行在多个内核上的操作。 blaze 中的并行处理是否可用或目前只是一个既定目标?难道我做错了什么?我正在使用 blaze v0.6.5。
我希望并行化的一个函数示例:(pytables 列的重复数据删除太大而无法放入内存)
import pandas as pd
import blaze as bz
def f1():
counter = 0
groups = pd.DataFrame(columns=['name'])
t = bz.TableSymbol('t', '{name: string}')
e = bz.distinct(t)
for chunk in store.select('my_names', columns=['name'],
chunksize=1e5):
counter += 1
print('processing chunk %d' % counter)
groups = pd.concat([groups, chunk])
groups = bz.compute(e, groups)
我在遵循 Phillip 的示例时遇到了问题:
In [1]: from blaze import Data, compute
In [2]: d = Data('test.bcolz')
In [3]: d.head(5)
Out[3]: <repr(<blaze.expr.collections.Head at 0x7b5e300>) failed: NotImplementedError: Don't know how to compute:
expr: _1.head(5).head(11)
data: {_1: ctable((8769257,), [('index', '<i8'), ('date', 'S10'), ('accessDate', 'S26')])
nbytes: 367.97 MB; cbytes: 35.65 MB; ratio: 10.32
cparams := cparams(clevel=5, shuffle=True, cname='blosclz')
rootdir := 'test.bcolz'
[(0L, '2014-12-12', '2014-12-14T17:39:19.716000')
(1L, '2014-12-11', '2014-12-14T17:39:19.716000')
(2L, '2014-12-10', '2014-12-14T17:39:19.716000') ...,
(1767L, '2009-11-11', '2014-12-15T13:32:39.906000')
(1768L, '2009-11-10', '2014-12-15T13:32:39.906000')
(1769L, '2009-11-09', '2014-12-15T13:32:39.906000')]}>
我的环境:
C:\Anaconda>conda list blaze
# packages in environment at C:\Anaconda:
#
blaze 0.6.8 np19py27_69
但是请注意,blaze 似乎报告了一个错误的版本:
In [5]: import blaze
In [6]: blaze.__version__
Out[6]: '0.6.7'
对于其他数据源,blaze 似乎可以工作:
In [6]: d = Data([1,2,2,2,3,4,4,4,5,6])
In [7]: d.head(5)
Out[7]:
_2
0 1
1 2
2 2
3 2
4 3
In [16]: list(compute(d._2.distinct()))
Out[16]: [1, 2, 3, 4, 5, 6]
最佳答案
注意:下面的例子需要最新版本的blaze
,你可以通过
conda install -c blaze blaze
您还需要最新版本的新生 into
项目。你需要从 master
安装 into
,你可以用它来做
pip install git+git://github.com/ContinuumIO/into.git
您不能使用任意 后端进行“无缝”并行化,但是bcolz
后端以一种很好的方式支持并行化。这是 NYC Taxi trip/fare dataset 的示例
注意:我已将行程和票价数据集合并为一个数据集。数据集中有173,179,759行
In [28]: from blaze import Data, compute
In [29]: ls -d *.bcolz
all.bcolz/ fare.bcolz/ trip.bcolz/
In [30]: d = Data('all.bcolz')
In [31]: d.head(5)
Out[31]:
medallion hack_license \
0 89D227B655E5C82AECF13C3F540D4CF4 BA96DE419E711691B9445D6A6307C170
1 0BD7C8F5BA12B88E0B67BED28BEA73D8 9FD8F69F0804BDB5549F40E9DA1BE472
2 0BD7C8F5BA12B88E0B67BED28BEA73D8 9FD8F69F0804BDB5549F40E9DA1BE472
3 DFD2202EE08F7A8DC9A57B02ACB81FE2 51EE87E3205C985EF8431D850C786310
4 DFD2202EE08F7A8DC9A57B02ACB81FE2 51EE87E3205C985EF8431D850C786310
vendor_id rate_code store_and_fwd_flag pickup_datetime \
0 CMT 1 N 2013-01-01 15:11:48
1 CMT 1 N 2013-01-06 00:18:35
2 CMT 1 N 2013-01-05 18:49:41
3 CMT 1 N 2013-01-07 23:54:15
4 CMT 1 N 2013-01-07 23:25:03
dropoff_datetime passenger_count trip_time_in_secs trip_distance \
0 2013-01-01 15:18:10 4 382 1.0
1 2013-01-06 00:22:54 1 259 1.5
2 2013-01-05 18:54:23 1 282 1.1
3 2013-01-07 23:58:20 2 244 0.7
4 2013-01-07 23:34:24 1 560 2.1
... pickup_latitude dropoff_longitude dropoff_latitude \
0 ... 40.757977 -73.989838 40.751171
1 ... 40.731781 -73.994499 40.750660
2 ... 40.737770 -74.009834 40.726002
3 ... 40.759945 -73.984734 40.759388
4 ... 40.748528 -74.002586 40.747868
tolls_amount tip_amount total_amount mta_tax fare_amount payment_type \
0 0 0 7.0 0.5 6.5 CSH
1 0 0 7.0 0.5 6.0 CSH
2 0 0 7.0 0.5 5.5 CSH
3 0 0 6.0 0.5 5.0 CSH
4 0 0 10.5 0.5 9.5 CSH
surcharge
0 0.0
1 0.5
2 1.0
3 0.5
4 0.5
[5 rows x 21 columns]
要添加基于进程的并行性,我们从 multiprocessing
stdlib 模块中引入 Pool
类,并传递 Pool
实例的 map
方法作为 compute
的关键字参数:
In [32]: from multiprocessing import Pool
In [33]: p = Pool()
In [34]: %timeit -n 1 -r 1 values = compute(trip.medallion.distinct())
1 loops, best of 1: 1min per loop
In [35]: %timeit -n 1 -r 1 values = compute(trip.medallion.distinct(), map=p.map)
1 loops, best of 1: 16.2 s per loop
因此,多一行代码大约可以提速 3 倍。请注意,这是一个字符串列,与其他类型相比,这些列的效率往往很低。在整数列上计算的 distinct
表达式在使用多核时大约 1 秒(vs 3 秒)完成(因此,运行时间的改进大致相同):
In [38]: %timeit -n 1 -r 1 values = compute(trip.passenger_count.distinct())
1 loops, best of 1: 3.33 s per loop
In [39]: %timeit -n 1 -r 1 values = compute(trip.passenger_count.distinct(), map=p.map)
1 loops, best of 1: 1.01 s per loop
关于python - pydata 火焰 : does it allow parallel processing or not?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27505764/
我在一些地方读到了 PyData(例如 here),但我仍然对这个术语的真正含义感到困惑。 PyData 是官方实体吗? (例如,是否有拥有/支持 PyData.org 的基金会?)。这只是一个 se
我发现 blaze 生态系统* 令人惊叹,因为它涵盖了大多数数据工程用例。在 2015-2016 年期间,这些项目肯定有很多兴趣,但最近被忽略了。我这样说是看 github repos 上的提交。 所
我希望并行化 numpy 或 pandas 操作。为此,我一直在研究 pydata 的 blaze。 .我的理解是无缝并行化是它的主要卖点。 不幸的是,我一直无法找到运行在多个内核上的操作。 blaz
我是一名优秀的程序员,十分优秀!