- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我按预期使用map_async - 使用以下方法将可迭代映射到多个处理核心:
cores = mp.cpu_count()
pool = mp.Pool()
r = pool.map_async(func, offsets,callback=mycallback)
r.wait()
func
返回一个字典,因此回调使用以下方式“合并”字典:
ddict = defaultdict(set)
def mycallback(w):
for l in w:
for key, value in l.items():
for v in value:
ddict[key].add(v)
Offsets 是一个可迭代对象,我已经使用 1,000 - 50,000 个元素进行了测试。
如果我删除 r.wait()
,则无法返回 map_async
调用的所有输出。
使用r.wait()
,我发现处理时间既低于串行实现,又无法扩展,即并行实现在时间上呈指数级增长,而串行版本则线性增加.
我知道 func
非常昂贵,因为它在串行和并行中固定我的处理核心。
我在哪里使用map_async引入了开销?它不在回调函数中,因为删除并替换为 result.append
不会影响时间。
编辑评论:
我正在移动大型字典,范围从 1,000 到 100,000 个元素。该值通常是 3-5 个元素的集合。所以,酸洗肯定是一个问题。在不转移到共享内存中的情况下,人们会建议使用哪些替代数据结构?
apply_async
具有类似的回调,保存 for l in w
行,返回大致相同的结果。对于某些问题集,速度比 map_async 稍好,而对于其他问题集,速度稍差。使用托管字典和可连接队列的情况要糟糕得多。
一些时间测试。这是使用 2 个核心。当我添加额外的核心时,我看到指数增长,因此我只能假设该增长是由进程生成或酸洗返回数据引起的。
func
获取一个数据点并寻找邻居。对于所有情况,它都是相同的函数,除了需要传递偏移量来告诉并行代码要搜索哪些数据点之外。这本质上是一个 KDTree 搜索功能。
均匀分布
1,000 个数据点:序列 0.098659992218 | apply_async
0.120759010315 | map_async
0.080078125
10,000 个数据点<====== 仅通过并行进行改进 |序列号 0.507845163345 | apply_async
0.446543931961 | map_async
0.477811098099
随机分布
10,000 个数据点:序列 0.584854841232 | apply_async
1.03224301338 | map_async
0.948460817337
50,000 个数据点:序列 3.66075992584 | apply_async
4.95467185974 | map_async
5.37306404114
最佳答案
您可以更改 func()
以返回集合字典而不是列表字典吗?然后你的回调函数可以这样重写:
def mycallback(w):
for l in w:
for key, value in l.items():
ddict[key].update(value)
这应该有助于缩短串行和并行处理时间。
不幸的是,我认为@Dougal 在线程之间传递数据时对所有数据进行酸洗/取消酸洗是正确的。由于酸洗的开销,将二进制数据写入磁盘并再次读回可能比在内存中传递它更快。您可以使用如下格式:
key value1 value2 value3 ...
key2 valueA valueB valueC ...
...
应该易于编写和阅读。
关于python map_async,开销来自哪里?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16344815/
我有一个关于 map_async 的有趣问题,我无法弄清楚。 我正在使用带有进程池的 python 多处理库。我正在尝试传递要比较的字符串列表和要与使用 map_async() 的函数进行比较的字符串
我按预期使用map_async - 使用以下方法将可迭代映射到多个处理核心: cores = mp.cpu_count() pool = mp.Pool() r = pool.map_async(fu
我想跳过从 map_async 返回的结果.它们在内存中增长,但我不需要它们。 这是一些代码: def processLine(line): #process something pr
我有一个通过话语解析器运行的 80,000 个字符串的列表,为了提高这个过程的速度,我一直在尝试使用 python 多处理包。 解析器代码需要 python 2.7,我目前正在使用字符串的子集在 2
我使用 iPython 的并行处理工具进行大 map 操作。在等待 map 操作完成时,我想向用户显示有多少作业已完成,有多少正在运行,还有多少剩余。我怎样才能找到这些信息? 这是我的工作。我创建了一
我有以下功能 from multiprocessing import Pool def do_comparison(tupl): x, y = tupl # unpack arguments
调试代码花了我一晚上的时间,终于发现了这个棘手的问题。请看下面的代码。 from multiprocessing import Pool def myfunc(x): return [i fo
使用map和map_async有什么区别?将列表中的项目分配给 4 个进程后,它们是否运行相同的功能? 那么假设两者都异步且并行运行是错误的吗? def f(x): return 2*x p=P
在处理由 pool.map 调用的函数内的数据时,我遇到了非常奇怪的问题。例如,以下代码按预期工作... import csv import multiprocessing import iterto
阅读 multiprocessing.Pool doc我知道 map_async 和 apply_async 是 map 和 appy 的两个版本,应该更快,但是不保证输入的处理顺序与提供的顺序相同。
我正在尝试运行一个与 pool.apply_async 配合得很好的胖函数 现在,我正在尝试 pool.map_async 函数(使用 functools.partial 方法传递了 2 个参数),程
我正在将 800,000 行表读入数据帧。然后,我循环遍历每一列和列中的每一行,以收集统计信息,例如最大长度、最小长度、最大值、不同值等。 我可以使用 SLURM 访问 32 核计算,因此我想使用 p
尝试围绕执行 map_async() 的函数编写一些单元测试手术。更具体地说,我想确认在某个进程中发生异常时某些文件会被清理。下面提供了具有意图的示例伪代码。 foo.py def write_chu
我似乎无法在使用 map_async() 时让我的回调工作。当我使用稍微修改过的代码来循环遍历我的数组时,它会通过 apply_async() 添加任务。从文档看来我应该能够将回调与 map_asyn
我尝试在 python 中将多处理包与池一起使用。 我有一个由 map_async 函数调用的函数 f: from multiprocessing import Pool def f(host, x)
我想要一个长时间运行的进程通过队列(或类似的东西)返回它的进度,我将把它提供给进度条对话框。当过程完成时,我还需要结果。此处的测试示例失败并出现 RuntimeError: Queue objects
我这里有一个奇怪的问题。 我有一个 python 程序,它执行保存在单独的 .py 文件中的代码,这些代码被设计为依次执行,一个接一个。这些代码工作正常,但运行时间太长。我的计划是使用 multipr
因此,我正在开发一个应用程序,每次启动时都必须根据哈希列表检查约 50 GB 的数据。显然这需要并行化,我不希望应用程序在“正在加载...”屏幕上挂起一分半钟。 我正在使用 multiprocessi
我有这样的程序: from multiprocessing import Pool import time def f(x): # I make a heavy code here to take t
下面的代码在 Unix 上完美运行,但在 Windows 7 上生成一个 multiprocessing.TimeoutError(两个操作系统都使用 python 2.7)。 知道为什么吗?谢谢。
我是一名优秀的程序员,十分优秀!