- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
这可能是一个非常愚蠢的问题,但我没有找到任何文档可以完美地回答这个问题。我正在尝试熟悉 python 上的 multiprocessing
库尝试使用 multiprocessing.Pool
进行滑翔任务。我通过以下方式启动池中的进程数:池(进程=nmbr_of_processes)
。问题是我不明白这些过程是如何减少工作持续时间的。我写了一个脚本来评估它。
def test_operation(y):
sum = 0
for x in range(1000):
sum += y*x
def main():
time1 = time.time()
p = mp.Pool(processes=2)
result = p.map(test_operation, range(100000))
p.close()
p.join()
print('Parallel tooks {} seconds'.format(time.time() - time1))
final = list()
time2 = time.time()
for y in range(100000):
final.append(test_operation(y))
print('Serial tooks {} seconds'.format(time.time() - time2))
问题是,当我将 2 个进程与 mp.Pool(processes=2)
一起使用时,我通常会得到:
Parallel took 5.162384271621704 seconds
Serial took 9.853888034820557 seconds
如果我使用更多进程,比如 p = mp.Pool(processes=4)
我得到:
Parallel took 6.404058218002319 seconds
Serial took 9.667300701141357 seconds
我正在使用 MacMini DualCore i7 3Ghz。我知道我无法将工作持续时间减少到连续工作所需时间的一半。但我不明白为什么与使用 2 个进程的工作相比,添加更多进程会增加工作持续时间。如果根据 CPU 启动最佳进程数,那会是多少?
最佳答案
这里要注意的是,这适用于 CPU 密集型任务;您的代码占用大量 CPU。首先要做的是检查你有多少理论核心:
import multiprocessing as mp
print(mp.cpu_count())
对于像这样的受 CPU 限制的任务,创建一个工作线程数多于理论内核数的池不会带来任何好处。如果您没有指定 Pool
的大小,它将默认返回到这个数字。但是,这忽略了其他事情;您的代码不是您的操作系统必须运行的唯一东西。
如果您启动与理论核心一样多的进程,系统别无选择,只能定期中断您的进程以保持运行,因此您可能会受到性能影响。你不能独占所有核心。这里的一般经验法则是池大小为 cpu_count() - 1
,这样操作系统就有一个核心可以免费用于其他进程。
我很惊讶地发现我找到的其他答案没有提到这个一般规则;它似乎仅限于评论等。但是,您自己的测试表明它适用于您案例中的性能,因此是确定池大小的合理启发式方法。
关于python - multiprocessing - 进程数对处理时间的影响,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50920203/
我正在尝试使用多处理和队列实现生产者-消费者场景;主进程是生产者,两个子进程使用队列中的数据。这在没有任何异常 发生的情况下有效,但问题是我希望能够在工作人员死亡时重新启动他们(kill -9 wor
我试图在一个管理进程下启动一个数据队列服务器(这样它以后可以变成一个服务),虽然数据队列服务器功能在主进程中工作正常,但它在一个进程中不起作用使用 multiprocessing.Process 创建
我的多处理需求非常简单:我从事机器学习工作,有时我需要评估多个数据集中的一个算法,或者一个数据集中的多个算法,等等。我只需要运行一个带有一些参数的函数并获取一个数字。 我不需要 RPC、共享数据,什么
创建进程池或简单地遍历一个进程以创建更多进程之间有任何区别(以任何方式)吗? 这有什么区别?: pool = multiprocessing.Pool(5) pool.apply_async(work
multiprocessing.BoundedSemaphore(3) 与 multiprocessing.Sempahore(3) 有何不同? 我希望 multiprocessing.Bounded
我尝试通过 multiprocessing 包中的 Queue 对 Pipe 的速度进行基准测试。我认为 Pipe 会更快,因为 Queue 在内部使用 Pipe。 奇怪的是,Pipe 在发送大型 n
我有这样一个简单的任务: def worker(queue): while True: try: _ = queue.get_nowait()
我正在尝试编写一个与 multiprocessing.Pool 同时应用函数的应用程序。我希望这个函数成为一个实例方法(所以我可以在不同的子类中以不同的方式定义它)。这似乎是不可能的;正如我在其他地方
在 python 2 中,multiprocessing.dummy.Pool 和 multiprocessing.pool.ThreadPool 之间有什么区别吗?源代码似乎暗示它们是相同的。 最佳
我正在开发一个用于财务目的的模型。我将整个 S&P500 组件放在一个文件夹中,存储了尽可能多的 .hdf 文件。每个 .hdf 文件都有自己的多索引(年-周-分)。 顺序代码示例(非并行化): im
到目前为止,我是这样做的: rets=set(pool.map_async(my_callback, args.hosts).get(60*4)) 如果超时,我会得到一个异常: File "/usr
参见下面的示例和执行结果: #!/usr/bin/env python3.4 from multiprocessing import Pool import time import os def in
我的任务是监听 UDP 数据报,对其进行解码(数据报具有二进制信息),将解码后的信息放入字典中,将字典转储为 json 字符串,然后将 json 字符串发送到远程服务器(ActiveMQ)。 解码和发
我在 macOS 上工作,最近被 Python 3.8 多处理中“fork”到“spawn”的变化所困扰(参见 doc )。下面显示了一个简化的工作示例,其中使用“fork”成功但使用“spawn”失
multiprocessing.Queue 的文档指出从项目入队到其腌制表示刷新到底层管道之间存在一点延迟。显然,您可以将一个项目直接放入管道中(它没有说明其他情况,并且暗示情况就是如此)。 为什么管
我运行了一些测试代码来检查在 Linux 中使用 Pool 和 Process 的性能。我正在使用 Python 2.7。 multiprocessing.Pool 的源代码似乎显示它正在使用 mul
我在 Windows Standard Embedded 7 上运行 python 3.4.3。我有一个继承 multiprocessing.Process 的类。 在类的 run 方法中,我为进程对
我知道multiprocessing.Process类似于 threading.Thread当我子类 multiprocessing.Process 时要创建一个进程,我发现我不必调用 __init_
我有教科书声明说在多处理器系统中不建议禁用中断,并且会花费太多时间。但我不明白这一点,谁能告诉我多处理器系统禁用中断的过程?谢谢 最佳答案 在 x86(和其他架构,AFAIK)上,启用/禁用中断是基于
我正在执行下面的代码并且它工作正常,但它不会产生不同的进程,而是有时所有都在同一个进程中运行,有时 2 个在一个进程中运行。我正在使用 4 cpu 机器。这段代码有什么问题? def f(values
我是一名优秀的程序员,十分优秀!