- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在计算大量函数(大约1000000),并且由于它非常耗时,所以我使用multiprocessing.Pool.apply_async函数。但是,当我尝试使用 AsyncResult 类的 .get() 函数读取结果时,出现错误:
File "Test.py", line 17, in <module>
Test()
File "Test.py", line 11, in __init__
self.testList[i].get(5)
File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/multiprocessing/pool.py", line 657, in get
raise self._value
File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/multiprocessing/pool.py", line 431, in _handle_tasks
put(task)
File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/multiprocessing/connection.py", line 206, in send
self._send_bytes(_ForkingPickler.dumps(obj))
File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/multiprocessing/reduction.py", line 51, in dumps
cls(buf, protocol).dump(obj)
TypeError: can't pickle _thread.lock objects
给出相同错误的简化类:
import multiprocessing as mp
import numpy as np
class Test:
def __init__(self):
pool = mp.Pool(processes = 4)
self.testList = [0,0,0,0]
for i in range(0,len(self.testList)):
self.testList[i] = pool.apply_async(self.run, (1,))
for i in range(0,len(self.testList)):
self.testList[i].get(5)
def run(self, i):
return 1
Test()
有趣的是,如果我改为 self.testList testList,代码可以正常工作。然而,当我使用 .ready() 而不是 .get() 比较两者时,我发现 self.testList 比 testList 快大约 1000 倍(我无法解释)。所以,我真的很想找到一种使用 self.testList 的方法。
我一直在四处寻找,虽然还有其他关于此的线程,但它们似乎更关注队列而不是 apply_async。任何帮助将不胜感激!
谢谢!
编辑:似乎最初的问题发生是因为我在类中调用 mp.Pool 。当我在类外部创建相同的进程时,程序会运行,但与类中的代码相比,它非常慢(慢 30 倍)(我使用 .ready() 函数对此进行了测试,在两种情况下都运行良好) 。这是一个最小的例子:
import multiprocessing as mp
import numpy as np
import time
class Test:
def __init__(self):
pool = mp.Pool(processes = 4)
self.testList = [0 for i in range(0,100000)]
for i in range(0,len(self.testList)):
self.testList[i] = pool.apply_async(self.run, (1,))
for i in range(0,len(self.testList)):
while not self.testList[i].ready():
continue
def run(self, i):
return 1
def functionTest():
pool = mp.Pool(processes = 4)
testList = [0 for i in range(0,100000)]
for i in range(0,len(testList)):
testList[i] = pool.apply_async(run, (1,))
for i in range(0,len(testList)):
while not testList[i].ready():
continue
def run(i):
return 1
startTime1 = time.time()
Test()
startTime2 = time.time()
print(startTime2-startTime1)
startTime1 = time.time()
functionTest()
startTime2 = time.time()
print(startTime2-startTime1)
该测试的输出是
5.861901044845581
151.7218940258026
我尝试寻找使类方法发挥作用的方法,例如从 init 函数中取出多处理,或者向类提供池对象,而不是让类创建它。不幸的是,这些方法都不起作用。我真的很想找到一种有效且仍然快速的方法。谢谢您的帮助!
最佳答案
当您生成多个线程时,您试图对整个类进行 pickle,其中包含 init 中设置的 mp.Pool
中的值。复制 mp.Pool
既不起作用,也没有真正的意义。将您的类拆分为两个单独的顶级函数,或者至少将多处理内容移至 Test 类之外的其自己的函数中。
关于Python 多处理 apply_async 不可pickle?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59490931/
我是 python 的新手,我有一个函数可以为我的数据计算特征,然后返回一个应该处理并写入文件的列表。,..我正在使用 Pool 进行计算,然后使用写入文件的回调函数,但是回调函数没有被调用,我已经在
我试图了解多进程池是如何工作的。在下面的编程中,我创建了一个包含 4 个进程的池。 我使用回调函数调用 apply_async ,该函数应该更新名为 result_list 的列表 import Qu
我希望如果我调用 apply_async在实例方法中并获得其结果,所做的任何更改都将保留为 fork 进程的一部分。但是,似乎每次对 apply_async 的新调用都会创建所述实例的新副本。 采取以
我只是在使用 Python 的多处理模块,但是以下代码正在连续运行,但没有给出任何输出。我究竟做错了什么?我也尝试过 pool.close() 和 pool.join() 但没有效果。 这是我迄今为止
我尝试通过 apply_async 将共享计数器传递给多处理中的任务,但它失败并出现以下错误“RuntimeError:同步对象只能通过继承在进程之间共享”。这是怎么回事 def processLin
我有一个带有 apply_async 的进程池,其中不同的进程需要不同的时间来提供输出。一旦一个进程完成,我就会对其输出进行一些计算。在我想启动另一个进程之后。通过这种方式,我想创建一个无限循环,它启
这是我的代码: import multiprocessing import time import os def worker(): print str(os.getpid()) + " is
使用覆盖率来查看必须测试的内容,并且覆盖率显示旁边必须要测试的内容:send_alert.apply_async() 我知道是celery任务,但是有什么办法可以测试这行代码吗? 理解测试逻辑的其余代
传递给多处理的 apply_async() 的函数内的 print() 不会打印任何内容。 我想最终使用 apply_async 来处理大块的文本文件。因此,我希望脚本在屏幕上打印出已经处理了多少行。
我正在计算大量函数(大约1000000),并且由于它非常耗时,所以我使用multiprocessing.Pool.apply_async函数。但是,当我尝试使用 AsyncResult 类的 .get
import time import multiprocessing def multi_thread(files): q = multiprocessing.Queue() for
我一直在关注文档以尝试了解多处理池。我想到了这个: import time from multiprocessing import Pool def f(a): print 'f(' + st
我在我的应用程序中使用 celery 来运行周期性任务。让我们看下面的简单示例 from myqueue import Queue @perodic_task(run_every=timedelta(
我正在尝试了解使用多处理池的 apply_sync 方法时幕后发生的事情。 谁运行回调方法?是调用apply_async的主进程吗? 假设我发送了一大堆带有回调的 apply_async 命令,然后继
我有一个脚本,其中包括从列表中打开一个文件,然后对该文件中的文本执行某些操作。我正在使用 python 多处理和 Pool 来尝试并行化此操作。脚本的抽象如下: import os from mult
如果我理解正确,apply_async 会立即返回一个 AsyncResult 对象。如果我按以下方式收集这些对象,并仅在所有工作人员完成后才使用 get(),假设值将按照调用函数的顺序是否安全? o
我正在尝试使用 multiprocessing模块,更具体地说是 Pool.apply_async()功能。 这段代码运行良好: import multiprocessing def do():
我们使用的是 django 1.10、Celery 4.1.0 我正在尝试使用 apply_async。这是任务: from celery import Celery app = Celery('my
我在 Python 3.7.3 中遇到一个问题,在处理大型计算任务时,我的多处理操作(使用队列、池和 apply_async)会死锁。 对于小型计算,这个多处理任务工作得很好。然而,当处理较大的进程时
我想调用 pool.apply_async(func) 并在结果可用时立即累积结果,而无需相互等待。 import multiprocessing import numpy as np chrName
我是一名优秀的程序员,十分优秀!