- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在尝试使用多重处理来生成 4 个进程,这些进程会强制进行一些计算,并且每个进程在每次迭代中操作我想要在它们之间共享的单个列表对象的机会非常小。不是best practice在指南中,但我需要“很多人”。
对于相对较少的迭代次数,代码可以正常工作,但是当迭代次数增加到一定阈值时,所有四个进程都将进入僵尸状态。他们默默地失败了。
我尝试使用 multiprocessing.Queue()
跟踪对共享列表的修改。它出现于this SO post , this closed Python issue – "not a bug" ,以及一些提到这些的帖子,底层管道可能会过载并且进程会挂起。 SO 帖子中接受的答案非常难以破译,因为有太多多余的代码。
为清楚起见进行了编辑:
文档中的示例执行非常轻量级的操作,几乎总是单个函数调用。因此,我不知道我是否误解和滥用了功能。
指南说:
It is probably best to stick to using queues or pipes for communication between processes rather than using the lower level synchronization primitives from the threading module.
这里的“沟通”是否意味着我在示例中实际所做的事情之外的其他事情?
或者
这是否意味着我应该在队列中共享 my_list
而不是与经理共享?这不是意味着每个进程的每次迭代都会使用 queue.get
和 queue.put
吗?
If maxsize is less than or equal to zero, the queue size is infinite.
这样做并不能修复我的失败示例中的错误。在我执行 queue.put()
之前,所有数据都存储在普通的 Python 列表中:my_return_list
那么这实际上是由于我提供的链接而失败吗?
与我当前的解决方法相比,是否有更好的方法?我似乎找不到其他人采取类似的方法,我觉得我错过了一些东西。我需要它同时适用于 Windows 和 Linux。
失败示例(取决于 __main__
下的迭代):
import multiprocessing as mp
import random
import sys
def mutate_list(my_list, proc_num, iterations, queue, lock):
my_return_list = []
if iterations < 1001:
# Works fine
for x in xrange(iterations):
if random.random() < 0.01:
lock.acquire()
print "Process {} changed list from:".format(proc_num)
print my_list
print "to"
random.shuffle(my_list)
print my_list
print "........"
sys.stdout.flush()
lock.release()
my_return_list.append([x, list(my_list)])
else:
for x in xrange(iterations):
# Enters zombie state
if random.random() < 0.01:
lock.acquire()
random.shuffle(my_list)
my_return_list.append([x, list(my_list)])
lock.release()
if x % 1000 == 0:
print "Completed iterations:", x
sys.stdout.flush()
queue.put(my_return_list)
def multi_proc_handler(iterations):
manager = mp.Manager()
ns = manager.list()
ns.extend([x for x in range(10)])
queue = mp.Queue()
lock = manager.Lock()
print "Starting list to share", ns
print ns
sys.stdout.flush()
p = [mp.Process(target=mutate_list, args=(ns,x,iterations,queue,lock)) for x in range(4)]
for process in p: process.start()
for process in p: process.join()
output = [queue.get() for process in p]
return output
if __name__ == '__main__':
# 1000 iterations is fine, 100000 iterations will create zombies
multi_caller = multi_proc_handler(100000)
使用multiprocessing.Manager.list()
的解决方法:
import multiprocessing as mp
import random
import sys
def mutate_list(my_list, proc_num, iterations, my_final_list, lock):
for x in xrange(iterations):
if random.random() < 0.01:
lock.acquire()
random.shuffle(my_list)
my_final_list.append([x, list(my_list)])
lock.release()
if x % 10000 == 0:
print "Completed iterations:", x
sys.stdout.flush()
def multi_proc_handler(iterations):
manager = mp.Manager()
ns = manager.list([x for x in range(10)])
lock = manager.Lock()
my_final_list = manager.list() # My Queue substitute
print "Starting list to share", ns
print ns
sys.stdout.flush()
p = [mp.Process(target=mutate_list, args=(ns,x,iterations,my_final_list,
lock)) for x in range(4)]
for process in p: process.start()
for process in p: process.join()
return list(my_final_list)
if __name__ == '__main__':
multi_caller = multi_proc_handler(100000)
最佳答案
队列与列表
在底层,multiprocessing.Queue
和 manager.list()
都在向缓冲区写入和读取。
队列
shared_queue = multiprocessing.Queue()
当您使用 N 或更多字节(其中 N 取决于许多变量)调用 put
时,它超出了缓冲区可以处理的范围,并且 put
会阻塞。您也许可以通过在另一个进程中调用 get
来取消阻止 put
。这是一个使用代码的第一个版本应该很容易执行的实验。我强烈建议您尝试这个实验。
列表
manager = multiprocessing.Manager()
shared_list = manager.list()
当您调用append
时,您传递的字节数远少于N个字节,并且写入缓冲区成功。 还有另一个进程从缓冲区读取数据并将其附加到实际的列表
。该流程由经理
创建。即使您使用 N 或更多字节调用 append
,一切都应该继续工作,因为还有另一个进程正在从缓冲区读取。您可以通过这种方式将任意数量的字节传递给另一个进程。
摘要
希望这能澄清为什么您的“解决方法”有效。您将对缓冲区的写入分解为更小的片段,并且有一个辅助进程从缓冲区读取数据,将这些片段放入托管列表中。
关于python - 当增加迭代次数时,多进程会变成僵尸进程。 mp.Queue() 与 Manager.list() 相比有何优势?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38961584/
我是 Linux 的新手,并且继承了保持我们的单一 Linux 服务器运行的职责。这是我们的SVN服务器,所以比较重要。 原来在我之前维护它的人有一个 cron 任务,当有太多 svnserve 进程
Node 虽然自身存在多个线程,但是运行在 v8 上的 JavaScript 是单线程的。Node 的 child_process 模块用于创建子进程,我们可以通过子进程充分利用 CPU。范例:
Jenkins 有这么多进程处于事件状态是否正常? 我检查了我的设置,我只配置了 2 个“执行者”... htop http://d.pr/i/RZzG+ 最佳答案 您不仅要限制 Master 中的执
我正在尝试在 scala 中运行这样的 bash 命令: cat "example file.txt" | grep abc Scala 有一个特殊的流程管道语法,所以这是我的第一个方法: val f
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 1
我需要一些帮助来理解并发编程的基础知识。事实上,我读得越多,就越感到困惑。因此,我理解进程是顺序执行的程序的一个实例,并且它可以由一个或多个线程组成。在单核CPU中,一次只能执行一个线程,而在多核CP
我的问题是在上一次集成测试后服务器进程没有关闭。 在integration.rs中,我有: lazy_static! { static ref SERVER: Arc> = {
我正在使用 Scala scala.sys.process图书馆。 我知道我可以用 ! 捕获退出代码和输出 !!但是如果我想同时捕获两者呢? 我看过这个答案 https://stackoverflow
我正在开发一个C++类(MyClass.cpp),将其编译为动态共享库(MyClass.so)。 同一台Linux计算机上运行的两个不同应用程序将使用此共享库。 它们是两个不同的应用程序。它不是多线程
我在我的 C 程序中使用 recvfrom() 从多个客户端接收 UDP 数据包,这些客户端可以使用自定义用户名登录。一旦他们登录,我希望他们的用户名与唯一的客户端进程配对,这样服务器就可以通过数据包
如何更改程序,以便函数 function_delayed_1 和 function_delayed_2 仅同时执行一次: int main(int argc, char *argv[]) {
考虑这两个程序: //in #define MAX 50 int main(int argc, char* argv[]) { int *count; int fd=shm
请告诉我如何一次打开三个终端,这样我的项目就可以轻松执行,而不必打开三个终端三次然后运行三个exe文件。请问我们如何通过脚本来做到这一点,即打开三个终端并执行三个 exe 文件。 最佳答案 在后台运行
我编写了一个监控服务来跟踪一组进程,并在服务行为异常、内存使用率高、超出 CPU 运行时间等时发出通知。 这在我的本地计算机上运行良好,但我需要它指向远程机器并获取这些机器上的进程信息。 我的方法,在
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 8年前关闭。 Improve this qu
我有一个允许用户上传文件的应用程序。上传完成后,必须在服务器上完成许多处理步骤(解压、存储、验证等...),因此稍后会在一切完成后通过电子邮件通知用户。 我见过很多示例,其中 System.Compo
这个问题对很多人来说可能听起来很愚蠢,但我想对这个话题有一个清晰的理解。例如:当我们在 linux(ubuntu, x86) 上构建一个 C 程序时,它会在成功编译和链接过程后生成 a.out。 a.
ps -eaf | grep java 命令在这里不是识别进程是否是 java 进程的解决方案,因为执行此命令后我的许多 java 进程未在输出中列出。 最佳答案 简答(希望有人写一个更全面的): 获
我有几个与内核态和用户态的 Windows 进程相关的问题。 如果我有一个 hello world 应用程序和一个暴露新系统调用 foo() 的 hello world 驱动程序,我很好奇在内核模式下
我找不到很多关于 Windows 中不受信任的完整性级别的信息,对此有一些疑问: 是否有不受信任的完整性级别进程可以创建命名对象的地方? (互斥锁、事件等) 不受信任的完整性级别进程是否应该能够打开一
我是一名优秀的程序员,十分优秀!