gpt4 book ai didi

python - Python中混合多处理和线程的现状

转载 作者:IT老高 更新时间:2023-10-28 20:35:14 27 4
gpt4 key购买 nike

对于问题 6721,在 Linux 中的同一 python 应用程序中同时使用多处理和用户线程的最佳做法或解决方法是什么,python 标准库中的锁应该在 fork 上进行清理?

为什么我需要两者?我使用子进程进行繁重的计算,产生的数据结构结果太大而无法通过队列返回——而是必须立即将它们存储到磁盘。让这些子进程中的每一个由一个单独的线程监控似乎很有效,这样当完成时,线程可以处理将大(例如,多 GB)数据读回需要结果以进行进一步计算的进程的 IO结合其他子进程的结果。子进程会间歇性地挂起,我刚刚(经过多次头部撞击)发现这是使用日志模块“引起”的。其他人在这里记录了这个问题:

https://twiki.cern.ch/twiki/bin/view/Main/PythonLoggingThreadingMultiprocessingIntermixedStudy

这指向了这个显然 Unresolved python问题:python标准库中的锁应该在fork上进行清理; http://bugs.python.org/issue6721

我对追踪这件事的困难感到震惊,我回答:

Are there any reasons not to mix Multiprocessing and Threading module in Python

带有对“小心”的相当无益的建议和指向上述内容的链接。

但是关于问题 6721 的冗长讨论表明,在同一应用程序中同时使用多处理(或 os.fork)和用户线程是一个“错误”。由于我对这个问题的理解有限,我发现在讨论中存在太多分歧,无法得出在同一应用程序中同时使用多处理和线程的解决方法或策略是什么。我的直接问题通过禁用日志记录得到解决,但我在父进程和子进程中创建了少量其他(显式)锁,并且怀疑我正在为进一步的间歇性死锁做好准备。

在 python (2.7,3.2,3.3) 应用程序中使用线程和多处理时,您能否提供实用建议以避免在使用锁和/或日志记录模块时出现死锁?

最佳答案

如果您在程序中仍然只有一个线程(即,在产生工作线程之前从主线程 fork )时 fork 其他进程,您将是安全的。

您的用例看起来甚至不需要多处理模块;您可以使用子进程(甚至更简单的类似 os.system 的调用)。

另见 Is it safe to fork from within a thread?

关于python - Python中混合多处理和线程的现状,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12984003/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com