- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
首先,我承认该标题中有几个或多个关键字,但我确实确实在尝试以正确的方式捕捉问题。这里的问题是,我似乎无法使用 python 多处理模块正确创建子进程,而不会导致网页响应挂起。我已经尝试了几个最新版本的 gunicorn,但问题仍然存在。有趣的是,这个问题从来都不是 ubuntu 服务器上的问题,但是现在将应用程序移动到 rhel6.5 这个问题本身就出现了。这是工作流程:
-路线被击中-提交的表单会命中路由并触发创建 multiprocessing.Process() ,完成的工作是休眠 30 秒-路由似乎已完成,作为打印多处理调用后的打印语句,但是浏览器保持连接打开并且在 30 秒 sleep 结束之前不会“完成加载”(显示页面)
请注意,表单提交不是此问题的一部分,它只是帮助查看问题的发生。
这是产生问题的一个非常简单的路由和函数:
def multi():
print 'begin multi'
time.sleep(30)
print 'end multi'
@app.route('/multiprocesstest', methods=['GET','POST'])
def multiprocesstest():
syntaxForm = forms.mainSyntaxForm()
if syntaxForm.validate_on_submit():
print 'before multi call'
th = multiprocessing.Process(target=multi)
th.start()
print 'after multi call'
return redirect('multiprocesstest')
return render_template('syntax_main.html', form=syntaxForm)
在对这个问题进行了广泛的研究和稀疏的谷歌搜索结果之后,我还没有找到任何结论。我将尝试使用另一个负载均衡器来检查问题是否仅出在 gunicorn 上。
最佳答案
将 multiprocessing
替换为 multiprocessing.dummy
可能会解决问题,因为 gunicorn
和 multiprocessing
都是多处理模块,并且当您尝试在单个进程中调用多个进程时,它可能会导致麻烦。
关于python - 使用 python 的 Multiprocessing 使响应卡在 gunicorn 上,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29175090/
我正在尝试使用多处理和队列实现生产者-消费者场景;主进程是生产者,两个子进程使用队列中的数据。这在没有任何异常 发生的情况下有效,但问题是我希望能够在工作人员死亡时重新启动他们(kill -9 wor
我试图在一个管理进程下启动一个数据队列服务器(这样它以后可以变成一个服务),虽然数据队列服务器功能在主进程中工作正常,但它在一个进程中不起作用使用 multiprocessing.Process 创建
我的多处理需求非常简单:我从事机器学习工作,有时我需要评估多个数据集中的一个算法,或者一个数据集中的多个算法,等等。我只需要运行一个带有一些参数的函数并获取一个数字。 我不需要 RPC、共享数据,什么
创建进程池或简单地遍历一个进程以创建更多进程之间有任何区别(以任何方式)吗? 这有什么区别?: pool = multiprocessing.Pool(5) pool.apply_async(work
multiprocessing.BoundedSemaphore(3) 与 multiprocessing.Sempahore(3) 有何不同? 我希望 multiprocessing.Bounded
我尝试通过 multiprocessing 包中的 Queue 对 Pipe 的速度进行基准测试。我认为 Pipe 会更快,因为 Queue 在内部使用 Pipe。 奇怪的是,Pipe 在发送大型 n
我有这样一个简单的任务: def worker(queue): while True: try: _ = queue.get_nowait()
我正在尝试编写一个与 multiprocessing.Pool 同时应用函数的应用程序。我希望这个函数成为一个实例方法(所以我可以在不同的子类中以不同的方式定义它)。这似乎是不可能的;正如我在其他地方
在 python 2 中,multiprocessing.dummy.Pool 和 multiprocessing.pool.ThreadPool 之间有什么区别吗?源代码似乎暗示它们是相同的。 最佳
我正在开发一个用于财务目的的模型。我将整个 S&P500 组件放在一个文件夹中,存储了尽可能多的 .hdf 文件。每个 .hdf 文件都有自己的多索引(年-周-分)。 顺序代码示例(非并行化): im
到目前为止,我是这样做的: rets=set(pool.map_async(my_callback, args.hosts).get(60*4)) 如果超时,我会得到一个异常: File "/usr
参见下面的示例和执行结果: #!/usr/bin/env python3.4 from multiprocessing import Pool import time import os def in
我的任务是监听 UDP 数据报,对其进行解码(数据报具有二进制信息),将解码后的信息放入字典中,将字典转储为 json 字符串,然后将 json 字符串发送到远程服务器(ActiveMQ)。 解码和发
我在 macOS 上工作,最近被 Python 3.8 多处理中“fork”到“spawn”的变化所困扰(参见 doc )。下面显示了一个简化的工作示例,其中使用“fork”成功但使用“spawn”失
multiprocessing.Queue 的文档指出从项目入队到其腌制表示刷新到底层管道之间存在一点延迟。显然,您可以将一个项目直接放入管道中(它没有说明其他情况,并且暗示情况就是如此)。 为什么管
我运行了一些测试代码来检查在 Linux 中使用 Pool 和 Process 的性能。我正在使用 Python 2.7。 multiprocessing.Pool 的源代码似乎显示它正在使用 mul
我在 Windows Standard Embedded 7 上运行 python 3.4.3。我有一个继承 multiprocessing.Process 的类。 在类的 run 方法中,我为进程对
我知道multiprocessing.Process类似于 threading.Thread当我子类 multiprocessing.Process 时要创建一个进程,我发现我不必调用 __init_
我有教科书声明说在多处理器系统中不建议禁用中断,并且会花费太多时间。但我不明白这一点,谁能告诉我多处理器系统禁用中断的过程?谢谢 最佳答案 在 x86(和其他架构,AFAIK)上,启用/禁用中断是基于
我正在执行下面的代码并且它工作正常,但它不会产生不同的进程,而是有时所有都在同一个进程中运行,有时 2 个在一个进程中运行。我正在使用 4 cpu 机器。这段代码有什么问题? def f(values
我是一名优秀的程序员,十分优秀!