gpt4 book ai didi

python - multiprocessing.Queue 似乎消失了?操作系统(管道破坏)与 Python?

转载 作者:塔克拉玛干 更新时间:2023-11-03 01:23:51 26 4
gpt4 key购买 nike

我正在使用 multiprocessing.queues.JoinableQueue 如下:

一个非常长时间运行的线程(多天)轮询 XML 的 API。执行此操作的线程只是将 XML 解析为对象并将它们插入队列。

处理每个对象比解析 XML 花费的时间要多得多,并且绝不依赖于从 API 读取的线程。因此,这种多处理的实现非常简单。

创建和清理进程的代码在这里:

    def queueAdd(self, item):
try:
self.queue.put(item)
except AssertionError:
#queue has been closed, remake it (let the other GC)
logger.warn('Queue closed early.')
self.queue = BufferQueue(ctx=multiprocessing.get_context())
self.queue.put(item)
except BrokenPipeError:
#workaround for pipe issue
logger.warn('Broken pipe, Forcing creation of new queue.')
# all reading procesess should suicide and new ones spawned.
self.queue = BufferQueue(ctx=multiprocessing.get_context())
# address = 'localhost'
# if address in multiprocessing.managers.BaseProxy._address_to_local:
# del BaseProxy._address_to_local[address][0].connection
self.queue.put(item)
except Exception as e:
#general thread exception.
logger.error('Buffer queue exception %s' % e)
#TODO: continue trying/trap exceptions?
raise
# check for finished consumers and clean them up before we check to see
# if we need to add additional consumers.
for csmr in self.running:
if not csmr.is_alive():
debug('Child dead, releasing.')
self.running.remove(csmr)

#see if we should start a consumer...
# TODO: add min/max processes (default and override)
if not self.running:
debug('Spawning consumer.')
new_consumer = self.consumer(
queue=self.queue,
results_queue=self.results_queue,
response_error=self.response_error)
new_consumer.start()
self.running.append(new_consumer)

消费者进程控制循环也非常简单:

    def run(self):
'''Consumes the queue in the framework, passing off each item to the
ItemHandler method.
'''
while True:
try:
item = self.queue.get(timeout=3)
#the base class just logs this stuff
rval = self.singleItemHandler(item)
self.queue.task_done()
if rval and self.results_queue:
self.results_queue.put(rval)
except queue.Empty:
logging.debug('Queue timed out after 3 seconds.')
break
except EOFError:
logging.info(
'%s has finished consuming queue.' % (__class__.__name__))
break
except Exception as e:
#general thread exception.
self.logger.error('Consumer exception %s' % e)
#TODO: continue trying/trap exceptions?
raise

一段时间后(大约一个小时的成功处理),我收到一条日志消息,表明消费者进程因超时而终止 DEBUG:root:Queue timed out after 3 seconds.,但队列仍处于打开状态,并且显然仍在由原始线程写入。该线程似乎并不认为消费者进程已终止(请参阅 queueAdd 方法)并且不会尝试启动一个新进程。队列似乎并不为空,只是从中读取似乎已超时。

我不明白为什么经理认为 child 还活着。

编辑


由于对 BrokenPipeError 记录方式的代码更改以及删除断开的连接清理,我修改了原始问题。我认为这是一个单独的问题。

最佳答案

问题是由 multiprocessing.Queue 的微妙现实引起的。任何调用 queue.put 的进程都将运行一个写入命名管道的后台线程。

在我的特殊情况下,虽然没有大量数据被发布到结果队列(由于某种原因无法处理的项目),但它仍然足以“填满”管道并导致消费者无法退出,即使它没有运行。这反过来会导致写入队列缓慢填满。

解决方案是我为 API 调用的下一次迭代修改了我的非阻塞调用,以读取目前为止所有可用的结果,但最后一次(阻塞)调用除外,以确保获取所有结果。

def finish(self, block=True, **kwargs):
'''
Notifies the buffer that we are done filling it.
This command binds to any processes still running and lets them
finish and then copies and flushes the managed results list.
'''
# close the queue and wait until it is consumed
if block:
self.queue.close()
self.queue.join_thread()
# make sure the consumers are done consuming the queue
for csmr in self.running:
#get everything on the results queue right now.
try:
while csmr.is_alive():
self.results_list.append(
self.results_queue.get(timeout=0.5))
self.results_queue.task_done()
except queue.Empty:
if csmr.is_alive():
logger.warn('Result queue empty but consumer alive.')
logger.warn('joining %s.' % csmr.name)
csmr.join()
del self.running[:]
if self.callback:
return self.callback(self.results_list)
else:
#read results immediately available.
try:
while True:
self.results_list.append(self.results_queue.get_nowait())
self.results_queue.task_done()
except queue.Empty:
#got everything on the queue so far
pass
return self.results_list

关于python - multiprocessing.Queue 似乎消失了?操作系统(管道破坏)与 Python?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38637282/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com