gpt4 book ai didi

python - Celery 相当于一个 JoinableQueue

转载 作者:太空狗 更新时间:2023-10-29 21:59:22 29 4
gpt4 key购买 nike

Celery 的 multiprocessing.JoinableQueue 是什么? (或 gevent.queue.JoinableQueue)?

我正在寻找的功能是能够 .join() 来自发布者的 Celery 任务队列,等待队列中的所有任务完成。

等待初始的 AsyncResultGroupResult 是不够的,因为队列会由 worker 自己动态填满。

最佳答案

它可能并不完美,但这是我最终想到的。

它基本上是一个基于共享 Redis 计数器和列表监听器的现有 Celery 队列之上的 JoinableQueue 包装器。它要求队列名称与其路由键相同(由于 before_task_publishtask_postrun 信号的内部实现细节)。

joinableceleryqueue.py:

from celery.signals import before_task_publish, task_postrun
from redis import Redis
import settings

memdb = Redis.from_url(settings.REDIS_URL)

class JoinableCeleryQueue(object):
def __init__(self, queue):
self.queue = queue
self.register_queue_hooks()

def begin(self):
memdb.set(self.count_prop, 0)

@property
def count_prop(self):
return "jqueue:%s:count" % self.queue

@property
def finished_prop(self):
return "jqueue:%s:finished" % self.queue

def task_add(self, routing_key, **kw):
if routing_key != self.queue:
return

memdb.incr(self.count_prop)

def task_done(self, task, **kw):
if task.queue != self.queue:
return

memdb.decr(self.count_prop)
if memdb.get(self.count_prop) == "0":
memdb.rpush(self.finished_prop, 1)

def register_queue_hooks(self):
before_task_publish.connect(self.task_add)
task_postrun.connect(self.task_done)

def join(self):
memdb.brpop(self.finished_prop)

我选择使用 BRPOP 而不是发布/订阅,因为我只需要一个监听器来监听“所有任务已完成”事件(发布者)。

使用 JoinableCeleryQueue 非常简单 - begin() 在将任何任务添加到队列之前,使用常规 Celery API 添加任务,.join() 等待所有任务完成。

关于python - Celery 相当于一个 JoinableQueue,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39401374/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com