gpt4 book ai didi

python - 使用 UPDATE ... RETURNING 的多个数据库连接,似乎不更新任务表中的行

转载 作者:行者123 更新时间:2023-11-29 12:49:00 25 4
gpt4 key购买 nike

前言

我想并行处理数据库表中列出的任务。不寻找工作代码。

设置

  • 1 台 PostgreSQL 数据库服务器 D
  • 1 个处理服务器 P
  • 1 用户终端 T

使用 Python 3.6、psycopg2.7.6、PostgreSQL 11

D 包含要处理的数据表和一个 tasks 表。 T ssh 的用户进入 P,可以在其中发出以下命令:

python -m core.utils.task

这个 task.py 脚本本质上是一个 while 循环,它从 tasks 表中获取一个任务 tD 上,状态为"new",直到没有新任务为止。任务 t 基本上是另一个名为 do_something(t) 的函数的一组参数。 do_something(t) 本身将与 D 建立许多连接以获取需要处理的数据,并在任务完成后将其设置为“完成”状态——while 循环重新开始并获得一个新任务。

为了多次运行 python -m core.utils.task,我打开了多个 ssh 连接。不太好,我知道; threadingmultiprocessing 会更好。但他只是为了测试我是否可以运行上述命令两次。

有一个管理所有数据库交互的脚本,称为pgsql.py,需要它来获取任务,然后通过do_something(t)。我从 this SE post 改编了一个单例模式.

伪代码(大部分)

任务.py

import mymodule
import pgsql

def main():
while True:
r, c = pgsql.SQL.select_task() # rows and columns
task = dotdict(dict(zip(c, r[0])))
mymodule.do_something(task)

if __name__ == "__main__":
main()

我的模块.py

import pgsql

def do_something(t):
input = pgsql.SQL.get_images(t.table,t.schema,t.image_id,t.image_directory)
some_other_function(input)
pgsql.SQL.task_status(t.task_id,'done')

pgsql.py

import psycopg2 as pg

class Postgres(object):
"""Adapted from https://softwareengineering.stackexchange.com/a/358061/348371"""
_instance = None

def __new__(cls):
if cls._instance is None:
cls._instance = object.__new__(cls)
db_config = {'dbname': 'dev01', 'host': 'XXXXXXXX',
'password': 'YYYYY', 'port': 5432, 'user': 'admin'}
try:
print('connecting to PostgreSQL database...')
connection = Postgres._instance.connection = pg.connect(**db_config)
connection.set_session(isolation_level='READ COMMITTED', autocommit=True)
except Exception as error:
print('Error: connection not established {}'.format(error))
Postgres._instance = None

else:
print('connection established')

return cls._instance

def __init__(self):
self.connection = self._instance.connection

def query(self, query):
try:
with self.connection.cursor() as cur:
cur.execute(query)
rows = cur.fetchall()
cols = [desc[0] for desc in cur.description]
except Exception as error:
print('error execting query "{}", error: {}'.format(query, error))
return None
else:
return rows, cols

def __del__(self):
self.connection.close()

db = Postgres()
class SQL():
def select_task():
s = """
UPDATE schema.tasks
SET status = 'ready'
WHERE task_id = ( SELECT task_id
FROM schema.tasks
WHERE tasks.status = 'new'
LIMIT 1)
RETURNING *
;
""".format(m=mode)
return Postgres.query(db, s)


def task_status(id,status):
s = """
UPDATE
schema.tasks
SET
status = '{s}'
WHERE
tasks.task_id = '{id}'
;
""".format(s=status,
id=id)
return Postgres.query(db, s)

问题

这适用于一个 ssh 连接。任务从数据库中检索并处理,完成后任务设置为“完成”。一旦我在第二个终端中打开第二个 ssh 连接以运行 python -m core.utils.task (也就是说,并行)任务的完全相同的行表在两者中都被处理 - 忽略它们已被更新。

问题

您有什么建议可以让它发挥作用?有数百万个任务,我需要并行运行它们。在实现 threadingmultiprocessing 之前,我想先用多个 ssh 连接测试它,坏主意吗?我在 psycopg2set_session() 中尝试了 isolation levelsautocommit 设置,但没有成功。我检查了数据库服务器中的 session ,可以看到 python -m core.utils.task 的每个进程都有自己的 PID,只连接一次,就像这种单例模式应该起作用一样。非常感谢任何想法或指示如何处理这个问题!

最佳答案

主要问题是执行一项任务不是原子操作。因此,在不同的 ssh session 中,同一个任务可以被处理多次。

In this implementation, you can try to use an "INPROGRESS" status for task so as not to retrieve tasks that are already being processed (with "INPROGRESS" status). But be sure to use autocommit.

但我会使用线程和数据库连接池来实现它。并将使用 OFFSETLIMIT 批量提取任务。 do_somethingselect_tasktask_status 函数将实现批量任务。

此外,没有必要将 Postgres 类实现为单例。


修改(见下面的评论)

  • 您可以将 FOR UPDATE SKIP LOCKED 添加到当前实现中的 SQL 查询(参见 url )。
  • 如果您想使用批处理,则通过一些序列列分隔数据(好吧,或者只是对表格中的数据进行排序)。
  • My implementation using batches .
  • 这可以使用 ThreadPoolExecutorPersistentConnectionPool 来实现。

关于python - 使用 UPDATE ... RETURNING 的多个数据库连接,似乎不更新任务表中的行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58338994/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com