gpt4 book ai didi

mongodb - 带有 upsert 的 insert_many - PyMongo

转载 作者:IT老高 更新时间:2023-10-28 13:30:00 44 4
gpt4 key购买 nike

我有一些这样的数据:

data = [{'_id': 1, 'val': 5},
{'_id': 2, 'val': 1}}]

数据库中的当前数据:

>>> db.collection.find_one()
{'_id': 1, 'val': 3}

总是收到唯一的行,但不确定它们中的任何一个是否已经存在于 DB 中(例如上述情况)。我想根据两种类型的要求更新它们。

要求 1:

如果 _id 已存在,请更新行。这在某种程度上很容易:

from pymongo.errors import BulkWriteError
try:
db.collection.insert_many(data, unordered=False)
except BulkWriteError:
pass

执行上述操作将插入 2nd 行但不会更新第一行;但它也会引发异常。

1. 有没有更好的方法来进行上述操作(对于批量插入)?

要求 2

这类似于 update_if_existsinsert if not exists 的组合。所以以下数据:

data2 = [{'_id': 1, 'val': 9},
{'_id': 3, 'val': 4}}]

应该用 _id=1 更新行,并在 DB 中插入 2nd 行。

问题是我一次得到数千行,并且不确定逐一检查和更新是否有效。

2. 在 MongoDB 中是否可以实现此要求,而无需遍历每一行并使用尽可能少的操作?

最佳答案

您可以生成要传递给 bulk write API 的更新列表这会将所有操作一起发送,但它们仍将在服务器上一一执行,但不会导致错误。

from pymongo import UpdateOne
data2 = [{'_id': 1, 'val': 9}, {'_id': 3, 'val': 4}]
upserts=[ UpdateOne({'_id':x['_id']}, {'$setOnInsert':x}, upsert=True) for x in data2]
result = db.test.bulk_write(upserts)

从结果中可以看出,找到_id的时候是no-op,找不到的时候是insert。

关于mongodb - 带有 upsert 的 insert_many - PyMongo,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37435589/

44 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com