gpt4 book ai didi

mongodb - 有没有办法用 MongoDB 驱动程序填充批量插入的向量,然后在不克隆的情况下再次使用它?

转载 作者:行者123 更新时间:2023-11-29 08:29:33 24 4
gpt4 key购买 nike

我想使用 MongoDB Rust Driver将文档批量插入到集合中。我有一个 bulk 向量,当达到给定大小时我会填充并刷新它。

我的问题是,在将向量提供给驱动程序的 API bulk_write() 时,我必须 .clone() 向量。

如果我不克隆,我会遇到一个E0382: use after move 错误,似乎 API 不接受引用 ( em>E0308: 预期结构 std::vec::Vec,找到引用)。

我是 Rust 新手。有没有办法在不克隆这个大结构的情况下做到这一点? (结构在我的示例中并不大,但在我的实际代码中)

这是我的代码:

// Cargo.toml extract:
//
// [dependencies]
// bson = "0.10"
// mongodb = "0.3.7"

#[macro_use(bson, doc)] extern crate bson;
extern crate mongodb;
use mongodb::coll::options::WriteModel;
use mongodb::{Client, ThreadedClient};
use mongodb::db::ThreadedDatabase;

fn main() {

// Connect to MongoDB and select collection
let client = Client::connect("localhost", 27017).ok().expect("Failed to initialize client.");
let coll = client.db("test").collection("mycol");

// Make the bulk vector
let mut bulk = Vec::new();
for i in 0..1000 {

// Append a item to the bulk
bulk.push(WriteModel::UpdateOne { filter: doc!{"_id": i},
update: doc!{"$set" => {"hello" => "world"}},
upsert: Some(true) });

// Each 11 items, flush bulk
if bulk.len() > 10 {
println!("Upsert {} docs into collection...",bulk.len());

// `bulk` have to be cloned here
let result = coll.bulk_write(bulk.clone(), true); // Unoptimal: bulk cloned
//let result = coll.bulk_write(bulk, true); // E0382: use after move
//let result = coll.bulk_write(&bulk, true); // E0308: expected struct `std::vec::Vec`, found reference

// Check result
match result.bulk_write_exception {
Some(exception) => {
if exception.message.len()>0 {
println!("ERROR: {}",exception.message);
}
}
None => ()
}
bulk.clear();
}
}

// Final flush
if bulk.len() > 0 {
println!("Upsert {} docs into collection...",bulk.len());
let result = coll.bulk_write(bulk.clone(), true);
match result.bulk_write_exception {
Some(exception) => {
if exception.message.len()>0 {
println!("ERROR: {}",exception.message);
}
}
None => ()
}
}
}

最佳答案

正如@kazemakase 在评论中指出的那样,general solution to these kinds of problemsmem::replace() .然而,在这种情况下,我们需要卡在 bulk 上的原因适用于 bulk.len() <= 10 的最后一种情况.如果我们重构原始代码,我们可以完全避免Use after move错误:

// Connect to MongoDB and select collection
let client = Client::connect("localhost", 27017).ok().expect("Failed to initialize client.");
let coll = client.db("test").collection("mycol");

let ranges: Vec<_> = (0..1000).into_iter().collect();
for range in ranges[..].chunks(11) {
let bulk: Vec<_> =
range.map(|i| WriteModel::UpdateOne { filter: doc!{"_id": i},
update: doc!{"$set" => {"hello" => "world"}},
upsert: Some(true) })
.collect();

println!("Upsert {} docs into collection...", bulk.len());

let result = coll.bulk_write(bulk);
if let Some(exception) = result.bulk_write_exception {
if exception.message.len() > 0 {
println!("ERROR: {}", exception.message);
}
}
}

这里主要的变化是使用slice::chunks()而不是手动将 block 构建到 bulk 中在主迭代循环中。另一件好事是,这消除了重复的错误处理,并且更符合 Rust 的习惯。

关于mongodb - 有没有办法用 MongoDB 驱动程序填充批量插入的向量,然后在不克隆的情况下再次使用它?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50970102/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com