gpt4 book ai didi

javascript - 使用 SQLite3 + Node.js 的最佳实践

转载 作者:IT老高 更新时间:2023-10-28 23:02:52 25 4
gpt4 key购买 nike

我有一个适度的 Node.js 脚本,它通过 API 从 Wikipedia 中提取数据并将其存储在 SQLite 数据库中。我正在使用这个 node-sqlite3模块。

在某些情况下,我会提取超过 600,000 篇文章的数据,并将关于每篇文章的一些元数据连续存储在数据库中。文章从 API 中以 500 篇为一组进行检索。

检索包含 500 篇文章数据的 JSON 对象的请求将对象传递给此回调:

// (db already instantiated as 'new sqlite.Database("wikipedia.sqlite");')

function callback(articles) {
articles.forEach(function (article) {
db.run(
"INSERT OR IGNORE INTO articles (name, id, created) VALUES (?,?,?)",
[
article["title"],
article["pageid"],
article["timestamp"]
]
);
});
}

这些模块默认并行运行,但 node-sqlite3 的文档包含一个串行操作示例,如下所示:

db.serialize(function () {
db.run("CREATE TABLE lorem (info TEXT)");

var stmt = db.prepare("INSERT INTO lorem VALUES (?)");
for (var i = 0; i < 10; i++) {
stmt.run("Ipsum " + i);
}
stmt.finalize();
}

我试图模仿这一点,但几乎没有发现性能差异。我做错了吗?现在,从 API 中检索数据的速度比写入数据库的速度快得多,尽管速度还不算慢。但是用 600K 个单独的 INSERT 命令来处理数据库感觉很笨拙。

更新:根据接受的答案,这似乎适用于 node-sqlite3,而不是原生解决方案。 (参见 Issue)。

db.run("BEGIN TRANSACTION");
function callback(articles) {
articles.forEach(function (article) {
db.run(
"INSERT OR IGNORE INTO articles (name, id, created) VALUES (?,?,?)",
[
article["title"],
article["pageid"],
article["timestamp"]
]
);
});
}
db.run("END");

最佳答案

当您对 SQLite 数据库进行多次插入时,您需要将插入的集合包装到事务中。否则,SQLite 将等待磁盘盘片在每次插入时完全旋转,同时对您插入的每条记录进行读写验证。

在 7200 RPM 时,磁盘盘片再次旋转大约需要 1/60 秒,这是计算机时间的永恒。

关于javascript - 使用 SQLite3 + Node.js 的最佳实践,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18899828/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com