gpt4 book ai didi

node.js - 使用 Node 流式传输大型大查询 SELECT?

转载 作者:行者123 更新时间:2023-12-05 05:18:05 24 4
gpt4 key购买 nike

我正在开发一个 Node.js 程序。我们每天使用 Node 来处理存储在 Big Query 中的数据。

我们每天都有大量新数据 (280 Go)。

如何全天向 BigQuery 发出请求并逐行流式传输结果?

现在,我们没有流。我们只请求一次所有数据。

我可以使用 sql LIMIT 关键字。但问题是 BigQuery 在成本计算中忽略了 LIMIT。如果我们限制 0,10。它探索当天的所有数据 (280 Go)。同上 LIMIT 10,10 ...

这是我当前的代码。

    const BigQuery = require('@google-cloud/bigquery');

// ... Some code ...

this.bigQuery
.query(Exporter.enrichQueryWithOptions(`SELECT e.name FROM events))
.then(results => {
const rows = results[0];
console.log(rows);
})
.catch(err => {
console.error('ERROR:', err);
});

最佳答案

我认为这可能是您需要的:

https://googleapis.dev/nodejs/bigquery/latest/BigQuery.html#createQueryStream

该函数允许您构建查询并通过数据流使用它。

关于node.js - 使用 Node 流式传输大型大查询 SELECT?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48267997/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com