gpt4 book ai didi

timestamp - 批量无序数据导入QuestDB

转载 作者:行者123 更新时间:2023-12-04 07:33:23 24 4
gpt4 key购买 nike

我正在考虑使用 QuestDB 来获取大量金融交易数据。
我已阅读并理解 https://questdb.io/docs/guides/importing-data但我的情况略有不同。

  • 我有多种工具的交易数据。
  • 对于每个仪器,微秒时间戳数据跨越几年。
  • 每个仪器的数据都在一个单独的 CSV 文件中。

  • 我的主要用例是查询任意工具子集的全局时间排序交易序列。为清楚起见,查询结果如下所示
    timestamp,instrument,...
    0001,A,...
    0003,B,...
    0004,C,...
    0004,A,...
    0005,B,...
    因此,我相信我需要将所有交易放在一个带有指定时间戳和工具索引的表中。我现在不一定需要 QuestDB 的任何时间序列处理功能,但我确实需要按时间戳排序以免内存不足。
    我的问题是(除了这种方法通常是否有意义):
  • 考虑到每个 CSV 文件跨越数年,是否有一种有效(且简单)的方法将数据合并到一个表中?
  • 以后每次添加新仪器时都需要重建表格吗?
  • 最佳答案

    从 6.0 开始,您可以简单地将 CSV 一个一个地附加到同一个表中,因为该表具有指定的时间戳并对其进行了分区。
    如果您的 CSV 文件很大,我认为将它们批量处理成几百万行的事务比一次性卸载数十亿行要好。
    根据您拥有多少数据和您的盒子内存,您需要以单个分区适合内存多次的方式进行分区。因此,您可以选择是要每日分区还是每月分区。
    一旦您决定使用分区,如果您能够从所有 CSV 中逐日(或逐月)上传,则可以加快上传速度。
    每次添加仪器时都不需要重新建表,当您插入记录乱序时,表会自动逐个分区重写。

    关于timestamp - 批量无序数据导入QuestDB,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67857757/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com