gpt4 book ai didi

postgresql - Airflow:将庞大的数据集从数据库传输到远程机器

转载 作者:行者123 更新时间:2023-11-29 13:51:20 29 4
gpt4 key购买 nike

我有以下设置:远程机器“D”包含 Postgres 数据库。远程机器“C”包含一个数据处理平台。 Airflow 在本地机器“L”上运行。预计来自数据库的简单选择查询将产生大小约为 1 GB 的数据集。

我想创建一个 Airflow DAG,其中一项任务是在数据库上运行查询并将结果传输到“C”。但是 GenericTransfer operator 的官方文档说:

“这意味着用于适合内存的小型数据集。”

如何可靠地将庞大的数据集从“D”传输到“C”?

最佳答案

您可以使用 dbapi 的 executemany 扩展 Operator 以插入数据

关于postgresql - Airflow:将庞大的数据集从数据库传输到远程机器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40740472/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com