gpt4 book ai didi

database - 直接从 Hadoop/HDFS(本地/本地集群)将数据加载到 Redshift 和 Bigquery

转载 作者:搜寻专家 更新时间:2023-10-30 19:48:19 26 4
gpt4 key购买 nike

有什么方法可以直接从 Hadoop/HDFS(本地/本地集群)将数据加载到 Redshift 和 Bigquery。我需要将 1TB 的数据加载到 Redshift 和 Bigquery。所以寻找有效的方法来做到这一点。

谢谢

最佳答案

您可以直接从 Amazon EMR 加载,但如果您使用的是本地 Hadoop 集群,那么您必须将数据导出到 S3 并使用 COPY 命令从那里加载到 Redshift:

Using a COPY command to load data

关于database - 直接从 Hadoop/HDFS(本地/本地集群)将数据加载到 Redshift 和 Bigquery,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24085150/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com