gpt4 book ai didi

amazon-web-services - 如何从 Kinesis -> Redshift 批量复制数据

转载 作者:行者123 更新时间:2023-12-04 18:06:15 25 4
gpt4 key购买 nike

当我读到 AWS 数据管道时,我立即想到了 - 为 kinesis 生成统计数据并在管道中创建一个作业,该作业将消耗来自 kinesis 的数据并每小时将其复制到 redshift。一气呵成。

但似乎管道中没有节点可以消耗 kinesis。所以现在我有两个可能的行动计划:

  • 创建实例,其中 Kinesis 的数据将被消耗并按小时发送到 S3。管道将从那里复制到 Redshift。
  • 从 Kinesis 消费并当场直接生成 COPY 到 Redshift。

  • 我该怎么办?是否无法仅使用 AWS 服务将 Kinesis 连接到 redshift,而无需自定义代码?

    最佳答案

    现在可以通过名为 Kinesis Firehose 的新托管服务在没有用户代码的情况下执行此操作。 .它管理所需的缓冲间隔、临时上传到 s3、上传到 Redshift、错误处理和自动吞吐量管理。

    关于amazon-web-services - 如何从 Kinesis -> Redshift 批量复制数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27066074/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com