gpt4 book ai didi

hadoop - 使用 Flume 将文件从远程节点传输到 HDFS

转载 作者:可可西里 更新时间:2023-11-01 14:12:46 27 4
gpt4 key购买 nike

我有一堆压缩成 *gz 格式的二进制文件。这些是在远程节点上生成的,必须传输到位于数据中心服务器之一的 HDFS。

我正在探索使用 Flume 发送文件的选项;我探索了使用假脱机目录配置执行此操作的选项,但显然这仅在文件目录位于本地同一 HDFS 节点上时才有效。

有什么解决这个问题的建议吗?

最佳答案

你为什么不运行两个不同的 Flume 代理,一个在远程机器上,一个在你的日期节点上。远程机器上的代理可以读取假脱机目录并将其发送到 avro sink。并且datanode上的代理可以读取avro源并将数据转储到HDFS。

关于hadoop - 使用 Flume 将文件从远程节点传输到 HDFS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26168820/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com