gpt4 book ai didi

hadoop - Flume 用例 - 将数据从只读文件夹推送到 HDFS

转载 作者:可可西里 更新时间:2023-11-01 14:58:04 26 4
gpt4 key购买 nike

我正在寻找一种使用水槽将日志数据从只读文件夹推送到 hdfs 的方法。据我所知,flume spoolDir 需要写权限才能在完成后更改完整的文件名,所以我想创建一个临时文件夹作为 spoolDir 并使用 rsync 将文件复制到它,然后将其用作 spoolDir。但是,据我所知,一旦 flume (myfile.COMPLETED) 更改了 dest 文件夹中的文件,rsync 进程将再次复制它,对吗?还有其他解决方案吗?

最佳答案

另一个来源是 ExecSource .您可以在单个只读文件上运行 tail 命令并开始处理数据。然而,您必须考虑到这是一个不可靠的来源,因为在将数据放入代理 channel 时无法从错误中恢复。

关于hadoop - Flume 用例 - 将数据从只读文件夹推送到 HDFS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32634750/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com