gpt4 book ai didi

hadoop - Flume 将数据加载到本地文件系统

转载 作者:行者123 更新时间:2023-12-02 22:09:08 25 4
gpt4 key购买 nike

我在linux中使用hadoop 2.2。谁能告诉我如何在flume中使用fileroll。我知道fileroll将数据发送到本地文件系统。谁能告诉我怎么做???

提前致谢..

最佳答案

为了使用文件roll sink,只需要在flume配置文件中配置sink即可。此配置文件示例将从位于目录 /logs/source 中的假脱机目录源中获取数据,通过内存 channel 将其发送到目录 /logs/sink 中的文件滚动接收器.

您应该在水槽用户指南 here 中查看其他配置选项

# Define a memory channel called ch1 on agent1
agent1.channels.ch1.type = memory

agent1.sources.spool.type = spooldir
agent1.sources.spool.channels = ch1
agent1.sources.spool.spoolDir = /logs/source
agent1.sources.spool.fileHeader = true

agent1.sinks.fr1.type = file_roll
agent1.sinks.fr1.channel = ch1
agent1.sinks.fr1.sink.directory = /logs/sink

agent1.channels = ch1
agent1.sources = spool
agent1.sinks = fr1

关于hadoop - Flume 将数据加载到本地文件系统,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24015325/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com