gpt4 book ai didi

hadoop - Flume-ng:从本地复制日志文件到HDFS的源路径和类型

转载 作者:可可西里 更新时间:2023-11-01 16:47:03 29 4
gpt4 key购买 nike

我正在尝试使用 flume-ng 将一些日志文件从 local 复制到 HDFSsource/home/cloudera/flume/weblogs/sinkhdfs://localhost:8020/flume/转储/。一个 cron 作业会将日志从 tomcat 服务器复制到 /home/cloudera/flume/weblogs/ 我想在文件可用时将日志文件复制到 HDFS/home/cloudera/flume/weblogs/ 中使用 flume-ng。下面是我创建的 conf 文件:

agent1.sources= local
agent1.channels= MemChannel
agent1.sinks=HDFS

agent1.sources.local.type = ???
agent1.sources.local.channels=MemChannel

agent1.sinks.HDFS.channel=MemChannel
agent1.sinks.HDFS.type=hdfs
agent1.sinks.HDFS.hdfs.path=hdfs://localhost:8020/flume/dump/
agent1.sinks.HDFS.hdfs.fileType=DataStream
agent1.sinks.HDFS.hdfs.writeformat=Text
agent1.sinks.HDFS.hdfs.batchSize=1000
agent1.sinks.HDFS.hdfs.rollSize=0
agent1.sinks.HDFS.hdfs.rollCount=10000
agent1.sinks.HDFS.hdfs.rollInterval=600
agent1.channels.MemChannel.type=memory
agent1.channels.MemChannel.capacity=10000
agent1.channels.MemChannel.transactionCapacity=100

我无法理解:

1) agent1.sources.local.type = ??? 的值是多少2)在上面的conf文件中在哪里提到source路径/home/cloudera/flume/weblogs/?3) 上面的 conf 文件中是否缺少任何内容?

请让我知道这些。

最佳答案

您可以使用:

Exec Source 并使用一个命令(即在你的文件上的 gnu/linux 上的 cat 或 tail)

Spooling Directory Source 用于读取目录中的所有文件

关于hadoop - Flume-ng:从本地复制日志文件到HDFS的源路径和类型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36184498/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com