- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在尝试使用 hdfs 接收器运行水槽。 hdfs 在不同的机器上正常运行,我什至可以与 flume 机器上的 hdfs 交互,但是当我运行 flume 并向它发送事件时,我收到以下错误:
2013-05-26 14:22:11,399 (SinkRunner-PollingRunner-DefaultSinkProcessor) [WARN - org.apache.flume.sink.hdfs.HDFSEventSink.process(HDFSEventSink.java:456)] HDFS IO error
java.io.IOException: Callable timed out after 25000 ms
at org.apache.flume.sink.hdfs.HDFSEventSink.callWithTimeout(HDFSEventSink.java:352)
at org.apache.flume.sink.hdfs.HDFSEventSink.append(HDFSEventSink.java:727)
at org.apache.flume.sink.hdfs.HDFSEventSink.process(HDFSEventSink.java:430)
at org.apache.flume.sink.DefaultSinkProcessor.process(DefaultSinkProcessor.java:68)
at org.apache.flume.SinkRunner$PollingRunner.run(SinkRunner.java:147)
at java.lang.Thread.run(Thread.java:679)
Caused by: java.util.concurrent.TimeoutException
at java.util.concurrent.FutureTask$Sync.innerGet(FutureTask.java:258)
at java.util.concurrent.FutureTask.get(FutureTask.java:119)
at org.apache.flume.sink.hdfs.HDFSEventSink.callWithTimeout(HDFSEventSink.java:345)
... 5 more
同样,连接性不是问题,因为我可以使用 hadoop 命令行与 hdfs 交互(水槽机器不是数据节点)。最奇怪的部分是,在关闭 flume 之后,我可以看到 tmp 文件是在 hdfs 中创建的,但它是空的(并且 .tmp 扩展名仍然存在)。
关于为什么会发生这种情况的任何想法?非常感谢!
最佳答案
检查三件事,如果你的防火墙是关闭的,即 iptables 应该被停止。其次,属性值 agent.sinks.hdfs-sink.hdfs.path = hdfs://PUBLIC_IP:8020/user/hdfs/flume
而不是私有(private) IP。并改变agent.sinks.hdfs-sink.hdfs.callTimeout = 180000
因为默认值为 10000 毫秒,这对于 HDFS 的 react 时间非常短。
谢谢,希尔帕
关于hadoop - 水槽和远程 hdfs 接收器出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16760233/
我已经从“https://github.com/apache/flume/downloads”下载了水槽..但我无法构建它..我需要先安装节俭才能构建水槽吗?如果是这样,原因是什么..我得到了当我运行
就目前而言,这个问题不适合我们的问答形式。我们希望答案得到事实、引用资料或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the
我有以下 flume 代理配置来从 kafka 源读取消息并将它们写回 HDFS 接收器 tier1.sources = source1 tier 1.channels = channel1 tie
我想获取由 AVRO 反序列化器创建的记录并将其发送到 ElasticSearch。我意识到我必须编写自定义代码来执行此操作。 使用 LITERAL 选项,我得到了 JSON 模式,这是使用 Gene
我是 spark 的新手,我们正在运行 spark on yarn。我可以很好地运行我的测试应用程序。我正在尝试收集 Graphite 中的 Spark 指标。我知道要对 metrics.proper
我正在尝试使用 Flume-ng 将数据写入 Hdfs 作为 exec 源。但它总是以退出代码 127 结束。它还显示类似警告 无法从 VM 获取 maxDirectMemory:NoSuchMeth
我是一名优秀的程序员,十分优秀!