gpt4 book ai didi

apache-kafka - 如何配置 Confluent Platform Kafka 连接日志?

转载 作者:行者123 更新时间:2023-12-04 05:12:06 26 4
gpt4 key购买 nike

我正在使用融合的 kafka 连接服务,但它没有在 /var/log/kafka 中写入日志.如何配置它以将日志写入 /var/log/kafka ?

目前/var/log/kafka 只有以下日志文​​件 -

-rw-r--r-- 1 cp-kafka confluent     0 Sep 20 14:51 kafka-request.log
-rw-r--r-- 1 cp-kafka confluent 0 Sep 20 14:51 kafka-authorizer.log
-rw-r--r-- 1 cp-kafka confluent 1622 Nov 13 15:43 log-cleaner.log
-rw-r--r-- 1 cp-kafka confluent 7611 Nov 13 20:57 state-change.log
-rw-r--r-- 1 cp-kafka confluent 1227 Nov 14 11:13 server.log
-rw-r--r-- 1 cp-kafka confluent 16683 Nov 14 11:13 controller.log

进一步检查后,我发现日志写入 /var/log/messages (我不想要)。
看看下面 connect-log4j.properties :
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=[%d] %p %m (%c:%L)%n
log4j.logger.org.apache.zookeeper=ERROR
log4j.logger.org.I0Itec.zkclient=ERROR
log4j.logger.org.reflections=ERROR

我正在努力在 Confluent 文档中找到这些基本的东西。请帮忙 !

最佳答案

目前,所有日志记录似乎都被重定向到标准输出。要将日志重定向到文件,您需要更改 /etc/kafka/connect-log4j.properties 的内容到 :

log4j.rootLogger=INFO, file
log4j.appender.file=org.apache.log4j.RollingFileAppender
log4j.appender.file.File=/var/log/kafka/connect.log
log4j.appender.file.layout=org.apache.log4j.PatternLayout
log4j.appender.file.layout.ConversionPattern=[%d] %p %m (%c:%L)%n
log4j.appender.file.MaxFileSize=10MB
log4j.appender.file.MaxBackupIndex=5
log4j.appender.file.append=true

更多详情 log4j您可以引用 this article .另外,@Robin Moffatt 写了一个非常好的 article用于将 Kafka Connect 的 REST HTTP 消息记录到单独的文件中。

关于apache-kafka - 如何配置 Confluent Platform Kafka 连接日志?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53297899/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com