- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在使用融合的 kafka 连接服务,但它没有在 /var/log/kafka
中写入日志.如何配置它以将日志写入 /var/log/kafka
?
目前/var/log/kafka 只有以下日志文件 -
-rw-r--r-- 1 cp-kafka confluent 0 Sep 20 14:51 kafka-request.log
-rw-r--r-- 1 cp-kafka confluent 0 Sep 20 14:51 kafka-authorizer.log
-rw-r--r-- 1 cp-kafka confluent 1622 Nov 13 15:43 log-cleaner.log
-rw-r--r-- 1 cp-kafka confluent 7611 Nov 13 20:57 state-change.log
-rw-r--r-- 1 cp-kafka confluent 1227 Nov 14 11:13 server.log
-rw-r--r-- 1 cp-kafka confluent 16683 Nov 14 11:13 controller.log
/var/log/messages
(我不想要)。
connect-log4j.properties
:
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=[%d] %p %m (%c:%L)%n
log4j.logger.org.apache.zookeeper=ERROR
log4j.logger.org.I0Itec.zkclient=ERROR
log4j.logger.org.reflections=ERROR
最佳答案
目前,所有日志记录似乎都被重定向到标准输出。要将日志重定向到文件,您需要更改 /etc/kafka/connect-log4j.properties
的内容到 :
log4j.rootLogger=INFO, file
log4j.appender.file=org.apache.log4j.RollingFileAppender
log4j.appender.file.File=/var/log/kafka/connect.log
log4j.appender.file.layout=org.apache.log4j.PatternLayout
log4j.appender.file.layout.ConversionPattern=[%d] %p %m (%c:%L)%n
log4j.appender.file.MaxFileSize=10MB
log4j.appender.file.MaxBackupIndex=5
log4j.appender.file.append=true
log4j
您可以引用
this article .另外,@Robin Moffatt 写了一个非常好的
article用于将 Kafka Connect 的 REST HTTP 消息记录到单独的文件中。
关于apache-kafka - 如何配置 Confluent Platform Kafka 连接日志?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53297899/
我已经在 https://docs.confluent.io/current/quickstart/ce-docker-quickstart.html 的帮助下使用 docker 在我的 Window
说明页面显示为:- 安装 Confluent Cloud CLI运行此命令以安装 Confluent Cloud CLI。curl -L --http1.1 https://cnfl.io/cclou
以下内容基于此处的快速入门指南:http://docs.confluent.io/current/cp-docker-images/docs/quickstart.html 在那里,他们在自己的 do
我们计划将 AWS MSK 服务用于 Managed Kafka 和 Schema Registry 以及来自 Confluent 的 Kafka Connect 服务来运行我们的连接器(Elasti
我正在使用 Confluent 管理的 Kafka 集群、Schema Registry 服务并尝试在 Flink 作业中处理 Debezium 消息。该作业配置为使用 Table & SQL Con
confluent control center 没有启动。 我执行了以下命令来启动 Confluent 平台 Zookeeper 开始(1 号航站楼) Kafka 启动(2 号航站楼) Schema
目前,我将Maven与io.fabric8 docker-maven-plugin一起使用,以自动启动Kafka和ZooKeeper。这是我当前的配置,可以正常工作: 2181 12
应用概述: 接受来自客户端的日志的提取服务。处理日志,然后将其推送到Kafka。由于这些日志非常重要,我无法承受同样的损失,因此我决定采用相同的交易记录。 文档状态: 通过设置生产者实例来配置交易 t
我正在寻找安装融合模式注册表的选项,是否可以单独下载和安装注册表并使其与现有的 kafka 设置一起使用? 谢谢 最佳答案 假设您已经运行了 Zookeeper/Kafka,您可以通过运行以下命令使用
我想将 kafka 日志文件移动到 hadoop 日志文件。所以我遵循 HDFS 连接器配置 /quickstart-hdfs.properties name=hdfs-sink connector.
社区,您能帮我理解为什么 ~3% 的消息没有在 HDFS 中结束吗?我用 JAVA 编写了一个简单的生成器来生成 1000 万条消息。 public static final String TEST_
我是 kafka 的新手并且很流畅。我写了一个与 https://www.confluent.fr/blog/schema-registry-avro-in-spring-boot-applicati
有人能帮我理解融合控制中心时间线上的红色条纹是什么意思吗? 最佳答案 红色条纹表示在处理监控数据时遇到了丢失或重复的拦截器记录。文档描述了这种行为: It’s also possible for me
我正在使用 confluent 连接我的数据库和 ES,因为出现异常: org.apache.kafka.connect.errors.DataException: STRUCT is not sup
我正在使用 confluentinc/cp-kafka Docker 镜像在本地运行 Kafka,我正在设置以下日志记录容器环境变量: KAFKA_LOG4J_ROOT_LOGLEVEL: ERROR
我正在查看 Apache Kafka v2.0.0,我无法弄清楚它支持哪个版本的 java(OpenJDK 或 Oracle JDK 的新生命周期)?到目前为止,我看到了相互矛盾的文档。例如:在 Ap
我正在运行 AWS linux 服务器 (centOS 7.x) 中试用开源 Confluent 平台。在以 root 身份在 oss(开源版本)版本上执行 yum install 后,可以很直接地使
我尝试在以下位置运行 kafka-streams 示例:https://github.com/confluentinc/examples/tree/master/kafka-streams 分支“ka
我想问一下我在Mac OS Mojave上安装confluent golang kafka客户端的问题。 为什么安装golang kafka客户端时总是报错 go get -u github.com/
我正在使用 python 3.7 和 confluent-kafka。 以下是我用来轮询 kafka 服务器并读取消息的伪代码。 while True: MSG
我是一名优秀的程序员,十分优秀!