gpt4 book ai didi

logging - 如何在pyspark中使用log4j配置特定记录器的日志级别?

转载 作者:行者123 更新时间:2023-12-04 12:48:53 25 4
gpt4 key购买 nike

来自 this StackOverflow 线程,我知道如何在 pyspark 中获取和使用 log4j 记录器,如下所示:

from pyspark import SparkContext
sc = SparkContext()
log4jLogger = sc._jvm.org.apache.log4j
LOGGER = log4jLogger.LogManager.getLogger('MYLOGGER')
LOGGER.info("pyspark script logger initialized")

这适用于 spark-submit 脚本。

我的问题是如何修改 log4j.properties 文件以配置此特定记录器的日志级别或如何动态配置它?

最佳答案

关于如何通过 log4j.properties 文件配置 log4j 还有其他答案,但我还没有看到有人提到如何动态地进行配置,所以:

from pyspark import SparkContext
sc = SparkContext()
log4jLogger = sc._jvm.org.apache.log4j
LOGGER = log4jLogger.LogManager.getLogger('MYLOGGER')

# same call as you'd make in java, just using the py4j methods to do so
LOGGER.setLevel(log4jLogger.Level.WARN)

# will no longer print
LOGGER.info("pyspark script logger initialized")

关于logging - 如何在pyspark中使用log4j配置特定记录器的日志级别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41740750/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com