- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我有一个在服务器上运行的 python 脚本, celery 调度程序应该每天执行一次。我想将我的日志直接从脚本发送到 splunk。我正在尝试使用这个 splunk_handler图书馆。如果我在本地运行没有 celery 的 splunk_handler,它似乎可以工作。但是,如果我将它与 celery 一起运行,似乎没有日志到达 splunk_handler。控制台日志:
[SplunkHandler DEBUG] Timer thread executed but no payload was available to send
如何正确设置记录器,以便所有日志都进入 splunk_handler?
显然,celery 设置了自己的记录器并覆盖了 python 的根记录器。我尝试了几件事,包括连接 celery 的 setup_logging 信号以防止它覆盖记录器或在此信号中设置记录器。
import logging
import os
from splunk_handler import SplunkHandler
这就是我在文件开头设置记录器的方式
logger = logging.getLogger(__name__)
splunk_handler = SplunkHandler(
host=os.getenv('SPLUNK_HTTP_COLLECTOR_URL'),
port=os.getenv('SPLUNK_HTTP_COLLECTOR_PORT'),
token=os.getenv('SPLUNK_TOKEN'),
index=os.getenv('SPLUNK_INDEX'),
debug=True)
splunk_handler.setFormatter(logging.BASIC_FORMAT)
splunk_handler.setLevel(os.getenv('LOGGING_LEVEL', 'DEBUG'))
logger.addHandler(splunk_handler)
Celery 初始化(不确定,如果 worker_hijack_root_logger
需要设置为 False
...)
app = Celery('name_of_the_application', broker=CELERY_BROKER_URL)
app.conf.timezone = 'Europe/Berlin'
app.conf.update({
'worker_hijack_root_logger': False,
})
这里我连接到来自 celery 的 setup_logging 信号
@setup_logging.connect()
def config_loggers(*args, **kwags):
pass
# logger = logging.getLogger(__name__)
# splunk_handler = SplunkHandler(
# host=os.getenv('SPLUNK_HTTP_COLLECTOR_URL'),
# port=os.getenv('SPLUNK_HTTP_COLLECTOR_PORT'),
# token=os.getenv('SPLUNK_TOKEN'),
# index=os.getenv('SPLUNK_INDEX'),
# debug=True)
#
# splunk_handler.setFormatter(logging.BASIC_FORMAT)
# splunk_handler.setLevel(os.getenv('LOGGING_LEVEL', 'DEBUG'))
# logger.addHandler(splunk_handler)
日志语句
logger.info("ARBITRARY LOG MESSAGE")
当在 splunk 处理程序上激活调试(设置为 True
)时,splunk 处理程序会注销上面已经发布的没有可用的有效载荷。有人知道我的代码有什么问题吗?
最佳答案
经过几个小时找出我的代码最终可能出错的地方,我现在得到了令我满意的结果。首先,我创建了一个文件 loggingsetup.py
,我在其中使用 dictConfig 配置了我的 python 记录器:
LOGGING = {
'version': 1,
'disable_existing_loggers': True,
'formatters': { # Sets up the format of the logging output
'simple': {
'format': '%(asctime)s - %(name)s - %(levelname)s - %(message)s',
'datefmt': '%y %b %d, %H:%M:%S',
},
},
'filters': {
'filterForSplunk': { # custom loggingFilter, to not have Logs logged to Splunk that have the word celery in the name
'()': 'loggingsetup.RemoveCeleryLogs', # class on top of this file
'logsToSkip': 'celery' # word that it is filtered for
},
},
'handlers': {
'splunk': { # handler for splunk, level Warning. to not have many logs sent to splunk
'level': 'WARNING',
'class': 'splunk_logging_handler.SplunkLoggingHandler',
'url': os.getenv('SPLUNK_HTTP_COLLECTOR_URL'),
'splunk_key': os.getenv('SPLUNK_TOKEN'),
'splunk_index': os.getenv('SPLUNK_INDEX'),
'formatter': 'simple',
'filters': ['filterForSplunk']
},
'console': {
'level': 'DEBUG',
'class': 'logging.StreamHandler',
'stream': 'ext://sys.stdout',
'formatter': 'simple',
},
},
'loggers': { # the logger, root is used
'': {
'handlers': ['console', 'splunk'],
'level': 'DEBUG',
'propagate': 'False', # does not give logs to other logers
}
}
}
对于日志过滤器,我必须创建一个继承自 logging.Filter 类的类。该类还依赖于文件 loggingsetup.py
class RemoveCeleryLogs(logging.Filter): # custom class to filter for celery logs (to not send them to Splunk)
def __init__(self, logsToSkip=None):
self.logsToSkip = logsToSkip
def filter(self, record):
if self.logsToSkip == None:
allow = True
else:
allow = self.logsToSkip not in record.name
return allow
之后,您可以像这样配置记录器:
logging.config.dictConfig(loggingsetup.LOGGING)
logger = logging.getLogger('')
并且因为 celery 重定向了它的日志并且日志加倍了,所以我不得不更新 app.conf:
app.conf.update({
'worker_hijack_root_logger': False, # so celery does not set up its loggers
'worker_redirect_stdouts': False, # so celery does not redirect its logs
})
我面临的下一个问题是,我选择的 Splunk_Logging 库与 url 混淆了一些东西。所以我必须创建自己的 splunk_handler 类,它继承自 logging.Handler 类。这里的重要行如下(来 self 的自定义记录器类 splunk_logging_class.py):
auth_header = {'Authorization': 'Splunk {0}'.format(self.splunk_key)}
json_message = {"index": str(self.splunk_index), "event": data}
r = requests.post(self.url, headers=auth_header, json=json_message)
我希望我能帮助那些在 python、splunk 和 celery 日志记录方面面临类似问题的人! :)
关于python - 如果我使用 celery 作为我的任务调度程序,我如何从我的 python 应用程序登录到 splunk?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54144150/
Task.WaitAll 方法等待所有任务,Task.WaitAny 方法等待一个任务。如何等待任意N个任务? 用例:下载搜索结果页面,每个结果都需要一个单独的任务来下载和处理。如果我使用 WaitA
我正在查看一些像这样的遗留 C# 代码: await Task.Run(() => { _logger.LogException(LogLevel.Error, mes
如何在 Linux 中运行 cron 任务? 关注此Q&A ,我有这个 cron 任务要运行 - 只是将一些信息写入 txt 文件, // /var/www/cron.php $myfile = fo
原谅我的新手问题,但我想按顺序执行三个任务并在剧本中使用两个角色: 任务 角色 任务 角色 任务 这是我到目前为止(任务,角色,任务): --- - name: Task Role Task ho
我有一个依赖于 installDist 的自定义任务 - 不仅用于执行,还依赖于 installDist 输出: project.task('run', type: JavaExec, depends
从使用 Wix 创建的 MSI 运行卸载时,我需要在尝试删除任何文件之前强行终止在后台运行的进程。主要应用程序由一个托盘图标组成,它反射(reflect)了 bg 进程监控本地 Windows 服务的
我想编写 Ant 任务来自动执行启动服务器的任务,然后使用我的应用程序的 URL 打开 Internet Explorer。 显然我必须执行 startServer先任务,然后 startApplic
使用 ASP.NET 4.5,我正在尝试使用新的 async/await 玩具。我有一个 IDataReader 实现类,它包装了一个特定于供应商的阅读器(如 SqlDatareader)。我有一个简
使用命令 gradle tasks可以得到一份所有可用任务的报告。有什么方法可以向此命令添加参数并按任务组过滤任务。 我想发出类似 gradle tasks group:Demo 的命令筛选所有任务并
除了sshexec,还有什么办法吗?任务要做到这一点?我知道您可以使用 scp 复制文件任务。但是,我需要执行其他操作,例如检查是否存在某些文件夹,然后将其删除。我想使用类似 condition 的东
假设我有字符串 - "D:\ApEx_Schema\Functions\new.sql@@\main\ONEVIEW_Integration\3" 我需要将以下内容提取到 diff 变量中 - 文档名
我需要编写一个 ant 任务来确定某个文件是否是只读的,如果是,则失败。我想避免使用自定义选择器来为我们的构建系统的性质做这件事。任何人都有任何想法如何去做?我正在使用 ant 1.8 + ant-c
这是一个相当普遍的计算机科学问题,并不特定于任何操作系统或框架。 因此,我对与在线程池上切换任务相关的开销感到有些困惑。在许多情况下,给每个作业分配自己的特定线程是没有意义的(我们不想创建太多硬件线程
我正在使用以下 Ansible playbook 一次性关闭远程 Ubuntu 主机列表: - hosts: my_hosts become: yes remote_user: my_user
如何更改 Ant 中的当前工作目录? Ant documentation没有 任务,在我看来,最好的做法是不要更改当前工作目录。 但让我们假设我们仍然想这样做——你会如何做到这一点?谢谢! 最佳答案
是否可以运行 cronjob每三天一次?或者也许每月 10 次。 最佳答案 每三天运行一次 - 或更短时间在月底运行一次。 (如果上个月有 31 天,它将连续运行 2 天。) 0 0 */3 * *
如何在 Gradle 任务中执行托管在存储库中的工具? 在我的具体情况下,我正在使用 Gradle 构建一个 Android 应用程序。我添加了一项任务,将一些 protobuf 数据从文本编码为二进
我的项目有下一个结构: Root |- A |- C (depends on A) \- B (depends on A) 对于所有子项目,我们使用自己的插件生成资源:https://githu
我设置了一个具有4个节点的Hadoop群集,其中一个充当HDFS的NameNode以及Yarn主节点。该节点也是最强大的。 现在,我分发了2个文本文件,一个在node01(名称节点)上,一个在node
在 TFS 2010 中为多个用户存储任务的最佳方式是什么?我只能为一项任务分配一个。 (例如:当我计划向所有开发人员演示时) (这是一个 Scrum Msf 敏捷项目,其中任务是用户故事的一部分)
我是一名优秀的程序员,十分优秀!