gpt4 book ai didi

json - 如何从kubernetes容器中流畅地/elasticsearch将 “log” key_name解析为json?

转载 作者:行者123 更新时间:2023-12-03 00:46:44 26 4
gpt4 key购买 nike

我在尝试将流利的k8s集群中的日志记录入Elasticsearch时遇到问题。

我有几个Web应用程序,它们的日志输出为json。通过在Docker容器中本地使用简单的设置,我可以灵活地正确读取和解析日志。这是在kibana中显示的本地json的示例:

{
"_index": "logstash-2020.01.17",
"_type": "fluentd",
"_id": "S620sm8B2LEvFR841ylg",
"_version": 1,
"_score": null,
"_source": {
"log": {
"@timestamp": "2020-01-17T08:53:03.066290",
"caller": "StaticFileHelper.py::get",
"data": {
"python.thread": "Thread-1[{record.thread}]",
"python.lineno": 45,
"python.filename": "StaticFileHelper.py",
"python.logger_name": "root",
"python.module": "StaticFileHelper",
"python.funcName": "get",
"python.pid": 11239
},
"message": "application/javascript",
"level": "INFO"
},
"@timestamp": "2020-01-17T08:53:03.000000000+00:00"
},
"fields": {
"@timestamp": [
"2020-01-17T08:53:03.000Z"
],
"log.@timestamp": [
"2020-01-17T08:53:03.066Z"
]
},
"sort": [
1579251183000
]
}

在索引模式下,我可以看到正确的映射。当我在日志输出中引入新字段时,映射会更新。输出样本在这里:
log.@timestamp: date
log.caller: string
log.caller.keyword: string
log.data.python.filename: string
log.data.python.filename.keyword: string
log.data.python.funcName :string

在集群中,“log”字段未正确解析:
{
"_index": "logstash-2020.01.17",
"_type": "fluentd",
"_id": "atUDs28BFgXM_nqQvYUY",
"_version": 1,
"_score": null,
"_source": {
"log": "{'@timestamp': '2020-01-17T10:19:21.775339', 'caller': 'RequestLoggingManager.py::print_request_id', 'data': {'python.thread': 'MainThread[{record.thread}]', 'python.lineno': 28, 'python.filename': 'RequestLoggingManager.py', 'python.logger_name': 'root', 'python.module': 'RequestLoggingManager', 'python.funcName': 'print_request_id', 'request_id': '1579256361-1494-XYyVj', 'python.pid': 8}, 'message': 'request: \"1579256361-1497-JUeYF\" is about to enter \"get_settings\"', 'level': 'INFO'}\n",
"stream": "stderr",
"docker": {
"container_id": "fc5b0d5b0aa4008961b18dfe93c4e04b2cfbde0f7ff072dc702c55823baba3a4"
},
"kubernetes": {
"container_name": "cms",
"namespace_name": "default",
"pod_name": "cms-68c4b49657-b88hs",
"container_image": "HIDDEN",
"container_image_id": "HIDDEN",
"pod_id": "ffc6a681-390b-11ea-bcac-42010a8000be",
"labels": {
"app": "cms",
"pod-template-hash": "68c4b49657",
"version": "1.0.0"
},
"host": "HIDDEN",
"master_url": "https://10.0.0.1:443/api",
"namespace_id": "1ede7315-14fa-11ea-95c1-42010a80010f"
},
"@timestamp": "2020-01-17T10:19:21.776876369+00:00",
"tag": "kubernetes.var.log.containers.cms-68c4b49657-b88hs_default_cms-fc5b0d5b0aa4008961b18dfe93c4e04b2cfbde0f7ff072dc702c55823baba3a4.log"
},
"fields": {
"@timestamp": [
"2020-01-17T10:19:21.776Z"
]
},
"highlight": {
"kubernetes.labels.app": [
"@kibana-highlighted-field@cms@/kibana-highlighted-field@"
]
},
"sort": [
1579256361776
]
}

映射显示为:
log: string
log.keyword: string

自定义json映射均无法识别。

是否可以自定义此“日志”字段,如果可以,我需要在哪里进行更改?我对流利和富有 flex 还很陌生,因此不胜感激!

我正在kubernetes上使用fluent / fluentd-kubernetes-daemonset。

最佳答案

为了解决这个问题,我在docker中本地运行了fluent / fluentd-kubernetes-daemonset:v1.4.2-debian-elasticsearch-1.1镜像。必须确保我在初始运行时将FLUENT_ELASTICSEARCH_USER和FLUENT_ELASTICSEARCH_PASSWORD指定为env变量,因为entrypoint.sh尝试替换容器fluent.conf文件中的信息。如果您未指定密码,它将清除文件中的信息。

然后就是执行进入正在运行的容器并将以下信息添加到fluent.conf的情况:

filter **>
@type record_transformer
<record>
log_json ${record["log"]}
</record>
</filter>


<filter **>
@type parser
@log_level debug
key_name log_json
reserve_data true
remove_key_name_field true
emit_invalid_record_to_error false
<parse>
@type json
</parse>
</filter>

之后,我退出并停止了容器,将容器提交到我自己在Docker Hub上的仓库中的新镜像,并在DaeomnSet yaml文件中引用了新镜像,我们将其用于最多部署k8s。

这可能不是最巧妙或最有效的方法,但是在缺少有关如何自定义fluentd.conf的文档的情况下,这是目前的诀窍。

关于json - 如何从kubernetes容器中流畅地/elasticsearch将 “log” key_name解析为json?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59785699/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com