gpt4 book ai didi

kubernetes - 在 cAdvisor 的刮板中更改 Prometheus 作业标签会破坏 Grafana 仪表板

转载 作者:行者123 更新时间:2023-12-04 16:36:27 26 4
gpt4 key购买 nike

我使用 Helm 在我的 Kubernetes 集群上安装了 Prometheus,使用社区图表 kube-prometheus-stack - 我在捆绑的 Grafana 实例中得到了一些漂亮的仪表板。我现在希望 Vertical Pod Autoscaler 的推荐系统使用 Prometheus 作为历史指标的数据源,as described here .意思是,我必须为 cAdvisor 和 this answer 更改 Prometheus scraper 设置。为我指明了正确的方向,因为进行更改后,我现在可以在 cAdvisor 的指标上看到正确的 job 标签。

不幸的是,现在 Grafana 仪表板中的一些图表已损坏。看起来它不再获取 CPU 指标 - 而只是为与 CPU 相关的图表显示“无数据”。

所以,我假设我必须调整图表才能再次正确获取指标,但我在 Grafana 中没有看到任何明显的地方可以这样做?

不确定它是否与问题相关,但我在 Azure Kubernetes 服务 (AKS) 上运行我的 Kubernetes 集群。

这是我在安装 Prometheus 时提供给 Helm 图表的完整 values.yaml:

kubeControllerManager:
enabled: false
kubeScheduler:
enabled: false
kubeEtcd:
enabled: false
kubeProxy:
enabled: false
kubelet:
serviceMonitor:
# Diables the normal cAdvisor scraping, as we add it with the job name "kubernetes-cadvisor" under additionalScrapeConfigs
# The reason for doing this is to enable the VPA to use the metrics for the recommender
# https://github.com/kubernetes/autoscaler/blob/master/vertical-pod-autoscaler/FAQ.md#how-can-i-use-prometheus-as-a-history-provider-for-the-vpa-recommender
cAdvisor: false
prometheus:
prometheusSpec:
retention: 15d
storageSpec:
volumeClaimTemplate:
spec:
# the azurefile storage class is created automatically on AKS
storageClassName: azurefile
accessModes: ["ReadWriteMany"]
resources:
requests:
storage: 50Gi
additionalScrapeConfigs:
- job_name: 'kubernetes-cadvisor'
scheme: https
metrics_path: /metrics/cadvisor
tls_config:
ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
insecure_skip_verify: true
bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
kubernetes_sd_configs:
- role: node
relabel_configs:
- action: labelmap
regex: __meta_kubernetes_node_label_(.+)

Kubernetes 版本:1.21.2

kube-prometheus-stack 版本:18.1.1

helm 版本:version.BuildInfo{Version:"v3.6.3", GitCommit:"d506314abfb5d21419df8c7e7e68012379db2354", GitTreeState:"dirty", GoVersion:"go1.16.5"

最佳答案

不幸的是,我无权访问 Azure AKS,因此我在我的 GKE 集群上重现了这个问题。下面我将提供一些可能有助于解决您的问题的解释。

首先您可以尝试执行此 node_namespace_pod_container:container_cpu_usage_seconds_total:sum_irate 规则以查看它是否返回任何结果:

enter image description here

如果没有返回任何记录,请阅读以下段落。

为 cAdvisor 创建抓取配置

与其为 cadvisor 创建一个全新的抓取配置,我建议使用在 kubelet.serviceMonitor.cAdvisor: true 时默认生成的配置,但进行一些修改,例如更改标签到 job=kubernetes-cadvisor

在我的示例中,“kubernetes-cadvisor”抓取配置如下所示:

注意: 我在 values.yaml 文件的 additionalScrapeConfigs 下添加了这个配置(values.yaml 的其余部分 文件可能和你的一样)。

- job_name: 'kubernetes-cadvisor'
honor_labels: true
honor_timestamps: true
scrape_interval: 30s
scrape_timeout: 10s
metrics_path: /metrics/cadvisor
scheme: https
authorization:
type: Bearer
credentials_file: /var/run/secrets/kubernetes.io/serviceaccount/token
tls_config:
ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
insecure_skip_verify: true
follow_redirects: true
relabel_configs:
- source_labels: [job]
separator: ;
regex: (.*)
target_label: __tmp_prometheus_job_name
replacement: $1
action: replace
- source_labels: [__meta_kubernetes_service_label_app_kubernetes_io_name]
separator: ;
regex: kubelet
replacement: $1
action: keep
- source_labels: [__meta_kubernetes_service_label_k8s_app]
separator: ;
regex: kubelet
replacement: $1
action: keep
- source_labels: [__meta_kubernetes_endpoint_port_name]
separator: ;
regex: https-metrics
replacement: $1
action: keep
- source_labels: [__meta_kubernetes_endpoint_address_target_kind, __meta_kubernetes_endpoint_address_target_name]
separator: ;
regex: Node;(.*)
target_label: node
replacement: ${1}
action: replace
- source_labels: [__meta_kubernetes_endpoint_address_target_kind, __meta_kubernetes_endpoint_address_target_name]
separator: ;
regex: Pod;(.*)
target_label: pod
replacement: ${1}
action: replace
- source_labels: [__meta_kubernetes_namespace]
separator: ;
regex: (.*)
target_label: namespace
replacement: $1
action: replace
- source_labels: [__meta_kubernetes_service_name]
separator: ;
regex: (.*)
target_label: service
replacement: $1
action: replace
- source_labels: [__meta_kubernetes_pod_name]
separator: ;
regex: (.*)
target_label: pod
replacement: $1
action: replace
- source_labels: [__meta_kubernetes_pod_container_name]
separator: ;
regex: (.*)
target_label: container
replacement: $1
action: replace
- separator: ;
regex: (.*)
target_label: endpoint
replacement: https-metrics
action: replace
- source_labels: [__metrics_path__]
separator: ;
regex: (.*)
target_label: metrics_path
replacement: $1
action: replace
- source_labels: [__address__]
separator: ;
regex: (.*)
modulus: 1
target_label: __tmp_hash
replacement: $1
action: hashmod
- source_labels: [__tmp_hash]
separator: ;
regex: "0"
replacement: $1
action: keep
kubernetes_sd_configs:
- role: endpoints
kubeconfig_file: ""
follow_redirects: true
namespaces:
names:
- kube-system

修改普罗米修斯规则

默认情况下,Prometheus 规则在其 PromQL 表达式中使用 job="kubelet" 从 cAdvisor 获取数据:

enter image description here

job=kubelet改为job=kubernetes-cadvisor后,我们还需要修改Prometheus规则中的这个标签:
注意:我们只需要修改具有 metrics_path="/metrics/cadvisor 的规则(这些是从 cAdvisor 检索数据的规则)。

$ kubectl get prometheusrules prom-1-kube-prometheus-sta-k8s.rules -o yaml
...
- name: k8s.rules
rules:
- expr: |-
sum by (cluster, namespace, pod, container) (
irate(container_cpu_usage_seconds_total{job="kubernetes-cadvisor", metrics_path="/metrics/cadvisor", image!=""}[5m])
) * on (cluster, namespace, pod) group_left(node) topk by (cluster, namespace, pod) (
1, max by(cluster, namespace, pod, node) (kube_pod_info{node!=""})
)
record: node_namespace_pod_container:container_cpu_usage_seconds_total:sum_irate
...
here we have a few more rules to modify...

修改Prometheus规则后,等待一段时间,看看是否达到预期效果。我们可以尝试像开始时一样执行 node_namespace_pod_container:container_cpu_usage_seconds_total:sum_irate

此外,让我们检查一下我们的 Grafana 以确保它已开始正确显示我们的仪表板: enter image description here

关于kubernetes - 在 cAdvisor 的刮板中更改 Prometheus 作业标签会破坏 Grafana 仪表板,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69406120/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com