gpt4 book ai didi

docker - Prometheus从未知数量的(docker-)主机中刮取

转载 作者:行者123 更新时间:2023-12-02 19:07:42 24 4
gpt4 key购买 nike

我有一个Docker Swarm,其中带有Prometheus容器和用于特定微服务的1-n容器。
可以通过URL来访问微服务容器。我想对此网址的请求是一种负载均衡的(当然...)。
目前,我已经生成了两个微服务容器。现在,查询指标似乎可以在两个容器之间切换。示例:请求总数:10、13、10、13、10、13 ...
这是我的Prometheus配置。我需要做什么?我不想每次杀死或启动微服务容器时都调整Prometheus配置。

scrape_configs:
- job_name: 'myjobname'
metrics_path: '/prometheus'
scrape_interval: 15s
static_configs:
- targets: ['the-service-url:8080']
labels:
application: myapplication
更新1
我更改了配置,如下所示,这似乎可行。此配置在Docker Swarm中使用dns查找,并查找所有运行指定服务的实例。
scrape_configs:
- job_name: 'myjobname'
metrics_path: '/prometheus'
scrape_interval: 15s
dns_sd_configs:
- names: ['tasks.myServiceName']
type: A
port: 8080
这里的问题是:此配置是否可以识别到一个Docker实例已停止并已启动另一个实例?
更新2
我要的是一个参数:
scrape_configs:
- job_name: 'myjobname'
metrics_path: '/prometheus'
scrape_interval: 15s
dns_sd_configs:
- names: ['tasks.myServiceName']
type: A
port: 8080
# The time after which the provided names are refreshed
[ refresh_interval: <duration> | default = 30s ]
这应该够了吧。

最佳答案

所以答案很简单:
multiple, documented ways to scrape
我正在使用dns-lookup-way:

scrape_configs:
- job_name: 'myjobname'
metrics_path: '/prometheus'
scrape_interval: 15s
dns_sd_configs:
- names ['tasks.myServiceName']
type: A
port: 8080
refresh_interval: 15s

关于docker - Prometheus从未知数量的(docker-)主机中刮取,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47314983/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com