gpt4 book ai didi

docker - 在docker-compose期间,Kibana数据已丢失

转载 作者:行者123 更新时间:2023-12-03 01:24:32 26 4
gpt4 key购买 nike

我正在使用麋鹿 docker 图像,并使用以下docker-compose文件启动ELK容器并批量存储数据。

  version: '3.5'

services:

elasticsearch:
build:
context: elasticsearch/
volumes:
- ./elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml:ro
ports:
- "9200:9200"
- "9300:9300"
environment:
ES_JAVA_OPTS: "-Xmx256m -Xms256m"
networks:
- elk

logstash:
build:
context: logstash/
volumes:
- ./logstash/config/logstash.yml:/usr/share/logstash/config/logstash.yml:ro
- ./logstash/pipeline:/usr/share/logstash/pipeline:ro
ports:
- "5000:5000"
environment:
LS_JAVA_OPTS: "-Xmx256m -Xms256m"
networks:
- elk
depends_on:
- elasticsearch

kibana:
build:
context: kibana/
volumes:
- ./kibana/config/:/usr/share/kibana/config:ro
ports:
- "5601:5601"
networks:
- elk
depends_on:
- elasticsearch

networks:

elk:
driver: bridge

Kibana版本6.6.0

我使用下面的命令开始:
docker-compose up -d

观察到这三个容器都已启动并且正在运行,并且我可以将数据发布到kibana中,并且可以将其可视化。

我只是有情况要关闭此撰写文件并启动。但是,当我进行该 Activity 时,所有早期的kibana数据都丢失了。
docker-compose down

有什么办法可以将这些记录永久存储在计算机中(Linux框中的某些位置)作为备份,还是其他数据库?

请帮我。

最佳答案

您必须将elasticsearch数据目录(/usr/share/elasticsearch/data)移入持久性Docker卷,如下所示:

  elasticsearch:
build:
context: elasticsearch/
volumes:
- ./elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml:ro
- ./es_data:/usr/share/elasticsearch/data
ports:
- "9200:9200"
- "9300:9300"
environment:
ES_JAVA_OPTS: "-Xmx256m -Xms256m"
networks:
- elk

关于docker - 在docker-compose期间,Kibana数据已丢失,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58850013/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com