gpt4 book ai didi

elasticsearch - 小索引的Elasticsearch分片分配

转载 作者:行者123 更新时间:2023-12-03 00:35:55 24 4
gpt4 key购买 nike

我有一个Elasticsearch设置,其中包含192个 Activity 索引,范围从几百mb到可能的5gb。我读到对于具有1gb索引的logstash用例,您应该只使用1个分片。与我的设置不同的是,我将有更多的用户(估计最多100个)期望快速的响应时间。我打算有1个副本以确保可靠性。

每个索引具有1个分片是否仍然适合我的用例?

最佳答案

一句话:是的。

需要创建多个主分片的原因是需要隔离文档,数量过多(例如,当您处于数十亿个文档量时)或提高写入吞吐量(在更多地方写入文档,从而减轻个人负担)。

实际上,除非您是前两种情况(隔离或极端计数)之一,否则您要根据用例进行分片。

  • 你读得很重吗?
  • 你写得很重吗? (很少见,但确实会发生)

  • 如果您像大多数用例一样阅读繁重的内容,那么减少分片数量将可以通过限制请求大小(减少查找位置)来帮助您。鉴于您的分片大小也相对较小(我认为5 GB以下的任何内容都相对较小),因此您可以轻松摆脱拥有单个主分片的问题,这样做会有益于您的搜索性能。

    共享相同映射但也很小(“几百MB”)的索引,如果在它们之间进行搜索,则可能应该合并。如果它们是独立的,那么它实际上没有任何区别,并且隔离听起来像是一种好习惯,但代价是会使集群状态(每个索引)略微膨胀。

    关于elasticsearch - 小索引的Elasticsearch分片分配,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34520201/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com