gpt4 book ai didi

违反了Cassandra Tombstoning警告和失败阈值

转载 作者:行者123 更新时间:2023-12-04 16:34:03 25 4
gpt4 key购买 nike

我们正在运行由Cassandra支持的Titan Graph DB服务器作为持久性存储,并且遇到了Cassandra逻辑删除阈值限制的问题,该问题导致我们的查询随着数据累积而定期失败/超时。压缩似乎无法跟上所添加的逻辑删除的数量。

我们的用例支持:

  • 高读取/写入吞吐量。
  • 对读取的高度敏感性。
  • 经常更新Titan中的节点值。导致在Cassandra中更新行。

  • 在上述使用情况下,我们已经在优化Cassandra,使其积极地执行以下操作:
  • 通过使用分层压缩策略
  • 进行积极压缩
  • 使用tombstone_compaction_interval为60秒。
  • 使用tombstone_threshold为0.01
  • 将gc_grace_seconds设置为1800

  • 尽管进行了以下优化,但仍在Cassandra日志中看到类似于以下内容的警告:
    [WARN](ReadStage:7510)org.apache.cassandra.db.filter.SliceQueryFilter:在.graphindex中读取0个事件的和10350个逻辑删除的单元格(请参见tombstone_warn_threshold)。请求了8001列,切片= [00-ff],delInfo = {deletedAt = -9223372036854775808,localDeletion = 2147483647}

    有时,随着时间的推移,我们还会看到故障阈值被破坏并导致错误。

    我们的cassandra.yaml文件的tombstone_warn_threshold为10000,tombstone_failure_threshold大大高于建议的250000,没有明显的好处。

    如果还有进一步优化的余地,可以为我们提供正确配置的任何帮助将不胜感激。在此先感谢您的时间和帮助。

    最佳答案

    听起来问题的根源在于数据模型。您已尽一切努力减轻了TombstoneOverwhelmingException的负担。由于您的数据模型需要如此频繁的更新,从而导致创建逻辑删除,因此最终的一致存储(如Cassandra)可能不太适合您的用例。当我们遇到这些类型的问题时,我们必须更改数据模型以更好地适应Cassandra的优势。

    关于删除http://www.slideshare.net/planetcassandra/8-axel-liljencrantz-23204252(幻灯片34-39)

    关于违反了Cassandra Tombstoning警告和失败阈值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28972501/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com