gpt4 book ai didi

scylla - 表的mean_partition_size显示错误的极高值

转载 作者:行者123 更新时间:2023-12-02 11:18:15 25 4
gpt4 key购买 nike

我在 scylla 中有一个表,称之为“tablex”,在键空间“keyspacey”中,现在,我将其中的数据加载到 Spark 中,并且我观察到了非常大量的分区,深入研究了我看到的代码它使用mean_partition_size,可以使用以下查询看到:

SELECT range_start, range_end, partitions_count, mean_partition_size FROM system.size_estimates WHERE keyspace_name = 'keyspacey' AND table_name = 'tablex';

tablex 有 586 行,每行由时间戳、文本、文本、bigint 组成。

运行上面的查询,我得到了 256 行,所有行的 partition_count=1 且 nean_partition_size=5960319812。

问题的原因是什么以及如何解决?

最佳答案

看起来您遇到了这个错误:https://github.com/scylladb/scylla/issues/3916

已在 Scylla 3.0 中修复 - 我们建议升级。升级指南在https://docs.scylladb.com/upgrade/upgrade-opensource/upgrade-guide-from-2.3-to-3.0/

关于scylla - 表的mean_partition_size显示错误的极高值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54388747/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com