gpt4 book ai didi

java - rocksdb 的 Flink 增量检查点使用大量内存

转载 作者:行者123 更新时间:2023-12-04 17:36:49 29 4
gpt4 key购买 nike

现在我在 Flink 中使用增量检查点和 RocksDB,在容器环境中运行。据我所知,rocksdb 在做增量检查点时会使用大量内存,已经有一个 JIRA 描述了这个问题: https://issues.apache.org/jira/browse/FLINK-7289我试图调整我的 Rocksdb 的配置,但我的容器仍然因为 OOM 而被杀死。这是监控页面:我的容器将被杀死并重新启动,然后再次被杀死。

enter image description here

这是我的配置:

public class BackendOptions implements OptionsFactory {

@Override
public DBOptions createDBOptions(DBOptions dbOptions) {
return dbOptions
.setIncreaseParallelism(4)
.setUseFsync(false)
.setMaxOpenFiles(-1);

}
@Override
public ColumnFamilyOptions createColumnOptions(ColumnFamilyOptions columnFamilyOptions) {
return columnFamilyOptions.setCompactionStyle(CompactionStyle.LEVEL)
.setLevelCompactionDynamicLevelBytes(true)
.setTargetFileSizeBase(256 * 1024 * 1024)
.setWriteBufferSize(64 * 1024 * 1024)
.setMaxBytesForLevelBase(1024 * 1024 * 1024)
.setMinWriteBufferNumberToMerge(2)
.setMaxWriteBufferNumber(5)

.setOptimizeFiltersForHits(true)
.setTableFormatConfig(
new BlockBasedTableConfig()
.setBlockCacheSize(256 * 1024 * 1024) // 256 MB
.setBlockSize(128 * 1024) //// 128 KB
.setCacheIndexAndFilterBlocks(true)
);
}

我每 1 分钟创建一次检查点,状态大小约为 5GB。有人可以帮助我或告诉我一些使用增量检查点的正确方法吗?

最佳答案

这似乎在较新版本的 Flink 中得到修复,即 1.10 及更高版本。问题是关于 2019 年和 2020 年 2 月,相关问题已关闭。

可以在这里找到详细信息 https://issues.apache.org/jira/browse/FLINK-7289

关于java - rocksdb 的 Flink 增量检查点使用大量内存,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56393629/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com