gpt4 book ai didi

cassandra-3.0 - 在 cassandra 中达到最大内存使用量(536870912 字节),无法分配 1048576 字节的 block

转载 作者:行者123 更新时间:2023-12-03 17:38:18 25 4
gpt4 key购买 nike

我正在使用 apache cassandra-3.0.6 ,4 节点集群,RF=3,一致性为 '1',堆 16GB。

我在 system.log 中收到信息消息为“ INFO [SharedPool-Worker-1] 2017-03-14 20:47:14,929 NoSpamLogger.java:91 - 达到最大内存使用量(536870912 字节),无法分配 104856 字节的块"

不知道它究竟意味着哪个内存,我已经尝试通过将 Cassandra.yaml 文件中的 file_cache_size_in_mb 从 512 增加到 1024 但它再次立即填充剩余的 512MB 增加并通过显示与“ INFO”相同的信息消息来停止应用程序记录[SharedPool-Worker-5] 2017-03-16 06:01:27,034 NoSpamLogger.java:91 - 达到最大内存使用量(1073741824 字节),无法分配 1048576 字节的块 "

请建议是否有人遇到过同样的问题..谢谢!

巴尔加夫

最佳答案

据我所知,使用 Cassandra 3.11,无论您设置多大file_cache_size_in_mb ,您仍会收到此消息。缓存填满,并写入这个无用的消息。无论我将其设置为 2GB 还是 20GB,都会发生这种情况。这可能是缓存驱逐策略中的一个错误,但我不知道。

关于cassandra-3.0 - 在 cassandra 中达到最大内存使用量(536870912 字节),无法分配 1048576 字节的 block ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42826686/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com