gpt4 book ai didi

caching - Guava Cache - maximumSize - 驱逐(LRU 或最常见)

转载 作者:行者123 更新时间:2023-12-04 13:12:49 24 4
gpt4 key购买 nike

我计划在我的应用程序中使用 Guava Cache。部分 [K, V] 访问的对在统计上比其他对 >> 并且应该总是在缓存中可用。

根据 Sized Based Eviction 的规范

If your cache should not grow beyond a certain size, just use CacheBuilder.maximumSize(long). The cache will try to evict entries that haven't been used recently or very often



我想了解 经常 部分。我可以假设 - 对于 maximumSize = 100 的缓存, 如果 Key_A被访问 10000次并立即发帖说有 100看跌期权, Key_A仍然会出现在缓存中?我进行的基本单元测试似乎并没有证实这一事实。有什么想法吗?
public class CacheHelper
{
private Cache<String, String> cache;
public CacheHelper()
{
cache = CacheBuilder.newBuilder().maximumSize(10).concurrencyLevel(1).build();
}

public String fetchVal(String key)
{
String val = cache.getIfPresent(key);
return val;
}

public void putVal(String key, String val)
{
cache.put(key, val);
}
}

测试
public class CacheTest
{
public static void main(String[] args)
{
CacheHelper cacheHelper = new CacheHelper();
cacheHelper.putVal("0", "0");
for(int i = 0; i < 10000; i++)
{
cacheHelper.fetchVal("0");
}
System.out.println(cacheHelper.fetchVal("0"));
for(int i = 1; i < 11; i++)
{
String key = "" + i;
cacheHelper.putVal(key, key);
}
System.out.println(cacheHelper.fetchVal("0")); // Still returns NULL - "most often not being used?"
}
}

谢谢

最佳答案

根据我的轻描淡写 Guava Cache使用 LRU 作为默认驱逐策略

在您的情况下,当您添加 10 个新值时,键“0”的条目成为最旧的值,因此当缓存达到其最大大小时,最旧的值被驱逐。

关于caching - Guava Cache - maximumSize - 驱逐(LRU 或最常见),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24944252/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com