gpt4 book ai didi

caching - Kepler 中的 L2 缓存

转载 作者:行者123 更新时间:2023-12-04 02:10:01 24 4
gpt4 key购买 nike

就引用的局部性而言,L2 缓存在采用 Kepler 架构的 GPU 中如何工作?例如,如果一个线程访问全局内存中的一个地址,假设该地址的值不在 L2 缓存中,那么该值是如何被缓存的?是暂时的吗?或者该地址的其他附近值是否也被带到 L2 缓存(空间)?

下图来自NVIDIA白皮书。

Picture is from NVIDIA whitepaper

最佳答案

统一 L2 缓存是随计算能力 2.0 及更高版本一起引入的,并且继续在 Kepler 架构上得到支持。使用的缓存策略是 LRU(最近最少使用),其主要目的是避免全局内存带宽瓶颈。 GPU 应用程序可以展示两种类型的局部性(时间和空间)。

每当尝试读取特定内存时,它会在缓存 L1 和 L2 中查找(如果未找到),则将从缓存行加载 128 字节。这是默认模式。从下图也可以理解为什么 128 位访问模式给出了良好的结果。

enter image description here

关于caching - Kepler 中的 L2 缓存,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19627702/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com